量子位 | "大众年夜众号 QbitAI

AI玩黑神话,第一个精英怪牯护院轻松拿捏啊。

有方向感,视角也没有问题。

躲闪劈棍很丝滑。

GPT4o玩黑神话精英怪胜率超人类无强化进修纯大年夜模型筹划

乃至在打鸦喷鼻香客和牯护院时,AI的胜率已经超过人类

而且是完备利用大模型玩,没有利用强化学习。

阿里巴巴的研究职员们提出了一个新型VARP(视觉动作角色扮演)智能体框架。

它能直接将游戏截图作为输入,通过视觉措辞模型推理,最终生成Python代码形式的动作,以此来操作游戏。

以玩《黑神话·悟空》为例,该智能体在90%大略和中等水平战斗场景中取胜。

GPT-4o、Claude 3.5都来迎战

研究职员以《黑神话·悟空》为研究平台,一共定义了12个任务,75%与战斗有关。

他们构建了一个人类操作数据集,包含键鼠操作和游戏截图,一共1000条有效数据。

每个操作都是由原子命令的各种组合组成的序列。
原子命令包括轻攻、闪避、重攻击、回血等。

然后,他们提出了VARP智能体框架。

紧张包含动作方案系统和人类勾引轨迹系统。

个中动作方案系统由情境库、动作库和人类勾引库组成,利用 VLMs 进行动作推理和天生,引入分解特界说务的赞助模块和自我优化的动作天生模块。

人类勾引轨迹系统利用人类操作数据改进智能体性能,对付困难任务,通过查询人类勾引库获取相似截图和操作,天生新的人类勾引动作。

同时VARP还包含3个库:情景库、动作库和人工勾引库。

这些库中存储了agent自我学习和人类辅导的内容,可以进行检索和更新。

动作库中,“def new_func_a()”表示动作操持系统天生的新动作,“def new_func_h()”表示人导轨迹系统天生的动作。
”def pre_func()”代表预定义的动作。

动作案例研究和相应的游戏截图。
第一行和第二行中的操作是预定义的函数。
第三行动作由人工制导轨迹系统天生。

SOAG会在玩家角色与仇敌的每次战斗互动后总结第四行和第五行中的新动作,并将其存储在动作库中。

框架分别利用了GPT-4o(2024-0513版本)、Claude 3.5 Sonnet和Gemini 1.5 Pro。

比拟人类和AI的表现结果,可以看到小怪部分AI们的表现达到人类玩家水平。

到了牯护院时,Claude 3.5 Sonnet败下阵来,GPT-4o胜率最高。

但是对付新手玩家普遍头疼的幽魂,AI们也都束手无策了。

其余研究还提到,由于VLMs推理速率受到限定,是无法实时输入每一帧画面的。
它只能间隔输入关键帧,这也会导致AI在一些情形下错过boss攻击的关键信息。

以及由于游戏中没有明确的道路勾引且存在很多空气墙,在没有人类勾引下,智能体也不能自己找到精确的路线。

如上研究来自阿里团队,一共有5位作者。

后续干系代码和数据集有发布操持,感兴趣的童鞋可以蹲下。

One More Thing

AI打游戏并不是一个新鲜事了,比如AI基于强化学习方法打《星际争霸II》已经可以击败人类职业高手。

利用强化学习方案,每每须要输入大量对局。
商汤此前演习的DI-star(监督学习+强化学习),就用了“16万场录像”和“1亿局对战”。

但是纯大模型也能打游戏,还是很出乎猜想的。
在本项研究中,数据集中的有效数据为1000条。

论文地址:https://arxiv.org/abs/2409.12889

项目地址:https://varp-agent.github.io/

— 完 —

量子位 QbitAI · 头条号

关注我们,第一韶光获知前沿科技动态