当前位置: 首(shou)页 > 体育 > 电竞

腾讯研(yan)发(fa)全新TiG框架:可用AI玩王者荣耀让AI模型学会战略性思考

2025-10-08 18:47:16
来源:
电竞资(zi)讯10月4日称 据(ju) decoder 今天报道(dao),腾讯(xun)研究人员最近用《王者荣耀》游戏(xi)作为训练平(ping)台,探索如(ru)何让AI在游戏中学会“战略性思(si)考”,研(yan)究全新 TiG(Think in Games)框架,相关(guan)成果(guo)已发(fa)表于 Hugging Face 平(ping)台和 arXiv 期刊。

研究(jiu)团队指出,目前(qian)的(de) AI 模型存在明显的功能鸿沟(gou),以游戏为取向的 AI 能正常游玩(wan)但无法理解自己所做的(de)决策,而语言模型虽然可以推理策略但很难真正执行操作,为(wei)此他们研(yan)发了全新 TiG 框架,让模型在游戏中同步(bu)思考、行动。

undefined

团队选择以《王者荣(rong)耀》游戏作为训练范本,先使用匿名且标准化的赛事数据定义推上路、击(ji)杀暴君、守家等 40 种宏观行动,胜(sheng)负回数均衡,AI 模(mo)型们必(bi)须要在每个定义好(hao)的场景(jing)下(xia)选(xuan)择最佳策略,并解释其战略缘由。

undefined

具体来说,训练分(fen)为两个阶段,首先是(shi)在监督中学习,弄清楚这些策略的基本机制;随后通过奖励(li)机制进行强化学(xue)习,如(ru)果行动正确(que)能得 1 分,错误行动则得 0 分。

undefined

随后(hou)团队测试了多种语言模型,涵盖 Qwen2.5(7B、14B、32B)、Qwen3-14B 模型,并使用 DeepSeek-R1 大模型作为对照组;先从 DeepSeek-R1 提炼高质(zhi)量训练数据,然后使用群体相对策略优化(hua)(GRPO)技(ji)术,比较(jiao)不同(tong)策(ce)略(lve)之间的(de)优劣(lie)。

undefined

最终经过 TiG 框架训练的模型不(bu)仅能制定行动计划还能(neng)解释原因,例如 AI 会指出某(mou)个防御塔防守薄弱,是理想的(de)进(jin)攻目标,但(dan)需要(yao)注意埋伏的敌人。模型训练后(hou)仍(reng)保持原(yuan)有的文本理解(jie)、数学推理与问(wen)答能力(li)。

undefined

最终测(ce)试结果如(ru)下:

  • 对照组 DeepSeek-R1:决策(ce)准确率达 86.67%

  • Qwen3-14B:决策准确率达 90.91%,超越 DeepSeek-R1
  • Qwen2.5-32B :准确率从 66.67% 提升至 86.84%
  • Qwen2.5-14B:准确率从 53.25% 提升至 83.12%
  • 最新资讯(xun)
    最新录像
    最(zui)新集(ji)锦
    热词推荐
    lhXTa