当(dang)前位(wei)置: 首页 > 体育(yu) > 电竞

腾讯研(yan)发全(quan)新框架:用AI打,让DeepSeek学会战(zhan)略性思(si)考

2025-10-08 18:55:59
来源:

电竞(jing)资讯10月(yue)05日称 据 decoder 今(jin)天报道,腾讯研究人员(yuan)最(zui)近用(yong)《王者荣耀(yao)》游戏(xi)作为训练(lian)平台,探索如何让 AI 在游戏中(zhong)学会(hui)“战略性思考(kao)”,研究全新 TiG(Think in Games)框架,相关成果已发表于 Hugging Face 网站(zhan)和 arXiv 平台。

undefined

研究团队指出,目前的(de) AI 模型存在明显的(de)功能鸿沟,以游戏为取向(xiang)的 AI 能(neng)正常游玩(wan)但无法理解自己(ji)所做的决策,而语言模型虽然可以(yi)推理策略,但很难真正执行操作,为此他们研发了(le)全新 TiG 框架,让模型在游戏中同步思考、行动(dong)。

团队选择以《王者荣耀(yao)》游戏(xi)作为训练范本,先使用匿名且标准化(hua)的赛事数据定义推上路、击(ji)杀暴君、守家等 40 种(zhong)宏观行动,胜负回数均衡,AI 模型们必须要(yao)在每个定义好的场景下选择最(zui)佳策略,并解(jie)释其(qi)战略缘由。

具体来说,训练分(fen)为两个阶段,首先是在监督中学习,弄清楚这些策(ce)略的基本机制;随后通(tong)过奖励机制进行强化学习,如果行动正确能得 1 分,错误(wu)行动则得 0 分。

随(sui)后团队测试了多(duo)种语言模(mo)型,涵盖 Qwen2.5(7B、14B、32B)、Qwen3-14B 模(mo)型(xing),并使用 DeepSeek-R1 大(da)模型作为对照组;先从 DeepSeek-R1 提炼高(gao)质量训练数据,然后使用群体相对策略优化(GRPO)技术(shu),比(bi)较不同(tong)策略之间的优劣。

最终(zhong)经过(guo) TiG 框架训练的模(mo)型(xing)不仅能制定行动计划还能解(jie)释原因,例如 AI 会指出某个防(fang)御塔防守薄弱,是理想的进攻目标,但需要注意埋伏的敌人。模型训练后仍(reng)保持原有的文本理解、数学推理与问答能力。

最新资讯
最新录像
最新集锦
热词(ci)推荐
HqYWZ