小模型[12]

微软亚洲研究院DELT范式:优化数据顺序,让大模型效能跃升无需扩容参数

大模型训练正从“参数竞赛”转向“数据效能”优化,微软亚洲研究院提出的DELT范式指出,数据顺序是决定模型性能的关键。DELT通过“评分-选择-排序”动态机制,让数据适配模型学习节奏,核心依托LQS评分(量化数据静态质量与动态适配性)和折叠排序(优化训练顺序)两大技术。实验显示,7B模型用80%数据即可达传统全量数据训练的SOTA性能,训练时间缩短23%;在金融风控、医疗诊断等领域,召回率提升4%、罕见病识别准确率提高6.7%。该范式推动AI从参数依赖转向数据智能编排,为大模型高效训练提供新路径。

腾讯AI Lab TiG框架:14B小模型《王者荣耀》策略超越671B大模型,决策可解释

腾讯AI Lab发布的Think-In-Games(TiG)框架,重新定义了游戏AI决策范式。该框架通过“双循环协同机制”,让140亿参数(14B)大模型在《王者荣耀》中展现超越6710亿参数(671B)模型的策略精度,首次实现游戏决策可解释性。其核心创新在于外层LLM生成自然语言策略(如“优先控制中路视野”),内层强化学习模型执行并反馈,配合GRPO算法实现低成本训练(成本仅为千亿级模型的1/8),宏观动作准确率达90.91%。TiG已应用于《王者荣耀》人机模式升级及《穿越火线》等FPS游戏,未来有望从游戏拓展至自动驾驶、金融风控等领域,为通用AI决策提供高效范式。