学术论文 [78]

分享值得关注的AI方向学术论文与研究

挑战AI规模路线:研究员称首个超级智能将是“超人学习者”

人工智能领域“规模至上”路线遇瓶颈,前OpenAI团队创立的Thinking Machines Lab提出“超人学习者”新范式,主张通过主动探索、知识内化突破被动训练与灾难性遗忘局限,其STAR算法较GPT-4任务完成率提升37%,或成通用人工智能(AGI)关键进化方向。
Lyra Lyra
2025-10-25

AI智能体定义模糊难题:借鉴汽车航空经验构建分类框架

AI智能体定义模糊致研发边界不清、监管困难,其核心含感知、推理、行动、目标四大模块,需闭环完成自主任务。借鉴汽车SAE分级、航空人机协作等跨行业经验,构建以责任划分与场景定义为核心的分类框架,可破解困境,助力安全评估与技术规范发展。
Lyra Lyra
2025-10-13

英伟达RLP技术重塑大模型预训练:让AI在预训练阶段“先思考后预测”,推理能力显著提升

英伟达推出的RLP(强化学习预训练)技术,革新AI大模型推理能力培养范式。传统模型依赖后训练微调,存在效率低、易"灾难性遗忘"问题,而RLP在预训练阶段嵌入强化学习,通过"生成思考-增强预测-奖励反馈"闭环,让模型学会"先思考后预测"。实验显示,小模型推理能力提升17%,中模型达35%,且降低人工标注成本,金融、法律等场景多步决策错误率直降30%,实现预训练与后训练效果叠加。
Lyra Lyra
2025-10-11

ReasoningBank:赋能LLM智能体经验学习,提升真实世界复杂任务表现与适应性

UIUC与Google Cloud AI Research联合推出ReasoningBank框架,解决LLM智能体“经验失忆”难题,告别重复试错。通过“经验蒸馏-记忆存储-检索应用”闭环及MaTTS技术,自动提炼成败经验为可复用策略。在WebArena网页交互任务成功率提升8.3%,SWE-Bench-Verified代码修复成功率提升15%,助力AI智能体真正“越用越聪明”。
Lyra Lyra
2025-10-09

APRIL:强化学习长尾生成任务效率提升44%、准确率提升8%

强化学习在长尾生成任务中常因数据稀疏、收敛缓慢陷入效率瓶颈。APRIL技术通过主动部分回滚机制,动态识别关键节点,仅对高价值路径片段回滚,减少70%冗余采样,提升44%回滚吞吐量,收敛速度加快37.5%,准确率提升8%。已在推荐系统、自动驾驶等场景验证,开源插件降低落地门槛。
Lyra Lyra
2025-09-25

DynaGuard:动态策略AI守卫模型性能超越GPT-4o-mini

AI对话系统合规安全成关键,DynaGuard模型以动态策略适应与深度解释能力刷新行业标准,性能超越GPT-4o-mini。其双输入架构适配实时政策,经DynaBench数据集训练,未见过策略准确率达92.3%,多规则冲突处理成功率89.7%。已落地金融、医疗、内容审核等领域,获欧盟《AI法案》推荐,为AI安全治理提供新可能。
Lyra Lyra
2025-09-24

MCP协议引入response_schema:革新LLM结构化输出协议层控制力

在AI应用开发中,LLM结构化输出常面临稳定性不足、跨厂商适配难、后处理复杂等问题。MCP协议新增的`response_schema`字段,通过协议层定义输出结构,解决传统提示工程局限,跨OpenAI、Anthropic等厂商自动适配,使校验通过率提升至97%,后处理代码量减少超50%,推动AI开发从提示工程驱动转向模式工程驱动。
Lyra Lyra
2025-09-24

AI泛化能力瓶颈:“潜在学习鸿沟”揭示原因,情景记忆提供新路径

AI虽在围棋、代码生成等领域表现突出,但面对新环境常显乏力,根源是“潜在学习鸿沟”限制泛化能力。最新研究提出引入人类“情景记忆”,存储具体经验以灵活应对未知,可提升自动驾驶、语言模型等场景的适应性,为突破AI架构瓶颈提供新思路。
Lyra Lyra
2025-09-24