学术论文 [53]

分享值得关注的AI方向学术论文与研究

Chroma团队发布Wal3:基于对象存储的WAL架构革新,突破传统持久性与扩展性瓶颈

Wal3:革新数据库日志存储的对象存储WAL系统,由Chroma团队研发,直击传统WAL依赖本地磁盘运维复杂、中心化设计扩展瓶颈的痛点。通过完全基于对象存储(如Amazon S3)构建,创新采用集合级独立日志路径,实现吞吐量随集合数量线性扩展;依托S3对象锁与版本控制,数据持久性达99.999999999%(十一个九);无状态计算层设计消除节点存储配置负担,降低运维成本。核心技术上,利用S3条件写入确保日志连续性,分段日志架构实现无锁并发,setsum校验和融合CRC32与SHA-256优势,大幅提升数据完整性。相比Kafka等传统方案,Wal3支持百万级集合扩展,适配云原生架构,开源特性或将推动向量数据库、时序数据库等写密集型场景的存储革新。
Lyra Lyra
2025-09-05

马里兰大学等团队提出金鱼损失 让LLM告别死记硬背变推理能手

大型语言模型(LLM)常因死记硬背训练数据导致隐私泄露、泛化能力弱,马里兰大学等团队提出“金鱼损失”训练法,通过静态哈希掩码让模型“选择性失忆”,从依赖记忆转向逻辑推理。实验显示,极端训练场景下标准模型记84篇文章,该模型零记忆;标准批处理中记忆化降60%以上,且GLUE准确率、问答性能与原模型持平甚至略升,隐私信息复现率降82%。其通过修改损失目标直击记忆化核心,计算成本增仅2%,已开源适配LLaMA等模型,为LLM提升泛化与安全性提供高效方案。
Lyra Lyra
2025-09-04

香港理工大学与达特茅斯学院团队:Prophet解码策略大幅加速扩散语言模型推理

扩散语言模型(DLMs)因并行解码潜力被视为文本生成新方向,但推理效率瓶颈限制其落地。香港理工大学与达特茅斯学院团队发现“早期答案收敛”现象:DLMs在解码早期(20%-40%迭代步数)即可形成稳定语义,后续多为局部优化。基于此提出的Prophet解码策略,通过监测top-2候选token置信度间隙动态停止推理,实现2.8-3.4倍加速,准确率仅微降(如GSM8K加速3.2倍,准确率降0.3%)。该“即插即用”算法无需额外训练,适配主流DLM模型,可将响应延迟压缩至亚秒级,助力智能客服、实时翻译等场景落地,为边缘设备部署开辟路径,推动扩散语言模型从实验室走向产业应用。
Lyra Lyra
2025-09-04

北大团队提出TRKT模型 突破弱监督动态场景图生成目标检测瓶颈

动态场景图生成是计算机视觉核心技术,能为视频帧检测物体并推断关系,广泛应用于自动驾驶、智能监控等领域。弱监督动态场景图生成(WS-DSGG)虽降低标注成本,但目标检测瓶颈制约性能。北京大学团队提出TRKT模型,通过关系敏感知识挖掘(关注物体及交互区域)及时序增强(结合光流信息抗运动模糊),搭配双流融合模块优化定位与置信度,将检测准确率(mAP)从67.4%提升至72.5%,场景图生成Recall@50从45.2%提升至49.3%,在运动模糊、遮挡场景表现更优,推理延迟降低10%。模型已开源,助力自动驾驶路况理解、智能监控异常检测等落地。
Lyra Lyra
2025-09-04

腾讯AI Lab TiG框架:14B小模型《王者荣耀》策略超越671B大模型,决策可解释

腾讯AI Lab发布的Think-In-Games(TiG)框架,重新定义了游戏AI决策范式。该框架通过“双循环协同机制”,让140亿参数(14B)大模型在《王者荣耀》中展现超越6710亿参数(671B)模型的策略精度,首次实现游戏决策可解释性。其核心创新在于外层LLM生成自然语言策略(如“优先控制中路视野”),内层强化学习模型执行并反馈,配合GRPO算法实现低成本训练(成本仅为千亿级模型的1/8),宏观动作准确率达90.91%。TiG已应用于《王者荣耀》人机模式升级及《穿越火线》等FPS游戏,未来有望从游戏拓展至自动驾驶、金融风控等领域,为通用AI决策提供高效范式。
Lyra Lyra
2025-09-03