技术更新 [14]

聚焦技术框架与工具库的更新

腾讯AI Lab提出Parallel-R1框架:强化学习赋能大模型并行思维,数学推理AIME25测试性能提升42.9%

腾讯AI Lab联合高校发布Parallel-R1强化学习框架,首次以RL技术为大模型注入“并行思维”,解决传统SFT泛化差、数据成本高难题。该框架在通用数学推理任务平均准确率提升8.4%,高难度AIME25测试性能跃升42.9%,刷新AI复杂推理天花板,开创大模型能力培养新范式。
Lyra Lyra
2025-09-18

Triton团队发布Gluon:专为GPU底层性能调优的新型编程语言

Triton团队发布新型GPU编程语言Gluon,作为Triton生态“性能进阶工具”,共享编译器与开发工具链,通过暴露底层硬件控制参数(如CTA分配、数据布局)填补通用编程与极致性能优化空白。开发者可灵活切换抽象层级,平衡开发效率与算力释放,适用于AI大模型核心算子、HPC等场景,被社区称为“GPU编程的罗塞塔石碑”。
Lyra Lyra
2025-09-18

Google发布VaultGemma:首个差分隐私预训练轻量级开源语言模型

2025年9月Google发布开源语言模型VaultGemma,20亿/18亿参数轻量级设计,首创差分隐私(DP)从头预训练(ε≤2.0,δ≤1.1×10⁻¹⁰),实现数学可验证隐私保护。支持云端到边缘设备部署,适配医疗本地分析、工业边缘处理等敏感场景,核心任务性能接近非隐私模型,提供Hugging Face、GitHub等全流程开发者工具链。
Lyra Lyra
2025-09-18

上海交大与字节跳动联合推出RhymeRL 强化学习训练速度提升2.6倍

强化学习训练中Rollout阶段效率瓶颈突出,上海交大与字节跳动联合发布RhymeRL框架,通过挖掘历史数据序列与长度分布相似性,创新HistoSpec批量验证与HistoPipe调度策略,实现端到端吞吐量2.6倍提升,且精度零损失,有效突破大模型训练效率瓶颈。
Lyra Lyra
2025-09-14

Project Fluently发布FluentlyQwen3-4B:引入“思考模式”的通用大模型

FluentlyQwen3-4B是基于Qwen3-4B-Base微调的通用大模型,核心亮点为可切换“思考模式”,能显式展示推理步骤提升可解释性,适配数学、编码等复杂任务。上下文扩展至131K tokens,兼容SGLang/vLLM等框架,支持多量化版本低门槛部署,在教育、开发等场景表现亮眼。
Lyra Lyra
2025-09-14

Cursor AI Tab模型升级:在线强化学习实现建议“少而精”,采纳率提升28%

Cursor AI Tab补全模型默认升级,采用在线强化学习技术,实现“更少建议,更高采纳率”。新模型通过用户交互实时学习,建议数量减少21%,采纳率提升28%,能个性化适配编码习惯,减少认知负担,助力开发者提升编码效率。
Lyra Lyra
2025-09-12

字节跳动发布AgentGym-RL:多轮智能体强化学习框架,摒弃监督微调性能超商业模型

字节跳动推出业界首个统一多轮智能体强化学习框架AgentGym,采用纯强化学习路径,无需监督微调,智能体通过与环境交互自主掌握多样化任务。框架含AgentEvo环境集合及模块化设计,覆盖网页交互、游戏策略、具身智能、科学数据分析等27项任务,多项核心指标超越主流商业模型。
Lyra Lyra
2025-09-12

Skypilot研究:网络与存储优化让分布式生成式AI训练提速10倍,打破GPU性能瓶颈惯性思维

生成式AI训练中,网络与存储性能是被低估的隐藏瓶颈。Skypilot团队实验显示,在不更换GPU、不修改代码的情况下,仅优化网络带宽(10Gbps→100Gbps)和存储类型(标准云SSD→本地NVMe),分布式训练速度可提升10倍,打破“GPU决定一切”认知。这一发现凸显数据传输与读取效率的关键作用,Skypilot框架助力简化基础设施优化,为AI训练提速提供新路径。
Lyra Lyra
2025-09-12