技术更新 [19]

聚焦技术框架与工具库的更新

Gensyn发布多项前沿研究 推动机器智能网络迈向开放未来

AI行业面临算力垄断与可信协作难题,Gensyn构建去中心化机器智能协议,融合区块链与分布式机器学习技术,通过概率性审计机制与双代币模型解决验证效率与安全痛点,激活全球闲置算力,已在医疗联合建模、制造业多智能体协同等场景落地,推动AI技术开放普惠发展。
Lyra Lyra
2025-09-25

MCP协议引入response_schema:革新LLM结构化输出协议层控制力

在AI应用开发中,LLM结构化输出常面临稳定性不足、跨厂商适配难、后处理复杂等问题。MCP协议新增的`response_schema`字段,通过协议层定义输出结构,解决传统提示工程局限,跨OpenAI、Anthropic等厂商自动适配,使校验通过率提升至97%,后处理代码量减少超50%,推动AI开发从提示工程驱动转向模式工程驱动。
Lyra Lyra
2025-09-24

ATLAS突破Transformer长序列瓶颈 长时记忆优化实现性能全面超越

AI处理百万字小说、跨年度医疗记录等长序列时,常陷效率与准确性困境。ATLAS模型以动态记忆重建机制突破瓶颈,实现线性复杂度,显存消耗降35%、耗时减60%,长上下文理解准确率达80%,优于传统Transformer和RNN。适用于医疗文本分析、代码仓库理解等场景,开启超长文本处理新范式。
Lyra Lyra
2025-09-21

腾讯AI Lab提出Parallel-R1框架:强化学习赋能大模型并行思维,数学推理AIME25测试性能提升42.9%

腾讯AI Lab联合高校发布Parallel-R1强化学习框架,首次以RL技术为大模型注入“并行思维”,解决传统SFT泛化差、数据成本高难题。该框架在通用数学推理任务平均准确率提升8.4%,高难度AIME25测试性能跃升42.9%,刷新AI复杂推理天花板,开创大模型能力培养新范式。
Lyra Lyra
2025-09-18

Triton团队发布Gluon:专为GPU底层性能调优的新型编程语言

Triton团队发布新型GPU编程语言Gluon,作为Triton生态“性能进阶工具”,共享编译器与开发工具链,通过暴露底层硬件控制参数(如CTA分配、数据布局)填补通用编程与极致性能优化空白。开发者可灵活切换抽象层级,平衡开发效率与算力释放,适用于AI大模型核心算子、HPC等场景,被社区称为“GPU编程的罗塞塔石碑”。
Lyra Lyra
2025-09-18

Google发布VaultGemma:首个差分隐私预训练轻量级开源语言模型

2025年9月Google发布开源语言模型VaultGemma,20亿/18亿参数轻量级设计,首创差分隐私(DP)从头预训练(ε≤2.0,δ≤1.1×10⁻¹⁰),实现数学可验证隐私保护。支持云端到边缘设备部署,适配医疗本地分析、工业边缘处理等敏感场景,核心任务性能接近非隐私模型,提供Hugging Face、GitHub等全流程开发者工具链。
Lyra Lyra
2025-09-18

上海交大与字节跳动联合推出RhymeRL 强化学习训练速度提升2.6倍

强化学习训练中Rollout阶段效率瓶颈突出,上海交大与字节跳动联合发布RhymeRL框架,通过挖掘历史数据序列与长度分布相似性,创新HistoSpec批量验证与HistoPipe调度策略,实现端到端吞吐量2.6倍提升,且精度零损失,有效突破大模型训练效率瓶颈。
Lyra Lyra
2025-09-14

Project Fluently发布FluentlyQwen3-4B:引入“思考模式”的通用大模型

FluentlyQwen3-4B是基于Qwen3-4B-Base微调的通用大模型,核心亮点为可切换“思考模式”,能显式展示推理步骤提升可解释性,适配数学、编码等复杂任务。上下文扩展至131K tokens,兼容SGLang/vLLM等框架,支持多量化版本低门槛部署,在教育、开发等场景表现亮眼。
Lyra Lyra
2025-09-14