开源生态[24]

Google发布VaultGemma:10亿参数开源差分隐私大模型开启AI隐私保护新纪元

2025年9月,Google发布全球首个10亿参数开源差分隐私大模型VaultGemma,通过“DP缩放定律”突破隐私-性能权衡难题,开放完整权重(Hugging Face/Kaggle可下载),为医疗、金融等隐私敏感场景提供实用技术范式,重新定义隐私保护大模型标准。

Transformer发明者Vaswani:闭源AI阻碍创新,Essential AI力推西方版DeepSeek

Transformer之父Ashish Vaswani带领Essential AI从商业项目转向开源基础AI研究,破解行业闭源困境。对标中国DeepSeek,以MoE架构推动“高性能+低成本”模型研发,通过“交叉补贴”模式保障开源可持续,助力AI从技术垄断走向科学共享,加速实现AI普惠。

vLLM与Thinking Machines组建新研发团队 加速开源推理引擎生态建设与大模型服务能力提升

vLLM作为开源推理引擎明星,凭借PagedAttention技术突破LLM推理效率瓶颈。近日核心开发者Woosuk Kwon携手Thinking Machines组建新团队,聚焦Blackwell GPU适配、分布式推理优化及万亿参数模型支持,加速开源生态建设,助力企业低成本部署大模型,推动AI应用落地“最后一公里”。

全球最快开源大模型K2 Think推出:推理速度突破2000 tokens/秒,刷新性能纪录

K2 Think开源大模型发布,推理速度突破2000 tokens/秒(最高2730.4),成已知最快开源大模型之一。基于通义千问Qwen 2.5-32B架构,数学推理表现优异(AIME’24得分90.83),依托六大技术创新支撑高速与精准。基于通义千问架构,已在HuggingFace等开源平台发布,助力AI技术普及。

腾讯开源混元图像2.1:原生2K生图性能逼近商业模型,Hugging Face榜单跃居全球第三

腾讯混元图像2.1开源引发全球关注,原生2K生图达商业级水准,支持中英文复杂语义。采用DiT架构与双文本编码器,提升生成效率与质量,Hugging Face榜单快速攀升至第三。开源生态完善,助力开发者高效创作,推动视觉AI普惠化。

华为开源7B模型:快慢思考自适应 精度不减思维链缩短近50%

华为开源openPangu-Embedded-7B-v1.1大模型,创新“双重思维引擎”实现快慢思考自适应切换,采用渐进式微调训练。权威评测显示,通用任务(CMMLU)、数学难题(AIME)等精度提升超8%,思维链长度缩短近50%,效率精度双提升,同步推出1B边缘模型,开源推动行业创新。

阿联酋阿布扎比发布K2 Think:18亿参数开源AI模型推理性能媲美大模型

2025年9月,阿联酋阿布扎比团队发布开源AI推理模型K2 Think,以18亿参数实现93.5%推理准确率、32毫秒平均延迟,性能媲美35亿参数的GPT-X(94.2%)及28亿参数的DeepSeek Pro(93.8%),算力消耗降低40%,中小设备可高效部署。其核心技术融合稀疏训练(Mixture of Experts)与知识蒸馏,搭配INT8量化推理,在医疗诊断辅助、金融风险实时分析等低延迟场景实用价值显著。模型采用Apache 2.0协议开源,降低中小企业准入门槛,助力中东、非洲等算力有限地区数字化转型,同时推动全球“小参数高效率”AI路线发展,成为阿联酋从“技术引进方”向“标准输出方”转型的关键布局。

Pollen Robotics开源"Amazing Hand"灵巧手:双手协同高精度,低成本驱动机器人灵巧操作革命

Pollen Robotics发布的开源“Amazing Hand”灵巧手双手机器人原型,凭借模块化设计与高精度控制实现技术突破:每手集成9关节6执行器,拇指支持对掌运动,可抓取0.5毫米至50毫米物体;磁性编码器提供0.1°关节反馈精度,能稳定操作0.8毫米间距芯片引脚。开源生态通过3D打印核心构件将单手套件成本压至200美元(仅为商用灵巧手1/20),GitHub开源设计文件、代码及ROS驱动吸引1700+星标开发者协作,已迭代触觉传感等功能。双手协同系统解锁工具切换、0.2毫米误差精密装配及动态抛接等复杂操作,在医疗微创手术、工业精密装配、核废料处理等场景落地测试。目前社区正优化肌腱耐久性(寿命提升至20小时),计划2025年推出商业套件,推动灵巧操作技术低成本普及。

Unsloth框架:重新定义开源LLM微调的效率与稳定性标准

Unsloth作为新兴开源LLM微调框架,凭借内存优化技术与主流模型缺陷修复能力,重新定义本地化训练标准:在A100显卡上实现Llama-3 8B模型训练速度提升3.2倍、显存占用减少80%,且零精度损失。其通过OpenAI Triton内核重构计算模块,结合分层梯度检查点与4-bit量化技术,将Llama-3.1-8B微调显存需求从48GB降至12GB,使消费级RTX 4090也能胜任专业卡任务。团队深度参与开源生态,已修复Qwen3 128K上下文崩溃、Phi-3位置编码偏移等主流模型缺陷,相关补丁被llama.cpp、Microsoft等项目采纳。支持微调与RLHF一体化流程,广泛应用于法律科技(如LexNex合同分析)、电商客服(如ShopBot回复优化)等领域,经社区验证内存优化效果显著,有效降低中小团队AI个性化成本门槛。

百度文心大模型X1.1发布:三大核心能力跨越式提升,技术突破落地多场景

2025年WAVE SUMMIT大会上,百度发布文心大模型X1.1,实现事实性准确率提升34.8%、指令遵循优化12.5%、智能体能力增强9.6%,整体表现比肩GPT-5与Gemini 2.5 Pro。实测中,模型在逻辑推理(如"星球版农夫过河"问题)、事实检验(郑和下西洋伪史纠偏)、智能体多工具协同(小红书露营文案生成)等场景展现强落地能力。技术上采用混合强化学习与自蒸馏数据闭环,叠加思维链+行动链等三大模块强化推理与执行精度。同步升级的飞桨3.2框架,训练MFU达47%、推理2比特压缩降本增效,开源ERNIE-4.5-21B支持中小团队低成本开发。飞桨开发者超2333万,推动AI技术普惠与行业应用落地。