开源生态[26]
Trigger.dev开源平台发布:状态快照技术赋能AI代理与工作流开发
Trigger.dev是Y Combinator孵化的开源AI工作流平台,基于CRIU技术实现任务"存档读档",解决Serverless超时限制与长时任务资源占用痛点。支持小时/天级任务无间断运行,等待时释放资源,跨服务器恢复,内存压缩率超60%。对比传统工具,冷启动减少83%,状态一致性更高,已助力AI视频生成、招聘匹配等场景降本增效,开发者可自托管或使用云服务快速接入。
全球大模型开源生态报告2.0发布:中美贡献超四成核心力量,AI编程工具爆发式增长
《全球大模型开源开发生态全景与趋势报告2.0》发布,蚂蚁开源联合Inclusion AI勾勒AI开源生态。数据显示,62%核心项目诞生于“GPT时刻”后,平均年龄30个月,迭代加速至2-3个月;中美开发者贡献超40%,成“双核引擎”。技术上,MoE架构突破参数瓶颈,多模态成主流,AI编程工具爆发重塑开发流程,中国以开放权重策略推动生态创新。
Google发布VaultGemma:10亿参数开源差分隐私大模型开启AI隐私保护新纪元
2025年9月,Google发布全球首个10亿参数开源差分隐私大模型VaultGemma,通过“DP缩放定律”突破隐私-性能权衡难题,开放完整权重(Hugging Face/Kaggle可下载),为医疗、金融等隐私敏感场景提供实用技术范式,重新定义隐私保护大模型标准。
Transformer发明者Vaswani:闭源AI阻碍创新,Essential AI力推西方版DeepSeek
Transformer之父Ashish Vaswani带领Essential AI从商业项目转向开源基础AI研究,破解行业闭源困境。对标中国DeepSeek,以MoE架构推动“高性能+低成本”模型研发,通过“交叉补贴”模式保障开源可持续,助力AI从技术垄断走向科学共享,加速实现AI普惠。
vLLM与Thinking Machines组建新研发团队 加速开源推理引擎生态建设与大模型服务能力提升
vLLM作为开源推理引擎明星,凭借PagedAttention技术突破LLM推理效率瓶颈。近日核心开发者Woosuk Kwon携手Thinking Machines组建新团队,聚焦Blackwell GPU适配、分布式推理优化及万亿参数模型支持,加速开源生态建设,助力企业低成本部署大模型,推动AI应用落地“最后一公里”。
全球最快开源大模型K2 Think推出:推理速度突破2000 tokens/秒,刷新性能纪录
K2 Think开源大模型发布,推理速度突破2000 tokens/秒(最高2730.4),成已知最快开源大模型之一。基于通义千问Qwen 2.5-32B架构,数学推理表现优异(AIME’24得分90.83),依托六大技术创新支撑高速与精准。基于通义千问架构,已在HuggingFace等开源平台发布,助力AI技术普及。
腾讯开源混元图像2.1:原生2K生图性能逼近商业模型,Hugging Face榜单跃居全球第三
腾讯混元图像2.1开源引发全球关注,原生2K生图达商业级水准,支持中英文复杂语义。采用DiT架构与双文本编码器,提升生成效率与质量,Hugging Face榜单快速攀升至第三。开源生态完善,助力开发者高效创作,推动视觉AI普惠化。
华为开源7B模型:快慢思考自适应 精度不减思维链缩短近50%
华为开源openPangu-Embedded-7B-v1.1大模型,创新“双重思维引擎”实现快慢思考自适应切换,采用渐进式微调训练。权威评测显示,通用任务(CMMLU)、数学难题(AIME)等精度提升超8%,思维链长度缩短近50%,效率精度双提升,同步推出1B边缘模型,开源推动行业创新。
阿联酋阿布扎比发布K2 Think:18亿参数开源AI模型推理性能媲美大模型
2025年9月,阿联酋阿布扎比团队发布开源AI推理模型K2 Think,以18亿参数实现93.5%推理准确率、32毫秒平均延迟,性能媲美35亿参数的GPT-X(94.2%)及28亿参数的DeepSeek Pro(93.8%),算力消耗降低40%,中小设备可高效部署。其核心技术融合稀疏训练(Mixture of Experts)与知识蒸馏,搭配INT8量化推理,在医疗诊断辅助、金融风险实时分析等低延迟场景实用价值显著。模型采用Apache 2.0协议开源,降低中小企业准入门槛,助力中东、非洲等算力有限地区数字化转型,同时推动全球“小参数高效率”AI路线发展,成为阿联酋从“技术引进方”向“标准输出方”转型的关键布局。
Unsloth框架:重新定义开源LLM微调的效率与稳定性标准
Unsloth作为新兴开源LLM微调框架,凭借内存优化技术与主流模型缺陷修复能力,重新定义本地化训练标准:在A100显卡上实现Llama-3 8B模型训练速度提升3.2倍、显存占用减少80%,且零精度损失。其通过OpenAI Triton内核重构计算模块,结合分层梯度检查点与4-bit量化技术,将Llama-3.1-8B微调显存需求从48GB降至12GB,使消费级RTX 4090也能胜任专业卡任务。团队深度参与开源生态,已修复Qwen3 128K上下文崩溃、Phi-3位置编码偏移等主流模型缺陷,相关补丁被llama.cpp、Microsoft等项目采纳。支持微调与RLHF一体化流程,广泛应用于法律科技(如LexNex合同分析)、电商客服(如ShopBot回复优化)等领域,经社区验证内存优化效果显著,有效降低中小团队AI个性化成本门槛。