MoE[10]

阿里巴巴发布通义DeepResearch:全球首个完全开源Web Agent,300亿参数(激活30亿)实现OpenAI级性能

阿里巴巴通义实验室发布全球首个完全开源Web Agent通义DeepResearch,以"小参数撬动高性能"引发关注。其采用MoE架构,300亿总参数推理仅激活30亿,实现与OpenAI同类产品相当能力,代码及权重全开源且允许商用,三大权威基准验证性能,推动Web Agent普及落地。

全球大模型开源生态报告2.0发布:中美贡献超四成核心力量,AI编程工具爆发式增长

《全球大模型开源开发生态全景与趋势报告2.0》发布,蚂蚁开源联合Inclusion AI勾勒AI开源生态。数据显示,62%核心项目诞生于“GPT时刻”后,平均年龄30个月,迭代加速至2-3个月;中美开发者贡献超40%,成“双核引擎”。技术上,MoE架构突破参数瓶颈,多模态成主流,AI编程工具爆发重塑开发流程,中国以开放权重策略推动生态创新。

脑启发式大模型SpikingBrain发布:长序列处理提速百倍 能效优化破Transformer瓶颈

中国团队研发的SpikingBrain脑启发大模型,突破LLM长上下文处理瓶颈,通过脑启发脉冲计算、线性注意力机制及动态路由MoE结构,实现百倍推理加速与97.7%能耗降低。支持4M-token超长文本分析,适配法律、医疗及边缘计算场景,依托国产MetaX硬件平台,为非Transformer架构LLM提供自主可控高效方案。

Transformer发明者Vaswani:闭源AI阻碍创新,Essential AI力推西方版DeepSeek

Transformer之父Ashish Vaswani带领Essential AI从商业项目转向开源基础AI研究,破解行业闭源困境。对标中国DeepSeek,以MoE架构推动“高性能+低成本”模型研发,通过“交叉补贴”模式保障开源可持续,助力AI从技术垄断走向科学共享,加速实现AI普惠。

百度ERNIE-4.5-21B-A3B-Thinking登顶HuggingFace文本模型趋势榜

百度ERNIE-4.5-21B-A3B-Thinking登顶HuggingFace全球文本模型趋势榜,总榜位列第三,中国AI技术再获国际认可。该模型采用MoE架构与稀疏激活设计,210亿总参数仅激活30亿,实现轻量高性能。支持128K长上下文(约25万字)及高效工具调用,开源降低应用门槛,推动金融、医疗等复杂场景落地。

蚂蚁集团与人大联合发布业界首个原生MoE架构扩散语言模型LLaDA-MoE 即将开源

蚂蚁集团与人大联合研发业界首个原生MoE架构dLLM——LLaDA-MoE。该模型基于20TB数据训练,性能比肩主流自回归模型,推理速度有数倍优势,即将完全开源。其融合动态路由与扩散机制,在代码生成、数学推理等任务表现突出,为AI领域提供新研究方向与高效解决方案。

阿里通义千问Qwen3-30B MoE量化版发布:消费级硬件实现本地部署

近日,Hugging Face社区正式推出Qwen3-30B-A3B-Instruct-2507-MXFP4_MOE模型,这一基于阿里通义千问Qwen3架构的量化版本,以17.1GB的文件体积和30.5B参数量,在保持高性能的同时将大型MoE模型的硬件门槛拉至新低点。

智谱AI GLM-4.5登顶伯克利工具调用榜单 性能领先成本仅Claude 1.4%

【GLM-4.5开源大模型登顶伯克利工具调用榜单,AI编程性价比新标杆】智谱AI发布的GLM-4.5大模型在伯克利工具调用排行榜中以94.3%任务完成率超越Claude Opus 4.1(91.2%),运行成本仅为其1.4%,推理速度达280 tokens/秒(Claude Opus 4.1为93 tokens/秒),成当前性价比领先的AI编程解决方案。该模型采用MoE架构,动态激活专家网络提升效率,支持Python、Java等10余种编程语言跨文件调用,已集成VS Code、IntelliJ等IDE插件,覆盖代码生成、调试全流程。开源特性使企业部署成本压缩90%以上,中小团队与开发者可低成本接入顶级AI编程能力,推动行业工具调用效率与成本平衡革新。

美团首秀开源大模型Longcat-Flash-Chat:高性能低成本MoE架构突破

美团正式发布首个开源大模型Longcat-Flash-Chat,定位“高性能、低成本、易部署”通用AI模型,标志其切入通用人工智能赛道。该模型基于560B混合专家(MoE)架构,通过“零计算专家”和跨层并行通信创新,实现动态激活参数18.6B-31.3B调节,推理成本低至0.7美元/百万输出token。性能上,编程能力TerminalBench达92.3分超Claude 4 Sonnet,工具调用AgentBench 87.6分领先DeepSeek-V3.1,H800单卡推理速度118 tokens/s。其开源生态含7B/14B/560B权重及部署工具,助力开发者低成本应用,推动大模型高效化发展。

xAI grok-code-fast-1代码模型实测:速度快50%,效率跃升显著

xAI推出的代码生成模型grok-code-fast-1正引发开发者热议,以“速度与质量双重飞跃”显著提升开发效率。开发者实测显示,其响应延迟普遍低于2秒,代码补全准确率达89%,可将数周复杂任务压缩至数小时完成,尤其擅长解析“模糊需求”直接输出完整代码。技术上,该模型基于MoE架构优化专家路由机制,并搭配自研Synapse推理引擎,动态分配算力实现高效推理。对比竞品Anthropic Sonnet-4,其吞吐量快近50%(87 TPS vs 60 TPS),HumanEval准确率领先7.3个百分点,在8k tokens内稳定性更适配日常迭代开发。目前模型处于早期测试阶段,免费试用延长至9月10日,正吸引注重效率的工程师群体,未来有望在代码生成领域形成三足鼎立格局。