MoE[12]

美团首秀开源大模型Longcat-Flash-Chat:高性能低成本MoE架构突破

美团正式发布首个开源大模型Longcat-Flash-Chat,定位“高性能、低成本、易部署”通用AI模型,标志其切入通用人工智能赛道。该模型基于560B混合专家(MoE)架构,通过“零计算专家”和跨层并行通信创新,实现动态激活参数18.6B-31.3B调节,推理成本低至0.7美元/百万输出token。性能上,编程能力TerminalBench达92.3分超Claude 4 Sonnet,工具调用AgentBench 87.6分领先DeepSeek-V3.1,H800单卡推理速度118 tokens/s。其开源生态含7B/14B/560B权重及部署工具,助力开发者低成本应用,推动大模型高效化发展。

xAI grok-code-fast-1代码模型实测:速度快50%,效率跃升显著

xAI推出的代码生成模型grok-code-fast-1正引发开发者热议,以“速度与质量双重飞跃”显著提升开发效率。开发者实测显示,其响应延迟普遍低于2秒,代码补全准确率达89%,可将数周复杂任务压缩至数小时完成,尤其擅长解析“模糊需求”直接输出完整代码。技术上,该模型基于MoE架构优化专家路由机制,并搭配自研Synapse推理引擎,动态分配算力实现高效推理。对比竞品Anthropic Sonnet-4,其吞吐量快近50%(87 TPS vs 60 TPS),HumanEval准确率领先7.3个百分点,在8k tokens内稳定性更适配日常迭代开发。目前模型处于早期测试阶段,免费试用延长至9月10日,正吸引注重效率的工程师群体,未来有望在代码生成领域形成三足鼎立格局。