大语言模型[94]
智谱AI GLM-4.5登顶伯克利工具调用榜单 性能领先成本仅Claude 1.4%
【GLM-4.5开源大模型登顶伯克利工具调用榜单,AI编程性价比新标杆】智谱AI发布的GLM-4.5大模型在伯克利工具调用排行榜中以94.3%任务完成率超越Claude Opus 4.1(91.2%),运行成本仅为其1.4%,推理速度达280 tokens/秒(Claude Opus 4.1为93 tokens/秒),成当前性价比领先的AI编程解决方案。该模型采用MoE架构,动态激活专家网络提升效率,支持Python、Java等10余种编程语言跨文件调用,已集成VS Code、IntelliJ等IDE插件,覆盖代码生成、调试全流程。开源特性使企业部署成本压缩90%以上,中小团队与开发者可低成本接入顶级AI编程能力,推动行业工具调用效率与成本平衡革新。
美团首秀开源大模型Longcat-Flash-Chat:高性能低成本MoE架构突破
美团正式发布首个开源大模型Longcat-Flash-Chat,定位“高性能、低成本、易部署”通用AI模型,标志其切入通用人工智能赛道。该模型基于560B混合专家(MoE)架构,通过“零计算专家”和跨层并行通信创新,实现动态激活参数18.6B-31.3B调节,推理成本低至0.7美元/百万输出token。性能上,编程能力TerminalBench达92.3分超Claude 4 Sonnet,工具调用AgentBench 87.6分领先DeepSeek-V3.1,H800单卡推理速度118 tokens/s。其开源生态含7B/14B/560B权重及部署工具,助力开发者低成本应用,推动大模型高效化发展。
xAI grok-code-fast-1代码模型实测:速度快50%,效率跃升显著
xAI推出的代码生成模型grok-code-fast-1正引发开发者热议,以“速度与质量双重飞跃”显著提升开发效率。开发者实测显示,其响应延迟普遍低于2秒,代码补全准确率达89%,可将数周复杂任务压缩至数小时完成,尤其擅长解析“模糊需求”直接输出完整代码。技术上,该模型基于MoE架构优化专家路由机制,并搭配自研Synapse推理引擎,动态分配算力实现高效推理。对比竞品Anthropic Sonnet-4,其吞吐量快近50%(87 TPS vs 60 TPS),HumanEval准确率领先7.3个百分点,在8k tokens内稳定性更适配日常迭代开发。目前模型处于早期测试阶段,免费试用延长至9月10日,正吸引注重效率的工程师群体,未来有望在代码生成领域形成三足鼎立格局。
英伟达Q2营收467亿创新高,股价下跌引AI周期市场分歧
英伟达2026财年Q2财报亮眼,营收达467亿美元创纪录,同比增长56%,数据中心业务以411亿美元营收占比88%,核心驱动力为Blackwell平台规模商用。该平台在MLPerf测试中性能领先,AI推理效率提升一个数量级,已落地特斯拉自动驾驶、梅奥诊所药物研发等场景。不过财报公布后股价盘后一度跌超5%,主因云厂商Q3资本开支增速放缓至15%引发采购担忧,叠加年内股价累涨58%后获利了结。长期看,英伟达全栈AI转型成效显著,软件收入同比增120%,300万开发者生态巩固技术壁垒,Blackwell在千亿模型场景的效率优势或成平衡周期波动关键。