英伟达[13]

英伟达15亿美元租Lambda H100服务器:巩固GPU霸权对抗自研芯片

2024年全球AI算力竞争白热化之际,英伟达与Lambda签署15亿美元GPU服务器租赁协议,涉及1.8万台搭载H100 Tensor Core GPU的服务器,总算力达1.8 EFLOPS。此举是英伟达应对亚马逊、谷歌等巨头自研芯片冲击的“内循环”战略落子:通过资本绑定Lambda等中小云服务商,以“投资-采购-回租”模式巩固GPU生态,如CoreWeave从挖矿公司逆袭为190亿估值巨头的案例所示。其核心逻辑在于依托CUDA软件生态壁垒,锁定开发者群体,对冲大客户流失风险。该交易不仅巩固英伟达GPU霸权,更推动AI算力市场分层——头部厂商主打通用算力,英伟达系服务商聚焦高性能训练,加速算力从稀缺资源向标准化商品转变,为AI技术普及注入动力。

谷歌TPU入驻第三方云数据中心挑战英伟达霸权

谷歌TPU首次计划入驻第三方云数据中心,打破自2016年发布以来仅在Google Cloud流通的惯例,已与AWS、微软Azure等主流云厂商洽谈合作,首阶段瞄准医疗、金融等算力敏感行业,直接挑战英伟达AI芯片霸权。此举旨在扩大市场覆盖、争夺AI生态主导权,其TPU v5e芯片在相同性能下功耗比H100低40%,能效优势显著。不过,TPU需克服技术适配(依赖JAX/TensorFlow软件栈、硬件基础设施兼容)与生态壁垒(英伟达CUDA生态深厚)。当前AI芯片竞争已进入硬件算力、软件易用性、部署灵活性“三维战争”,谷歌开放TPU或推动行业向多元生态发展,成AI芯片格局分水岭。

英伟达Q2营收467亿创新高,股价下跌引AI周期市场分歧

英伟达2026财年Q2财报亮眼,营收达467亿美元创纪录,同比增长56%,数据中心业务以411亿美元营收占比88%,核心驱动力为Blackwell平台规模商用。该平台在MLPerf测试中性能领先,AI推理效率提升一个数量级,已落地特斯拉自动驾驶、梅奥诊所药物研发等场景。不过财报公布后股价盘后一度跌超5%,主因云厂商Q3资本开支增速放缓至15%引发采购担忧,叠加年内股价累涨58%后获利了结。长期看,英伟达全栈AI转型成效显著,软件收入同比增120%,300万开发者生态巩固技术壁垒,Blackwell在千亿模型场景的效率优势或成平衡周期波动关键。