1. 英伟达15亿美元租赁Lambda服务器

2024年,全球AI算力竞争进入白热化阶段。就在科技巨头们纷纷加码自研AI芯片的背景下,英伟达突然抛出一枚“重磅炸弹”——与云服务商Lambda签署总额15亿美元的GPU服务器租赁协议。这笔交易不仅涉及超过1.8万台服务器的长期绑定,更揭示了英伟达在面对亚马逊、谷歌等巨头自研芯片冲击时,如何通过“资本+生态”双轮驱动巩固市场主导地位的深层逻辑。

2. 1.8万台H100服务器背后的算力布局

根据英伟达与Lambda的协议内容,这笔15亿美元的合作分为两部分:核心租赁协议覆盖1万台服务器(价值13亿美元,租期4年),补充协议涉及8000台服务器(价值2亿美元,租期未公开)。值得注意的是,所有服务器均搭载英伟达最新的H100 Tensor Core GPU——这款被称为“AI算力引擎”的芯片,目前仍是全球高性能AI训练的首选硬件。

从规模上看,1.8万台H100服务器集群的总算力可达约1.8 EFLOPS(百亿亿次浮点运算/秒),相当于2023年全球Top500超级计算机第5名的算力水平。Lambda在官方公告中明确表示,这些服务器将用于“扩展英伟达的AI云基础设施”,并计划借此在2025年将自身算力规模扩大3倍以上。

交易类型 金额(美元) 服务器数量 核心配置 租期
长期租赁协议 13亿 10,000台 英伟达H100 GPU集群 4年
补充租赁协议 2亿 8,000台 英伟达H100 GPU集群 未披露

3. 英伟达的“内循环”战略

这笔交易的核心并非简单的“租赁”,而是英伟达精心设计的“资金内循环”模式:先投资中小云服务商→推动其采购自家GPU→再回租算力资源。这种模式的背后,是英伟达应对行业变局的战略防御。

3.1 对抗“客户变对手”的危机

随着亚马逊Trainium、谷歌TPU、Meta MTIA等自研芯片陆续落地,英伟达正面临“核心客户流失”的风险。据福布斯分析,这些自研芯片已分流了英伟达10%-15%的云市场份额。通过扶持Lambda、CoreWeave等中小厂商,英伟达相当于打造了“第二梯队”算力供应商,对冲大客户自研芯片带来的冲击。

3.2 用生态壁垒锁定GPU标准

英伟达的真正护城河并非芯片本身,而是CUDA软件生态——全球超400万开发者基于此开发AI模型。通过资本绑定中小云厂商,英伟达可确保这些服务商持续采用其GPU架构,进而巩固CUDA生态的垄断地位。正如行业分析师所言:“当所有中小服务商都在用英伟达GPU时,客户切换成本将高到难以承受。”

3.3 财务杠杆:花更少的钱,卖更多的芯片

租赁模式对英伟达而言是一笔“划算买卖”。一方面,回租算力的成本低于直接自建数据中心;另一方面,Lambda等服务商为满足租赁需求,需持续采购新一代GPU(如未来的Blackwell架构),间接拉动英伟达芯片销量。这种“以租促售”的逻辑,让英伟达在控制成本的同时,维持了芯片出货量的增长。

4. CoreWeave从“挖矿玩家”到190亿估值巨头的逆袭

英伟达这套“内循环”战略并非首次实践,CoreWeave的崛起就是最佳验证。这家2017年成立的公司,最初靠以太坊挖矿基础设施起家,2019年转型AI云服务商后,成为英伟达重点扶持对象。

  • 资本输血:英伟达不仅投资CoreWeave,还帮助其获得银行贷款,使其有足够资金采购GPU服务器。
  • 资源回租:CoreWeave的90%收入来自英伟达的租赁协议,形成稳定现金流。
  • 资本化路径:2024年5月,CoreWeave完成75亿美元融资,估值飙升至190亿美元;更与微软签订23亿美元AI算力供应合同,成为英伟达生态的“明星案例”。

彭博社报道显示,CoreWeave计划2025年IPO,目标估值超300亿美元。这意味着英伟达作为早期投资者,将获得数十倍的回报——这种“投资-回租-上市退出”的闭环,正成为英伟达生态扩张的范本。

5. Lambda的机遇与挑战

与CoreWeave相比,Lambda的定位更聚焦于“高性能AI训练”。成立于2012年的Lambda,早期以数据中心空间租赁为主,近年来凭借与英伟达的深度合作,逐步转向AI云服务。其差异化优势在于:

  • 低成本算力:提供比AWS、GCP更低价格的按需GPU集群,吸引Midjourney、Anthropic等AI初创公司。
  • 技术协同:与英伟达联合开发基于H100的高密度计算集群,算力密度比行业平均水平高40%。

但Lambda也面临隐忧:其80%的采购成本来自英伟达GPU,过度依赖单一供应商。若未来英伟达推出新架构(如Blackwell),Lambda需快速升级基础设施,否则可能失去竞争力。此外,在英伟达生态内部,Lambda还需与CoreWeave、TensorDock等厂商争夺资源,竞争压力不小。

6. AI算力市场的“分层时代”来临

英伟达与Lambda的合作,正在重塑AI算力市场格局:

  • 市场分层:头部云厂商(AWS、Azure)凭借自研芯片主打通用算力,英伟达系厂商(CoreWeave、Lambda)则专注高性能AI训练,形成“双轨竞争”。
  • 算力商品化:中小厂商的崛起降低了企业获取高端GPU的门槛,推动AI算力从“稀缺资源”向“标准化商品”转变。

未来,随着英伟达持续复制“CoreWeave模式”,更多中小云服务商可能加入其生态。这不仅会巩固英伟达的GPU霸权,还将加速AI技术的普及——毕竟,当算力变得触手可及时,创新的火花才会真正迸发。

参考链接