CoreWeave 的 AI 跑分不只是新闻,更是给云巨头的警告
性能大突破还是战略将军?
CoreWeave 使用 NVIDIA 最新的 GB200 Grace Blackwell 超级芯片,在 AI 推理方面取得了破纪录的性能。表面上看,这令人印象深刻。但对于那些关注云 AI 军备竞赛的人来说,这不仅仅是一项技术展示,更是一个战略信号:CoreWeave 不仅与超大规模企业保持同步,而且正在设定基准。
当主要的云服务提供商专注于广泛的公告时,CoreWeave 仍在专注于执行。随着其 MLPerf Inference v5.0 的结果现在公开,它不仅仅是在追赶,而是在迫使整个行业重新评估其优先事项。
数字的真正含义
CoreWeave 现在是第一家发布使用 NVIDIA GB200 芯片的 MLPerf v5.0 基准测试的云服务提供商——该架构将两个 Blackwell GPU 和一个 Grace CPU 配对,每个 GPU 配备 192 GB 的 HBM3e 内存。
结果的亮点:
- 在 Llama 3.1 405B(最大的开源 LLM 之一)上每秒 800 个 tokens。
- 在 Llama 2 70B 上每秒 33,000 个 tokens,比基于 H100 的系统提高了 40%。
- 与 EleutherAI 的 GPT-J-6B 模型相比,性能提高了 8-10 倍。
这些不是营销数字。它们来自 MLPerf,这是用于评估不同部署场景中真实 ML 性能的行业标准基准测试套件。换句话说:这不是理论,而是随时可以部署的实力。
“这些 MLPerf 基准测试结果加强了 CoreWeave 作为领先 AI 实验室和企业首选云服务提供商的地位,”CoreWeave 首席技术官 Peter Salanki 说。
但这不仅仅是原始能力的问题,而是这种能力所带来的战略意义。
超越速度的重要性
1. 效率达到新水平
AI 推理不仅仅是速度快,而是要用更少的资源做更多的事情。CoreWeave 在 Llama 2 70B 上的 33,000 TPS 转化为:
- 每次推理的成本更低。
- 每个 token 的功耗更低。
- 每个数据中心机架的密度更高。
在计算成本和能源消耗成为瓶颈的时候,效率就变成了一个护城河。
2. 它解决了 AI 最紧迫的瓶颈:延迟
推理延迟是现代 AI 部署的阿喀琉斯之踵——无论是对于副驾驶、实时聊天机器人还是自主代理。CoreWeave 的飞跃直接解决了这个问题。更低的延迟意味着更好的用户体验、更好的货币化和更大的可扩展性。
3. 先入市场,先入为主
CoreWeave 早期就推出了 H100。然后是 H200。现在它是第一个将 GB200 NVL72 集群投入全面使用的公司。在一个昨天的 GPU 就是旧闻的领域,领先不仅仅是表面功夫,更是一种长期的优势。
CoreWeave 如何与其他公司竞争
与传统超大规模企业相比
AWS、Azure 和 Google Cloud 拥有更深厚的客户网络和广泛的服务组合。但它们转型较慢。CoreWeave 是专为高性能推理而构建的——更精简、更灵活、更专业。
与 AI 基础设施初创公司相比
像 Lambda Labs 和 Crusoe 这样的公司拥有强大的产品。但 CoreWeave 的重复基准测试领导地位和与 NVIDIA 的紧密合作关系使其在速度和规模上具有优势。
与芯片制造商相比
是的,AMD 的 MI300X 和 Intel 的 Gaudi 3 正在成为头条新闻。但 NVIDIA 的 Blackwell 架构在今天的性能方面处于领先地位——而 CoreWeave 是访问该性能的最快途径。
市场忽略了什么——以及为什么这是一个错误
AI 推理是新的云前沿
过去十年是关于训练大型模型。未来十年呢?大规模推理。 实时助手、24/7 AI 代理和交互式副驾驶都需要快速、可扩展、高效的推理。
CoreWeave 正在将自己定位为未来推理的支柱——就在对推理基础设施的需求爆炸式增长之际。
CoreWeave 不仅仅是一项技术游戏,它是一项战略资产
投资者应该关注三个关键信号:
- 微软在幕后依赖 CoreWeave 来支持 OpenAI 工作负载。这不仅仅是一项供应商协议,更是战略基础设施。
- 与 NVIDIA 的紧密集成,使 CoreWeave 能够尽早获得最新一代硬件。
- 估值为 230 亿美元,此前以每股 40 美元的价格进行了 15 亿美元的首次公开募股——这得益于实际收入和运营增长,而不是空中楼阁。
接下来会发生什么——以及为什么它可能会重塑 AI 云格局
1. 一次可能重塑市场定价的 IPO
CoreWeave 不仅仅是另一家独角兽公司。它现在是一家上市公司,拥有基准测试、合作伙伴关系和执行力来支持其估值。如果其势头继续下去,它可能会重置市场对 AI 基础设施公司的估值方式。
2. 专业化的教训
在一个通才的世界里,CoreWeave 正在证明深度专业化才能获胜。它专注于 AI 推理,而不是一般的云服务,这使其能够比更广泛的平台更快地行动和更深入地优化。
3. 一场正在发生的权力转移
如果超大规模企业无法跟上 CoreWeave 的步伐,它们可能会被迫外包更多的推理工作负载。这会将 CoreWeave 从利基供应商转变为关键的基础设施支柱——无论现有企业是否喜欢。
一条分界线
CoreWeave 的 MLPerf v5.0 结果不仅仅令人印象深刻,它们还表明了意图:
“我们不仅仅是在 AI 基础设施游戏中玩耍。我们计划领导它。”
对于投资者和行业观察者来说,这是要点:
- 一个高度专业化、快速扩张的参与者,位于 AI 堆栈中最关键的部分。
- 得到 NVIDIA 的支持,经过基准测试验证,并且已经是 AI 领域最大公司的合作伙伴。
- 不仅为增长做好准备,而且为领导地位做好准备。
CoreWeave 打破了纪录。真正的问题是:谁能赶上——以及需要多长时间?