CoreWeave 是一家专做 GPU/AI 计算 的“新型云(neocloud)/AI hyperscaler”:重点不是通用云的全家桶,而是把 训练、推理、VFX/HPC 这类对 GPU、网络、存储、集群调度要求极高的工作负载做到更快、更高利用率、更可控。
发展沿革与增长
- 2017 年成立,2020 年推出 CoreWeave Cloud Platform。
- 早期收入主要来自加密挖矿相关业务,后来已停止该方向,转向 AI/GPU 云。
- 在招股文件中披露:2022/2023/2024 年收入分别约 $16M / $229M / $1.9B(增长非常陡峭)。
- 其商业合同以多年期承诺为主:截至 2024 年底,“剩余履约义务(RPO)”约 $15.1B。
核心产品与技术栈(它具体卖什么)
- CoreWeave Cloud Platform:GPU 为核心的云基础设施
- 既支持按需(pay-as-you-go),也支持多年期、take-or-pay 的容量预留/承诺合同。
- Kubernetes-first 的底座 + 面向大规模训练/推理的调度
- 官方博客明确:其平台“完全构建在 Kubernetes 之上”,并围绕效率做了大量工程化。
- 他们推出 SUNK(Slurm on Kubernetes):把 Slurm 生态和 Kubernetes 结合,面向研究/训练集群,宣称可扩展到 32,000+ GPU 级别,并提供更深的作业可观测性。
- 数据中心侧的“为 GPU 而生”
- 招股文件强调高密度机柜、液冷、骨干网络与跨数据中心互联(含 dark fiber/冗余环网)等,以支撑 GPU 集群的功耗/散热/带宽需求。
关键客户与大合同(它靠谁赚钱)
CoreWeave 的特点之一是客户集中度很高(这既是增长来源,也是风险点):
- 2024 年来自前两大客户的收入合计约 77%;最大客户为 Microsoft,在 2023/2024 年分别贡献约 35%/62% 的收入。
- 与 OpenAI:
- 2025 年 3 月宣布初始协议(最高约 $11.9B),并提到 OpenAI 将投资约 $350M。
- 2025 年 9 月再次扩展,公告称累计合同价值约 $22.4B。
- 与 Meta:路透报道披露一份规模约 $14.2B、覆盖到 2031 年的 AI 基建合同(并可延展)。
与 NVIDIA 的关系为何被反复提起
- CoreWeave 的 GPU 供应高度依赖 NVIDIA:招股文件写明“当前基础设施中的 GPU 全部为 NVIDIA GPU”。
- 2026 年 1 月,NVIDIA 宣布对 CoreWeave 投资 $2B(按 $87.20/股),并深化“AI 工厂”建设协作,用于加速土地、电力等数据中心扩张;路透同时提到 CoreWeave 目标到 2030 年达到 5GW 容量。
通过收购补齐“开发者工具链”
- 2025 年 5 月,CoreWeave 完成对 Weights & Biases 的收购,用来增强其面向 AI 训练/实验管理/可观测性的开发者平台能力。
上市与公司治理要点
- 招股书显示其计划在 Nasdaq 以代码 CRWV 上市,并采用双重股权结构(Class A/ Class B)。
竞争格局:它在和谁打
- CoreWeave 一方面与通用云(AWS/Azure/GCP)在 AI 算力上竞争,另一方面也与其他“GPU 云/AI 云”新玩家竞争。其差异化叙事通常是:更专注 AI、部署更快、对大规模 GPU 集群更“贴身”的工程与支持。
主要风险点(看财报/公告时重点盯这些)
- 客户集中度:对少数大客户(尤其 Microsoft)的依赖在招股文件中被明确提示。
- 供应链与单一 GPU 体系依赖:GPU 全部来自 NVIDIA,且关键部件供应商数量有限。
- 数据中心电力与扩建约束:电力获取、传输、机房租赁与第三方数据中心可靠性会直接影响交付能力。
- 资本开支与融资结构:AI 基建极度烧钱,市场对其融资模式与杠杆水平也长期有讨论(可结合财经媒体与其披露的债务/融资条款一起看)。