Nvidia没有收购Groq但花了200亿美元做了更聪明的事

好用的小火箭节点推荐⭐Shadowrocket高速节点推荐

2025年12月24日圣诞夜 ,CNBC爆料称Nvidia将以200亿美元收购AI芯片初创公司Groq,这将是Nvidia史上最大收购案(此前纪录是2019年70亿美元收购Mellanox)。

但几小时后剧情反转 :Nvidia和Groq双双澄清,这 不是收购 ,而是一笔 技术许可协议 。

实际交易内容 :

💰 金额:约200亿美元现金

📜 性质: 非独占技术许可协议

👥 人才:Groq创始人Jonathan Ross、总裁Sunny Madra等核心团队加入Nvidia

🏢 公司:Groq继续独立运营,CFO Simon Edwards接任CEO

黄仁勋在内部邮件中明确表示:" 我们只是获得技术授权和引入人才,并未收购Groq这家公司 。

买的是什么:Groq的LPU推理技术

Groq的核心技术是 LPU(Language Processing Unit,语言处理单元) ,这是一种专门为AI推理优化的芯片架构,和Nvidia的GPU有本质区别。

LPU vs GPU:技术对比

特性

Groq LPU

Nvidia GPU

架构设计

TSP(张量流处理器)

SIMD(单指令多数据)

执行方式

确定性执行

(编译器静态调度)

动态调度(运行时决策)

内存类型

片上SRAM(230MB)

外部HBM高带宽内存

内存带宽

80 TB/s

~3 TB/s

硬件利用率

接近100%

30-40%(推理时)

推理速度

Llama 2 70B: 300 tokens/秒

~30-50 tokens/秒

能耗

1-3焦耳/token

10-30焦耳/token

擅长场景

AI推理

(尤其是实时对话)

AI训练 + 推理

为什么LPU推理这么快?

1️⃣ 软件定义硬件 :把复杂的调度工作交给编译器,硬件只管无脑执行,消除了GPU的调度开销

2️⃣ 全SRAM架构 :数据不用频繁在芯片和外部内存之间来回搬运,速度比GPU的HBM快20倍

3️⃣ 确定性执行 :编译器在编译时就安排好了所有指令的执行时序,没有GPU那种"等内存"的空转时间

4️⃣ 流水线架构 :芯片间通信速度达到10TB/s,无需外部网络设备,延迟极低

买的是谁:Google TPU之父Jonathan Ross

Jonathan Ross何许人也?

🎓 NYU数学和计算机科学专业,二年级时就完成了博士生课程,师从Yann LeCun(2018年图灵奖得主)

🧠 Google TPU(Tensor Processing Unit)的核心设计者之一,TPU是Google自研AI芯片的开山之作

🚀 2016年离开Google创办Groq,带走了一批Google X和TPU团队的核心工程师

这次交易后,Jonathan Ross、总裁Sunny Madra以及核心研发团队将 全体加入Nvidia 。

不买的是什么:Groq公司和云业务

Groq的 GroqCloud云服务 (已服务200万开发者) 不在交易范围内 ,将继续由独立的Groq公司运营。

这意味着:

✅ Nvidia获得了技术专利和核心团队

✅ Groq可以继续把LPU技术授权给其他厂商(非独占协议)

✅ 开发者仍然可以用GroqCloud的API

为什么Nvidia要这么操作?

原因1:避开反垄断审查

如果是传统收购,这笔交易需要经过:

❌ 美国FTC(联邦贸易委员会)审批

❌ 欧盟反垄断审查

❌ 中国商务部审批

❌ 可能长达1-2年的等待期

历史教训 :Nvidia在2020年宣布400亿美元收购ARM,结果被各国监管机构围堵,2022年不得不放弃。

采用"技术许可+人才引进"的方式:

✅ 无需监管审批

✅ 圣诞节签署,立即生效

✅ 完美规避了"消灭竞争对手"的指控

Hacker News上有评论将此称为**"反向acqui-hire"**(Reverse Acqui-hire)——不买公司,只买技术和人。类似微软2024年与Inflection的6.53亿美元交易。

原因2:补齐推理短板

Nvidia的GPU在 AI训练 领域无敌,但在 AI推理 场景存在短板:

GPU推理的痛点 :

⚠️ 内存带宽瓶颈(数据搬运慢)

⚠️ 硬件利用率低(30-40%)

⚠️ 能耗高(10-30焦耳/token)

⚠️ 实时响应延迟高

LPU的优势 :

✅ 推理速度快10倍

✅ 能耗降低10倍

✅ 适合ChatGPT这类实时对话场景

黄仁勋在内部邮件中说:" 我们计划将Groq的低延迟处理器集成到Nvidia AI工厂架构中,把平台能力扩展到更广泛的AI推理和实时工作负载 。"

这意味着未来的Nvidia数据中心可能是:

🎯 GPU负责训练 → 输出模型

🎯 LPU负责推理 → 实时响应用户

原因3:消灭潜在威胁

Groq在今年9月刚完成一轮融资,估值 69亿美元 ,短短3个月就被Nvidia以 200亿美元 (接近3倍溢价)"买走"核心资产。

时间线 :

2025年9月:Groq融资,估值69亿美元

2025年12月:Nvidia以200亿获得技术授权+团队

有分析认为,Nvidia此举是为了 防止LPU技术落入竞争对手手中 (比如AMD、Intel、Google)。

Hacker News评论区有人质疑:"这不就是变相消灭竞争对手吗?"但由于不是正式收购,监管机构很难干预。

对开发者的3个影响

影响1:GroqCloud API会受影响吗?

受影响人群 :正在使用GroqCloud API的200万开发者

影响程度 :🟢低风险(短期无影响)

具体表现 :

✅ GroqCloud继续由独立的Groq公司运营

✅ 现有API和定价不变

⚠️ 长期存在不确定性(Nvidia可能影响技术路线)

应对策略 :

短期内 可以继续用 ,GroqCloud仍是最快的推理API之一

关注Groq官方公告,看是否有服务条款变更

准备Plan B,评估其他推理服务(OpenAI、Anthropic、Google)

我的建议 :如果你的业务严重依赖Groq,建议做多云部署,不要把鸡蛋放在一个篮子里。

影响2:Nvidia会推出自己的LPU产品吗?

受影响人群 :企业级AI基础设施采购决策者、云服务商

影响程度 :🟡中等(6-12个月内可能有新产品)

具体表现 :

📅 预测时间 :2026年Q2-Q3可能发布集成LPU技术的新产品

🎯 目标市场 :大规模AI推理场景(搜索引擎、对话机器人、实时翻译)

💰 定价策略 :可能比现有GPU推理方案便宜30-50%

对比 :

现在 :租一台A100 GPU推理,成本约$2-4/小时

未来 :Nvidia LPU推理,可能降到$1-2/小时

应对策略 :

如果你在规划2026年的AI基础设施, 等一等Nvidia的新产品

如果急需上线,可以先用GroqCloud或现有GPU方案

关注Nvidia GTC 2026大会(通常在3月),可能会有重磅发布

影响3:AI芯片创业还有机会吗?

受影响人群 :AI芯片创业者、投资人

影响程度 :🔴高风险(行业格局重塑)

具体表现 :

⚠️ Nvidia用200亿证明: 它不会允许威胁存在

⚠️ 类似交易可能继续发生(收购或挖走核心团队)

⚠️ 独立AI芯片公司的退出路径变窄

历史案例 :

2019年:Nvidia 70亿收购Mellanox(网络芯片)

2024年:微软6.53亿"挖走"Inflection团队

2025年:Nvidia 200亿拿下Groq技术+团队

冷静思考 :

并非所有赛道都被封死, 垂直场景 (边缘AI、车载芯片、IoT)仍有机会

中国市场由于地缘政治因素, 国产替代 需求强劲

软硬一体 的创业方向(芯片+算法+应用)更有壁垒

我的观点 :如果你想做AI芯片创业,要么做Nvidia不屑做的垂直市场,要么做它做不了的地缘市场,要么就准备好被收购。

这笔交易的真实成本

很多报道说"200亿美元",但实际情况更复杂:

Nvidia的支出 :

💰 现金 :约200亿美元(分期支付,具体条款未公开)

💼 股权激励 :给Ross等高管的Nvidia股票(价值未披露)

🏢 运营成本 :整合团队、开发新产品的投入

Nvidia的收益 :

✅ 技术专利 :LPU全套设计和实现细节

✅ 顶尖人才 :Google TPU之父+核心团队

✅ 市场份额 :巩固AI推理市场地位

✅ 战略价值 :阻止竞争对手获得LPU技术

投资回报预测 :

假设Nvidia在2026年推出LPU产品线

如果占据推理市场30%份额

以年收入500亿美元计算(保守估计)

4年可收回成本

业内人士观点

支持方 :

✅ "技术应该掌握在能大规模商用的公司手里"

✅ "Groq单打独斗很难和Nvidia生态抗衡,这是双赢"

✅ "200万开发者还能继续用GroqCloud,没什么好担心的"

质疑方 :

⚠️ "这就是变相垄断,监管机构应该介入"

⚠️ "Nvidia在系统性消灭所有潜在威胁"

⚠️ "AI芯片创业的退出路径越来越窄了"

我的看法

这笔交易展示了Nvidia在商业策略上的 老辣 :

1️⃣ 规避监管 :不收购公司,只买技术和人,完美规避反垄断

2️⃣ 快速交割 :圣诞节签约立即生效,不给竞争对手反应时间

3️⃣ 技术互补 :GPU+LPU组合拳,训练+推理全覆盖

4️⃣ 战略防御 :200亿不算贵,阻止AMD/Intel拿到LPU才是关键

对开发者的启示 :

🎯 不要只押注一家云服务商

🎯 关注技术趋势,推理专用芯片是未来方向

🎯 Nvidia的生态越来越强,CUDA依然是必修课

对创业者的警示 :

⚠️ 做Nvidia的补充,别做替代品

⚠️ 垂直场景和地缘市场是机会点

⚠️ 技术再牛也要考虑退出路径

时间线回顾

2016年 :Jonathan Ross离开Google创办Groq

2024年Q1 :Groq开放GroqCloud公测,推理速度惊艳业界

2025年9月 :Groq完成融资,估值69亿美元

2025年12月24日 下午 :CNBC爆料Nvidia将200亿收购Groq

2025年12月24日 晚上 :Nvidia和Groq双双否认,称只是技术许可

2025年12月27日 :你看到了这篇文章 😄

你怎么看这笔交易?

Nvidia是聪明还是霸道?

AI芯片创业还有机会吗?

你会继续用GroqCloud吗?

欢迎评论区讨论!

CodeLink 码链 - 自由职业者接单平台

好用的小火箭节点推荐⭐Shadowrocket高速节点推荐

THE END
分享
二维码
< <上一篇
下一篇>>