Cisco AI峰会上,刚刚履新10个月的Intel CEO Lip-Bu Tan首次系统披露了AI基础设施的真实瓶颈。这位曾带领Cadence 25年的EDA工具教父,用一句话颠覆了行业共识:“如果有什么会拖慢AI,那一定是内存,不是算力。”
1
“朋友都劝我别接这烂摊子”
开场时,Cisco高管Jeetu Patel半开玩笑地说:"你保持了我交友速度的纪录——从没人让我这么快建立友谊。"Lip-Bu Tan的回应更实诚:“加入Intel董事会两年后,很多朋友劝我别当CEO——你在风投界名声那么好,干嘛接这个烂摊子?”
但他最终还是说服了妻子:"这是一家标志性公司,对行业、对美国都太重要了。“10个月过去,Lip-Bu用"marching off the map”(踏入未知领域)形容这段经历——意外状况不断,只能边走边学。
1
摩尔定律压缩到"三四个月"
当被问到AI发展的最大制约因素时,Lip-Bu Tan的答案出人意料:
“内存。内存供应商告诉我,至少到2028年都不会缓解。”
为什么?因为AI"吞噬"了太多内存。他提到与英伟达CEO黄仁勋的私下交流:"Jensen下一代产品需要大量HBM内存。"而全球只有三家主要供应商(三星、SK海力士、美光),其中两家明确表示产能已被锁死到2028年。
更惊人的是算力需求的增速。Lip-Bu透露了一个数据:"过去摩尔定律的周期是3-4年,现在变成了3-4个月。"这意味着计算需求的膨胀速度比任何人想象的都快。
1
台积电产能:AI芯片的"七寸"
虽然内存是第一瓶颈,但Lip-Bu更担心的是2027年的芯片产能危机:

-
2024-2025年新增15-18GW算力
-
2026年新增约30GW
-
2027年,晶圆厂产能将再次成为最大瓶颈
他直言:“台积电等厂商约50%的先进制程产能都用于AI芯片。到2027年,瓶颈会从电力重新回到半导体制造。”
这与此前SemiAnalysis创始人Dylan Patel的"台积电瓶颈论"不谋而合——当所有人盯着数据中心电力时,真正的死结在上游。
1
为什么Nvidia"被迫"多线押注?
访谈中,Lip-Bu揭示了一个罕见细节:Intel正在同时押注CPU、GPU、RISC-V和ARM架构。
“我刚聘请了顶尖的GPU架构师,还在拥抱RISC-V和ARM。关键不在于坚守x86,而是从软件层往下定义硬件。”
这背后的逻辑是:没人知道AI的最优架构是什么。英伟达用GPU统治训练市场,但推理市场正在分化——Intel客户发现CPU在某些场景下性能更优,而Cerebras用WSE(晶圆级芯片)抢走了OpenAI的750MW推理订单。
Lip-Bu说得更直白:"每个CEO都给我打电话——Lip-Bu,我是你最重要的客户,能多给我点货吗?“这种供不应求的状态,倒逼芯片厂商必须"多条腿走路”。
1
18A良率暴涨背后:开放的力量
Intel代工业务(Foundry)是Lip-Bu的战略重心。他接手时,18A制程良率"相当糟糕",但通过一个反常规操作实现了逆转:
“我让所有朋友来帮忙——PDF Solutions、KLA等设备商。我们’打开和服’(open up the kimono),让外部专家进来诊断。现在良率每月提升7-8%,这是行业最佳实践。”
这种"透明即信任"的策略奏效了:
-
Panther Lake(潘瑟湖)芯片已交付18A生产
-
多个客户主动上门要求使用18A
-
14A制程(1.4纳米)将于2028年风险量产、2029年量产
Lip-Bu给客户的承诺也很实在:“给我你最大、最重要的产品,先给我5%-50%的份额,让我慢慢赢得信任。”