AI算力的瓶頸已不是電,而是半導體供應鏈

由 DeepTech深科技 發佈於 科技

'26-03-17

2026 年,全球四大科技巨頭亞馬遜、Meta、谷歌和微軟的資本支出預測總額達到 6,000 億美元。換算成數據中心的年租賃價格,大約對應 50 GW(吉瓦)的算力容量。與此同時,OpenAI 剛剛完成 1,100 億美元融資,Anthropic 官宣了 300 億美元的新一輪募資。錢到位了,但這些錢到底能不能變成真正運轉的芯片和數據中心?


半導體研究機構 SemiAnalysis 創始人兼 CEO Dylan Patel 近日做客 Dwarkesh Patel 的播客節目,就 AI 算力擴展的核心瓶頸進行了一次信息量極高的深度對話。Dylan 長期追蹤全球半導體供應鏈和 AI 基礎設施建設,SemiAnalysis 的客戶涵蓋超級雲廠商、AI 實驗室和對沖基金,其數據和預測在行業內被廣泛引用。



圖丨 Dylan Patel(來源:Youtube)


對話核心要點如下:


•6,000 億美元資本支出的真相:四大科技巨頭今年的資本支出中,大量用於未來數年的前置投入(渦輪機定金、數據中心建設、電力協議),而非今年直接上線的算力。美國今年新增約 20 GW 數據中心容量。


•Anthropic 的算力困境:收入增速遠超預期(1 月 +40 億、2 月 +60 億 ARR),年底需要超過 5 GW 才能滿足推理和訓練需求,但因此前採購過於保守,不得不接受更高價格或更大比例的收入分成來獲取算力。OpenAI 因激進簽約獲得了顯著的算力先發優勢。


•H100 今天比三年前更值錢:因爲更強的模型(如 GPT-5.4)能從同一顆芯片中榨取更多價值,而芯片供給始終有限,其定價取決於芯片能產生的經濟價值,而非替代品的比較價格。


•瓶頸已從電力轉向芯片製造:2026 年最大瓶頸不再是電力或數據中心,而是半導體供應鏈本身,邏輯晶圓、內存和晶圓廠產能。


•ASML 是終極天花板:每 GW AI 算力需要約 3.5 臺 EUV 光刻機。ASML 目前年產約 70 臺,到 2030 年最多約 100 臺。全球存量加增量到 2030 年底約 700 臺,理論上限約 200 GW,12 億美元的光刻設備卡住了 500 億美元的數據中心投資。ASML 的供應鏈(蔡司透鏡、Cymer 光源等)極度複雜且手工化,無法快速擴產。


•內存危機正在到來:內存廠商過去數年未建新廠,新產能最早 2027 年底才能上線。HBM 每晶圓面積比特數僅爲普通 DRAM 的 1/4,但帶寬高一個數量級,無法用 DDR 替代。內存漲價將導致智能手機出貨量從 11 億部驟降至 5-6 億部,中低端機型首當其衝。


•回到 7 納米不現實:雖然舊制程有存量產能,但 Hopper 與 Blackwell 在實際推理場景中的性能差距達 20 倍(非 FLOPS 暗示的 2-3 倍),因爲芯片內通信帶寬、封裝密度、網絡架構等優勢層層疊加。


•電力不是主要瓶頸:除聯合循環燃氣輪機外,還有航改燃機、往復式發動機、船用發動機、燃料電池、太陽能 + 儲能等十餘種技術路線,每種可貢獻數十 GW,合計可達數百 GW。釋放美國電網 20% 的峯值冗餘容量即可獲得 200+ GW。


•太空數據中心這十年不可行:芯片是最稀缺資源,部署到太空額外延遲 6 個月以上;衛星間通信帶寬遠不及地面 NVLink;散熱更困難;可靠性更差。唯有芯片不再是瓶頸且地面資源耗盡時,太空方案纔有意義。


•快時間線美國贏,慢時間線中國贏:如果 AI 收入和能力快速起飛,美國的基礎設施和模型優勢在擴大;如果到 2035 年 AGI 才成熟,中國有足夠時間建立完全自主的垂直整合半導體供應鏈。


以下是這期節目的完整編譯。


爲什麼 H100 現在的價值比三年前更高


Dwarkesh:如果把四大科技巨頭今年的資本支出加在一起是 6,000 億美元,按每 GW 數據中心年租金大約 130 億美元來算,接近 50 GW。但我們今年顯然不可能一下子部署 50 GW,那這些資本支出到底什麼時候才能變成真正上線的算力?


另外,AI 實驗室也在瘋狂融資,OpenAI 融了 1,100 億,Anthropic 融了 300 億。如果看它們今年實際上線的算力,加上租賃成本,這些融資似乎單獨就夠覆蓋今年的算力支出了,還不算它們會賺到的收入。所以第一,大型科技公司的資本支出到底什麼時候轉化爲上線算力?第二,實驗室融這麼多錢到底要幹什麼?


Dylan:6,000 億美元的超級雲廠商資本支出,加上供應鏈其他環節的開支,總額接近 1 萬億美元。其中一部分確實直接用於今年上線的芯片和算力,但還有大量的前置性資本支出。我們今年在美國大約新增 20 GW 的增量數據中心容量,但其中不少資本支出其實是去年花出去的。


以谷歌 1,800 億美元爲例,很大一塊花在了 2028、2029 年的渦輪機定金,還有 2027 年的數據中心建設、長期電力採購協議的預付款等等。微軟、亞馬遜和 Meta 也是類似的情況,它們花這些錢是爲了後續幾年的超高速擴張鋪路。


而這些公司最大的客戶就是 Anthropic 和 OpenAI。OpenAI 目前大約有 2 到 2.5 GW 的算力,Anthropic 大約在 1.5 GW 左右,兩家都在拼命往上擴。


如果看 Anthropic 最近幾個月的收入走勢,1 月新增約 40 億美元 ARR(年化經常性收入),2 月是短月,居然新增了大約 60 億美元。有人甚至會說這個線性外推還是偏保守的。按這個速度算,未來 10 個月 Anthropic 會新增大約 600 億美元的收入。


以目前媒體報道的毛利率推算,對應大約 400 億美元的算力支出。按每 GW 約 100 億美元的租賃成本計算,Anthropic 光是爲了支撐推理收入增長就需要新增 4 GW。這還是假設它的研發訓練集羣規模保持不變。所以 Anthropic 今年年底需要達到遠超 5 GW,才能滿足需求,但這對它來說將非常艱難。


Dwarkesh:所以如果 Anthropic 不可能在年底達到 5 GW,但收入的瘋狂增長和下一代模型訓練都需要這些算力,它該怎麼辦?


Dylan:Dario 之前在你的播客上說過,他不會在算力上瘋狂下注,因爲萬一收入拐點來得比預期晚,他不想公司破產,要負責任地擴張。但實際上,他確實在算力採購上比 OpenAI 保守太多了。OpenAI 的策略一直是直接簽下那些看起來瘋狂的大合約。結果到年底,OpenAI 的算力獲取遠多於 Anthropic。


Anthropic 最優質的算力供應商曆來是谷歌和亞馬遜,也就是世界上最大的幾家公司。OpenAI 就激進得多,除了從微軟拿到大量算力,還拿了谷歌、亞馬遜的算力,同時跟 CoreWeave、Oracle 簽了巨量合約,甚至找到像 SoftBank Energy 這種從來沒建過數據中心的公司來給它建數據中心。還有 N Scale 等各種新興供應商。


所以 Anthropic 面臨一個困境。它太保守了,籤合同時故意低估自己的需求,以免破產。而 OpenAI 呢,去年下半年確實有一段時間整個金融市場都在恐慌:“OpenAI 簽了這麼多合約,它根本沒錢付”,Oracle 的股票暴跌,CoreWeave 的股票暴跌,信用市場也跟着慌。結果現在好了,OpenAI 融到錢了,可以付了。


Dwarkesh:那我想理解的是,“臨時搶算力”到底意味着什麼?是 Neo Cloud(新興雲服務商)的硬件質量更差?還是說你得給雲服務商額外付高額利潤,因爲你來得太晚了?如果 OpenAI 和 Anthropic 到 2027 年算力規模差不多,那 OpenAI 到底得到了什麼具體好處?今年年底兩家各有多少 GW?


Dylan:要獲取額外算力,確實有一些存量可用。不是所有的算力合約都是五年長約,也有一年、兩年、六個月甚至按需的短期合約。當這些合約到期時,誰最願意出高價?我們已經看到 H100 的價格大幅上漲,有些 AI 實驗室,我就不點名了,他們在籤每小時 2.4 美元、爲期兩到三年的 H100 合約。要知道 H100 的五年部署成本大約是每小時 1.4 美元,而現在兩年後你籤的合約已經到了 2.4 美元,利潤率高得多。


所以你可以用高價格把其他供應商的客戶擠出去,不管是亞馬遜、CoreWeave、Together AI 還是 Nebius。這些 Neo Cloud 的特點是 Hopper 佔比更高(因爲它們更激進地採購了),而且很多籤的是短期合約。所以如果你想要 Hopper 算力,市面上確實還有一些。至於 Blackwell,基本上所有在本季度上線的算力都已經賣掉了。而且有些供應商實際交付的量還達不到承諾的數字,因爲數據中心建設有延誤。


但還有一種路徑,Anthropic 不必直接持有所有算力。亞馬遜可以通過 Bedrock 提供算力爲 Anthropic 服務,谷歌可以通過 Vertex,微軟可以通過 Foundry,然後跟 Anthropic 做收入分成。


Dwarkesh:所以你是說,Anthropic 要麼接受 50% 的收入分成抽成,要麼就得去接受臨時加價的現貨算力,如果當初早點買,就不需要多付這些錢。


Dylan:對,而且這裏面還有一個有趣的動態。過去有好幾個月,所有人都在說“OpenAI,我們不會跟你籤合同,聽起來太瘋狂了,你們根本沒錢”。現在呢,所有人都說“我們一直都相信你,隨便籤什麼合同都行,因爲你融到錢了”。從這個意義上說,Anthropic 是受限的,因爲市場上目前的增量算力大買家並不多,Anthropic 是第一個命中能力拐點、收入開始飛漲的。


不過我認爲 Anthropic 通過自己的直接採購,加上通過 Bedrock、Vertex 和 Foundry 服務其產品,今年年底大概能達到 5 到 6 GW。這遠超它最初的計劃。OpenAI 大致也在這個量級,可能稍高一些。


Dwarkesh:這也引出一個有趣的問題。有人一直在討論 GPU 的折舊週期。空頭們說折舊應該是兩年而不是四五年,因爲技術進步太快了。但按你說的,如果 H100 在 2024 年價值 2 美元/小時,2026 年 Blackwell 大批量部署後就只值 1 美元了,到 2027 年 Rubin 出來又降到 0.7 美元,但問題是,你造不出無限量的最新芯片。供給是有限的。所以給芯片定價的不是“我今天能買到什麼更好的替代品”,而是“這顆芯片今天能爲我產生多少價值”。


Dylan:完全正確。拿 GPT-5.4 來舉例。GPT-5.4 比 GPT-4 便宜得多,活躍參數更少,模型更小,不是像 GPT-4 那樣的粗粒度 MoE(混合專家模型),再加上訓練方法、RL(強化學習)、模型架構、數據質量等各方面的進步,GPT-5.4 的質量遠超 GPT-4。一顆 H100 跑 GPT-5.4 能產出更多的 token,而且每個 token 的質量更高。


想想看,GPT-4 的 token 最大 TAM(總可尋址市場)也許是幾十億美元。GPT-5.4 的 TAM 可能超過 1,000 億美元,只是採用需要時間,而且有競爭。如果技術進步停在這裏不動了,一顆 H100 的價值就不再由 GPT-4 能從它身上榨取多少價值決定,而是由 GPT-5.4 能榨取多少價值決定,而後者遠大於前者。


所以一顆 H100 今天的價值確實比三年前更高。


Dwarkesh:這太瘋狂了。如果再往前推,假設我們真的開發出了 AGI 模型,真正實現了“服務器上的人類”。一顆 H100 大約有 10^15 FLOPS,有人估算人腦大約也是這個量級。如果一個人類知識工作者一年能產出六位數的經濟價值,一顆 H100 的價值就是在幾個月內就能收回成本。


Dylan:在那種場景下,GPU 的價值只會隨着時間推移不斷上升。目前只有 OpenAI 和 Anthropic 真正持有這個信念。但隨着時間推移,即便是開源模型,所有人都會開始看到每顆 GPU 的價值在飛漲。從這個意義上說,你現在就應該鎖定算力。


Dwarkesh:這讓我想到一個經濟學效應叫 Alchian-Allen 效應,如果你對兩種商品同時加上一個固定成本(比如關稅),其中一種質量更高、一種更低,那消費者會更傾向於選擇高質量的那種,因爲相對價差縮小了。


拿一個具體例子:好蘋果 2 美元,差蘋果 1 美元,好蘋果是差蘋果的 2 倍價格。如果對兩種蘋果各加 1 美元關稅,變成 3 美元和 2 美元,好蘋果只貴 1.5 倍了。如果 GPU 越來越貴,所有人都在付這個固定成本,那人們就更願意多花一點錢用最好的模型,因爲反正算力已經花了那麼多錢了,不如多花一點用最強的模型。


Dylan:完全對。如果一顆 Hopper 從每小時 2 美元漲到 3 美元,而它能產出 100 萬個 Opus token 或 200 萬個 Sonnet token,那 Opus 和 Sonnet 之間的價差就縮小了,因爲 GPU 本身貴了 1 美元。事實上我們今天已經看到,所有的使用量和收入都集中在最好的模型上。


在算力受限的世界裏,還有兩件事同時發生:第一,那些早早鎖定了五年長約的公司,也就是沒有“承諾恐懼症”的公司,鎖定了巨大的成本優勢,因爲它們按三年前或兩年前的價格買的算力。第二,誰能攫取利潤?隨着模型越來越有價值,雲服務商能不能提價?


如果看 CoreWeave,它 98% 以上的算力合約平均期限超過三年,所以它沒法靈活提價。但每年新增的算力遠多於存量,Meta 今年新增的算力相當於它 2022 年整個數據中心和計算基礎設施的總量。新增算力按新價格成交,所以只要我們處於起飛階段,OpenAI 從去年的 600 MW 到 2 GW,今年到 6 GW 以上,明年到 12 GW,真正的成本在增量部分,不在存量長期合約上。


那誰掌握定價權?往上游走,最終是英偉達。它們已經簽了約 900 億美元的長期合約,正在跟內存廠商談三年期協議。英偉達、亞馬遜、谷歌(通過博通)和 AMD 這些芯片公司掌握着主動權,因爲它們鎖定了產能。臺積電沒怎麼漲價,但內存廠商在大幅漲價。至少今年,我們會看到模型廠商的利潤率大幅提升,因爲它們產能受限嚴重,不得不通過提價來抑制需求。Anthropic 不可能按目前的節奏繼續增長而不抑制需求。


英偉達搶先鎖定了臺積電產能;谷歌正面臨擠壓


Dwarkesh:那我們來具體聊聊英偉達是怎麼鎖定邏輯和內存產能的。據你的數據,到 2027 年英偉達將佔據 N3(3 納米)晶圓產能的 70% 以上。如果看 Neo Cloud 的商業模式,英偉達通過給各種小型 Neo Cloud 分配算力來分散互補產業、確保自己有最大的議價權。


同樣,Anthropic 和 OpenAI 與數據中心供應商合作時也會故意培養一大批供應商,不被任何一家鎖定。那爲什麼在 3 納米制程上,臺積電就這麼把產能大量給了英偉達,而不是試圖分散市場?


Dylan:先看 3 納米的背景,去年 3 納米的絕大部分產能是蘋果。蘋果現在正向 2 納米遷移,2 納米目前只能做移動芯片,未來 AI 芯片也會遷過去。內存價格上漲也在擠壓蘋果,要麼自己喫掉成本,要麼削減出貨量。


臺積電的算盤其實是這樣的:它們更願意把產能分配給做 CPU 的公司。比如亞馬遜既有 Trainium(AI 芯片)又有 Graviton(CPU),兩者都在 3 納米上。臺積電對 Graviton 的分配更積極,因爲它們認爲 CPU 業務是更穩定的長期增長。作爲一家保守的公司,臺積電不想過度依賴高增長市場的週期波動,所以優先分配給增長更穩的市場。對 AMD 也一樣,臺積電更看重它的 CPU 而不是 GPU。


但英偉達比較特殊,它有 CPU、交換機、網絡設備、NVLink、以太網,各種產品。到今年年底 Rubin 系列發佈時,英偉達的大多數產品都會在 3 納米上。而且英偉達就是更早下手了。比谷歌早,比亞馬遜早。谷歌和亞馬遜還碰到了一些波折,某顆芯片(Trainium)延遲了幾個季度。


而英偉達一直在說“要更多、更多、更多”。它會去檢查整個供應鏈的每個環節,去 PCB 供應商那裏確認“有沒有足夠的 PCB 產能?”,去內存廠商那裏確認“誰有所有的內存產能?”,答案是英偉達。


道理和 AI 實驗室鎖定算力一樣。誰足夠相信 AGI,誰就敢在看起來荒謬的時間尺度上鎖定大量產能、支付不錯的利潤率。英偉達在半導體供應鏈上做的是同樣的事。雖然我不認爲英偉達像 Dario 或 Sam 那樣真正相信 AGI,Jensen 一直說的是“加速計算”,不是“AI 芯片”,但他比去年三季度的谷歌和亞馬遜 AGI 信念強得多,也看到了更多的需求。


Dwarkesh:等一下,谷歌不是賣了大約一百萬顆 V7(Ironwood)TPU 給 Anthropic 嗎?如果邏輯和內存是最大瓶頸,谷歌又有 DeepMind 這個世界第三大 AI 實驗室,爲什麼不把芯片留給自己,而是賣給 Anthropic?


Dylan:這個問題確實讓 DeepMind 的人很崩潰,“我們爲什麼要這樣做?”但谷歌雲的人和谷歌高管看到的是另一套邏輯。據我們掌握的數據,事情是這樣的:Anthropic 的算力採購團隊核心成員有兩位來自谷歌,他們看到了一個窗口期,快速談判了一筆交易,在谷歌自己反應過來之前就拿到了算力。


具體的時間線是,去年三季度初,我們在大約六週內看到 TPU 的產能出現了顯著增長,而且是多次增加。谷歌甚至不得不向臺積電解釋爲什麼突然需要增加這麼多產能,很大一部分就是因爲要賣給 Anthropic。


然後事情發生了轉折。谷歌推出了 Nano Bono 和 Gemini 3,用戶指標暴漲。谷歌高層突然清醒了過來,開始說“我們必須每六個月把算力翻一倍”之類的話。然後他們去找臺積電說想要更多,但臺積電說:“抱歉,明年的產能已經賣光了。我們可以在 2026 年多給 5% 到 10%,但真正能大幅增加得等到 2027 年。”


從供應鏈數據來看,比如晶圓訂單、數據中心合同、Anthropic 簽約的情況等,在我看來,很明顯谷歌搞砸了。從收入數據也能看出來:谷歌的 Gemini 收入在去年一季度和三季度幾乎爲零,三季度纔開始起量,四季度退出時大約到了 50 億美元 ARR。說明谷歌確實沒預見到收入會暴漲。Anthropic 在收入起飛之前就已經有“承諾恐懼症”了,谷歌當然會更保守,谷歌的 ARR 甚至還不如 Anthropic 高。


不過好消息是,從那以後谷歌已經極度 AGI 化了。它們收購了能源公司,預付了渦輪機定金,購買了大量有電力的土地,跟公用事業公司談長期協議,在數據中心電力方面非常激進。谷歌大約在去年年底才真正醒過來,但確實花了一些時間。


到 2030 年,ASML 將成爲 AI 算力擴展的最大瓶頸


Dwarkesh:過去幾年,每年的瓶頸都在變,前年是 CoWoS 封裝,去年是電力。今年的瓶頸是什麼?五年後呢?


Dylan:今年最大的瓶頸是芯片本身。瓶頸已經從電力和數據中心切換回了半導體供應鏈。在芯片供應鏈內部,有多個瓶頸:內存、臺積電的邏輯晶圓、晶圓廠本身。晶圓廠建設需要兩到三年,而數據中心不到一年,亞馬遜最快八個月就能建一個。差距非常大。


之前的瓶頸,包括 CoWoS 封裝、電力、數據中心,都是相對短交期的東西。CoWoS 是比較簡單的芯片封裝工藝,電力和數據中心雖然複雜但比芯片製造簡單得多。過去一段時間,移動和 PC 芯片的產能在向數據中心滑動,但這種騰挪空間已經用盡了。英偉達現在是臺積電最大的客戶,也是 SK 海力士(最大的內存製造商)最大的客戶。移動和 PC 行業已經沒有更多資源可以轉給 AI 了。


Dwarkesh:基於 EUV 光刻機的產量。有沒有可能算出 2030 年的一個絕對 GW 天花板?


Dylan:完全可以。要進一步擴大算力,今年和明年有不同的瓶頸,但到 2028、2029 年,瓶頸最終會落到供應鏈的最底層——ASML。ASML 製造的是人類有史以來最複雜的機器:EUV(極紫外光刻機),單臺售價 3 到 4 億美元。目前它每年能造大約 70 臺,明年到 80 臺。即使在非常激進的供應鏈擴張假設下,到這個十年末它也只能到 100 臺出頭。


那 EUV 怎麼跟 AI 算力掛鉤?我來算一筆賬。造一個 GW 的英偉達 Rubin 芯片數據中心容量,你需要大約 55,000 片 3 納米晶圓、6,000 片 5 納米晶圓和約 170,000 片 DRAM(內存)晶圓。這三種晶圓各需要不同數量的 EUV 光刻步驟。一片先進的 3 納米邏輯晶圓大約有 70 層光刻,其中 20 層是最關鍵的 EUV 光刻。算下來,55,000 片晶圓乘以 20 次 EUV 曝光,就是 110 萬次 EUV 曝光。加上 5 納米和內存的部分,一個 GW 總共需要大約 200 萬次 EUV 曝光。


一臺 EUV 光刻機大約每小時處理 75 片晶圓,開機率約 90%。算下來,大約需要 3.5 臺 EUV 光刻機才能滿足一個 GW 的需求。


想想這些數字的對比:一個 GW 的數據中心資本支出大約 500 億美元,而支撐它的 3.5 臺 EUV 光刻機成本只有 12 億美元。500 億美元甚至 1,000 億美元的 AI 價值鏈被 12 億美元的光刻設備卡住了,僅僅因爲它的供應鏈無法快速擴張。


Dwarkesh:你前陣子寫過,臺積電過去三年花了 1,000 億美元的資本支出。英偉達只用了其中一小部分的 3 納米產能,就把它變成了每季度 400 億美元的收入,年化 1,600 億。然後再往下游看 ASML,12 億美元的光刻機就能支撐一個 GW。Sam Altman 說他想到 2030 年每週上線一個 GW,這跟 EUV 產能兼容嗎?


Dylan:完全兼容。臺積電和整個生態系統目前已經擁有 250 到 300 臺 EUV 光刻機的存量。再加上今年 70 臺、明年 80 臺,逐步增長到 100 臺,到 2030 年底全球會有大約 700 臺 EUV 光刻機。700 臺除以 3.5 臺/GW,如果全部分配給 AI(當然不可能),就是 200 GW 的 AI 芯片產能。


Sam 想要 52 GW/年。如果全球 AI 用掉 200 GW 的芯片產能,他拿 25% 的份額。考慮到今年他可能就已經獲取了約 25% 的 Blackwell GPU 部署量,這個數字其實是很合理的。


Dwarkesh:我很驚訝的是,ASML 大約從 2020 年纔開始大批量出貨 EUV,到 2030 年人們還在用十年前的機器?


Dylan:工具確實不是原封不動的。ASML 在持續改進光刻機的幾項關鍵指標。第一是晶圓產出速度,一直在提升。第二是一個叫“overlay(套刻精度)”的規格,你做了第一層光刻和一堆沉積、蝕刻步驟之後,做第二層時,兩層圖案必須精確對齊在一起,允許的偏差只有 3 納米量級。這項指標也在快速改善。第三,工具的價格確實漲了,從最初的 1.5 億美元到現在的 4 億美元,但漲幅沒有性能提升幅度大。


順便說一句,ASML 可能是世界上最慷慨的壟斷公司了。它在 EUV 領域沒有任何競爭者,也許中國到本十年末會有一些,但 ASML 從來沒有像英偉達那樣瘋狂提價。它的價格漲幅始終沒超過性能提升幅度,一直在爲客戶提供淨價值。


Dwarkesh:如果 ASML 直接把資本支出翻倍或翻三倍呢?爲什麼我們能如此有信心地預測,五年後它也只能造 100 臺左右?


Dylan:幾個原因。首先,ASML 沒有決定全力擴產。整個半導體供應鏈都沒有。它們經歷過太多週期的繁榮與蕭條。沒有人真正相信每年 200 GW 的 AI 芯片需求或者每年數萬億美元的半導體支出。我們不斷被告知我們的數字太高了,然後當我們的預測被驗證時,他們又說“好吧,但你明年的數字肯定還是太高了”。


其次,一臺 EUV 光刻機有四個核心組件:光源(由位於聖地亞哥的 Cymer 製造)、掩膜臺(在康涅狄格州威爾明頓製造)、晶圓臺和光學系統(在歐洲製造)。每個組件都有極其複雜的供應鏈。


我來描述一下光源是怎麼工作的。它每秒釋放數萬個錫液滴,然後用激光精準地三次擊中每個液滴,第一次命中使錫滴展開,第二次使它擴展成完美的形狀,第三次高功率轟擊使錫滴激發出 13.5 納米的 EUV 光。然後收集光線並導入透鏡組。


透鏡組由蔡司(Carl Zeiss)製造,這是最關鍵的部分。每臺光刻機大約有 18 面透鏡/反射鏡,它們是多層反射鏡,由鉬和釕(如果我沒記錯的話)的完美薄層交替堆疊而成。光線在這些鏡面上精確反射。任何沉積層的缺陷、任何曲率問題都會導致失敗。這個製造過程非常手工化,每年只造幾百到一千面這樣的透鏡。蔡司也沒有試圖大幅擴產,因爲它們也不認爲需要從 60 臺增長到幾百臺。


然後是掩膜臺,這個東西運動時承受 9 個 G 的加速度。因爲光刻過程中,掩膜臺和晶圓臺在反方向高速移動,掃描晶圓上 26×33 毫米的區域,然後停下來移到下一個區域,在幾秒內完成。兩個方向各 9 個 G。


每個組件都是化學、製造工藝、機械工程、光學工程的奇蹟。全部需要大量的計量測試,因爲任何偏差都會導致良率歸零。而且這臺巨大的機器在荷蘭埃因霍溫的工廠組裝好之後,要拆開裝上多架飛機運到客戶現場,再重新組裝測試,這個過程又要好幾個月。


ASML 的供應鏈有超過一萬家供應商。整個系統中,每個物理運動部件的精度都必須小於 1 納米,因爲各個環節的誤差會累加,而層間套刻精度要求在 3 納米量級。你不可能打個響指就擴大產量。


打個比方:美國從 0% 的電力增長轉向 2% 的電力增長,而中國已經在 30% 了,光這一步對美國來說都極其困難。電力供應鏈相對簡單,從業人員可能有十萬人以上。而 ASML 員工數量有限,蔡司做這個的可能不到 1,000 人,每個人都是超級專業化的。你沒法在短時間內培訓出這些人才,也沒法讓整個供應鏈立刻動員起來。


我們難道不能直接利用臺積電的舊晶圓廠嗎?


Dwarkesh:過去幾年,每次有人說“AI 算力被 X 卡住了”,你都能指出替代方案,電網不夠?那就用廠區自備發電、燃氣輪機。半導體供應鏈也能這樣繞過去嗎?如果 EUV 成爲瓶頸,那我們回到 7 納米,用中國正在用的 DUV 多重曝光技術行不行?A100 是 7 納米,到 B100 大約只有 3 倍的 FP16 性能提升,而且其中一部分是架構改進而非製程改進。7 納米有大量存量產能,即使打個 50% 的折扣,不是也能再增加 50 到 100 GW 嗎?


Dylan:理論上有可能走到那一步,但我認爲不太可能。有幾個不太公平的對比需要澄清。


從 A100(312 TFLOPS FP16)到 Blackwell(約 1,000 TFLOPS FP16)到 Rubin(約 5,000 TFLOPS FP16),這些數字看起來只是幾倍的差距,但實際性能差距遠大於此。因爲每代芯片的設計目標不同,A100 針對 FP16 優化,Hopper 針對 FP8,Rubin 針對 FP4 和 FP6。所以單看 FLOPS 不是公平的比較。


更關鍵的是,這些模型不是跑在單顆芯片上的。DeepSeek 的生產部署跑在 160 顆 GPU 上。每次跨越芯片邊界就有效率損失,延遲、功耗、帶寬都受影響。芯片內部的數據傳輸速度是每秒數十到數百 TB,芯片之間降到每秒 TB 量級,跨機架降到每秒數百 Gb。


所以當你比較 Hopper 和 Blackwell 在推理 DeepSeek 和 Kimi K2.5 等模型時的實際性能差距,在 100 tokens/秒的推理場景下,差距大約是 20 倍,不是 FLOPS 數字暗示的 2-3 倍。因爲芯片更大了,每顆芯片的計算密度更高,單芯片內的通信帶寬遠超跨芯片通信,所以很多通信瓶頸被消除了。


這個差距是累加的:每顆芯片的 FLOPS、芯片間網絡速度、單芯片上有多少 FLOPS 相對於系統、單芯片內存帶寬和整個系統的內存帶寬,所有這些因素疊加在一起。


Dwarkesh:今年 B200 已經把兩個 die 做到一顆芯片上了,明年 Rubin Ultra 會是 4 個 die。爲什麼不繼續加?一顆芯片上能放多少個 die 還能保持這種高帶寬?


Dylan:即便在 Blackwell 內部,同一個 package 裏跨 die 通信也有性能損失,雖然比跨 package 小得多。英偉達的方案是 CoWoS 封裝。你可以回過頭看 Tesla 的 Dojo 芯片,它把 25 顆芯片做在一整片晶圓上。它到今天可能仍然是跑卷積神經網絡最好的芯片,只是不擅長 Transformer,因爲內存和算力的形狀不適合。華爲的 Ascend 910 也在做類似的事,從單 die 到雙 die,專注於擴展封裝。


但你在 7 納米上能做的,在 3 納米上也能做。先進封裝是兩個維度都在推進的。


中國半導體規模何時會超越西方?


Dwarkesh:如果到 2030 年西方有最先進的製程但產能沒拉滿,而中國雖然製程落後但瘋狂擴產,而且整條供應鏈都在一個國家內,什麼時候會出現交叉點?


Dylan:到目前爲止,中國仍然沒有完全自主的半導體供應鏈。中國所有的 7 納米和 14 納米產能都用的是 ASML 的 DUV 光刻機,ASML 持續向中國出貨,但所有 EUV 收入都在中國之外。所以規模優勢目前仍在西方加臺灣和日本這邊。


Dwarkesh:到 2030 年,中國會有完全自主的 DUV 和 EUV 嗎?


Dylan:DUV 我覺得肯定會有。EUV 嘛,我認爲他們會有能工作的工具,但不一定能大量生產。就像 ASML 在 2010 年代初就讓 EUV 在實驗室裏工作了,但精度不夠、產量不夠、可靠性不夠,又花了五到七年才進入大規模量產。中國的 DUV 國產化到 2030 年可能達到每年約 100 臺的產量,而 ASML 目前每年出貨數百臺 DUV。


Dwarkesh:我覺得有一個很有意思但討論不夠的問題:如果你認爲 AI 的時間線是“長”的,比如 2035 年才達到某個關鍵能力,那時候中國在半導體上會不會已經超過西方了?舊金山的人在以周爲單位思考,舊金山以外的人根本不在想 AGI。如果 AGI 真的到 2035 年纔來,而它會帶來數十萬億美元的經濟增長,那到時候誰控制半導體就太重要了。


Dylan:這確實是個非常難的問題。時間尺度拉到 2035 年,誤差棒變得巨大。但我的基本判斷是:如果快速起飛,不一定要相信 AGI,只要 AI 收入以當前速度持續增長,那美國和西方正在拉開差距。


看看現在的情況:美國今年大約有接近 1 萬億美元的資本支出投入數據中心。Anthropic 一月新增 40 億收入,二月新增 60 億,而 Claude Code 的可靠性還因爲算力不足而受限,如果去掉這個瓶頸,增速可能更快。這些資本支出的投資回報率極高。美國經濟因此增長加速。


中國目前還沒有做到這一點,沒有建起同等規模的基礎設施,也沒有訓練出同等能力的模型來部署和產生收入。而且 Opus 4.6 和 GPT-5.4 已經明顯拉開了與中國模型的差距。當 AI 實驗室從“賣 token 和推理鏈”轉向“賣自動化白領工作”時,從美國模型蒸餾到中國模型的難度會大幅增加,因爲你買的不再是展示完整推理鏈的 token,而是結果。


如果起飛速度夠快,美國在發散。如果起飛速度慢,中國就有時間建立完全自主的垂直整合供應鏈。快時間線,美國贏;慢時間線,中國贏。


即將到來的巨大內存瓶頸


Dwarkesh:HBM(高帶寬內存)由 DRAM 製造,但每單位晶圓面積的比特數只有普通 DRAM 的三到四分之一。如果未來 AI 應用更多是 agent(智能代理),不需要同步聊天那種極低延遲,能不能用普通 DRAM 代替 HBM?


Dylan:理論上可以。Anthropic 甚至可以推出一個“慢模式”,大幅降低 Opus 4.6 的價格,可能降 4-5 倍,速度降 2 倍。但沒人想用慢模型。即使 agent 任務可以跑幾個小時,如果模型更快的話幾個小時就能變成一個小時。最有價值的任務往往也有時間敏感性。


更根本的問題在於帶寬。一塊 HBM4 芯片堆的帶寬大約是 2.5 TB/s,2,048 bit 寬、10 Giga transfers/秒。同樣的芯片邊緣面積放 DDR5 呢?大約 64 或 128 bit 寬,傳輸速率 6.4-8 GT/s,帶寬只有大約 64-128 GB/s。差一個數量級。而芯片的邊緣面積是有限的,die 的最大尺寸是 26×33 毫米,邊緣放內存和 I/O,內部放計算單元。你受限於帶寬。


推理性能受四個約束:FLOPS、網絡帶寬、內存帶寬和內存容量。如果換成 DDR,你確實得到了 4 倍的比特數/晶圓,但內存帶寬暴跌,所有那些計算單元就只能乾等着,算力被浪費了。


Dwarkesh:那回到宏觀層面,你在 newsletter 裏說 2026 年大型科技公司資本支出的 30% 要花在內存上?


Dylan:對,去掉英偉達的利潤率堆疊之後,大約三分之一的資本支出花在內存上。


內存價格還會繼續漲。這對市場不同部分的影響是不同的。一部 iPhone 有 12 GB 內存,以前每 GB 大約 3-4 美元,所以內存成本大約 50 美元。現在 DDR 漲到了約 12 美元/GB,變成 150 美元,多了 100 美元。蘋果不太會全部自己喫掉這個成本,所以最終消費者可能要爲一部 iPhone 多付大約 250 美元。


但這只是高端市場,蘋果每年只賣兩三億部手機。大頭在中低端市場。之前全球每年賣 14 億部智能手機,現在降到 11 億。我們的預測是今年可能降到 8 億,明年 6 億甚至 5 億。我們在亞洲的分析師追蹤到小米和 OPPO 正在把中低端手機出貨量砍半。因爲低端手機內存佔物料成本的比例更高,利潤更薄,根本喫不下這個成本上漲。


關鍵是,砍掉的主要是低端,每部手機內存量小,釋放出來的內存產能也少。消費端仍然佔全球內存需求的一半以上。釋放出來的 DRAM 會流向 AI 芯片,AI 客戶願意籤更長的合約、付更高的價格。


NAND 閃存也在漲價。但手機和 PC 的 NAND 佔比更高,所以當消費需求被擠壓時,釋放的 NAND 相對更多,DRAM 漲價幅度會大於 NAND。


這大概率會讓普通消費者更加厭惡 AI。你已經能在 PC 論壇和 Twitter 上看到各種表情包了,“就是因爲這些貓咪跳舞視頻(指 AI 訓練),內存價格翻倍了,我買不起新顯卡了”。等內存價格再翻一倍,情況只會更糟。


Dwarkesh:爲什麼不能多造一些內存?


Dylan:限制內存擴產的原因跟限制邏輯芯片擴產的原因驚人地相似。過去三四年,內存廠商根本沒建新晶圓廠。2023 年內存價格很低,廠商在虧錢,所以不建廠。市場慢慢恢復,但直到去年價格才真正起來。我們一年半前就一直在說:推理意味着長上下文,長上下文意味着大 KV Cache,大 KV Cache 意味着需要大量內存,而 AI 加速器成本的一半就是內存。


但從“顯然需要更多內存”到內存價格實際反映這個現實,花了整整一年。價格反映之後,又過了三到六個月內存廠商纔開始建新廠。而新廠建設需要兩年。所以有意義的新產能要到 2027 年底或 2028 年才能上線。


現在的情況是一些非常規操作,美光收購了臺灣一家做落後製程芯片的公司的晶圓廠,SK 海力士和三星也在想各種辦法在現有廠房裏擠出產能。核心問題就是,沒有地方放設備。晶圓廠是人類建造的最複雜的建築,建設需要兩年。


在美國擴展電力供應不會成爲問題


Dwarkesh:聽起來你認爲電力可以幾乎無限擴展?


Dylan:不是無限,但電力不會成爲主要瓶頸。


目前今年我們大約部署 20 GW 的關鍵 IT 容量。需要注意,我說的 GW 是服務器插上電源的實際功耗,但還有傳輸損耗、變換損耗、冷卻功耗等,所以發電端要上浮 20-30%。而且渦輪機不是 100% 運行,PJM(美國最大的電網之一)在模型中假設渦輪機的開機率約 90%,外加 20% 的冗餘容量。所以發電端的銘牌容量始終遠高於實際關鍵 IT 容量。


但電力來源不只是聯合循環燃氣輪機(CCGT)。雖然全球只有三家 CCGT 製造商,GE Vernova、三菱、西門子,但我們追蹤了 16 家不同的天然氣發電設備製造商。還有航改型燃氣輪機,把飛機引擎改成發電機,包括像 Boom Supersonic 這樣的新進入者在跟 Crusoe 合作。


還有中速往復式發動機,康明斯等十幾家廠商。以前柴油發動機主要用在卡車上,現在汽車產量在下降,這些廠商有產能可以轉做數據中心發電。船用發動機也可以,Nebius 在新澤西州就是用船用發動機爲微軟的數據中心發電。Bloom Energy 在做燃料電池,我們對它很看好,已經看好一年半了。還有太陽能加儲能、風電加儲能,成本曲線在持續下降。


還有一個很重要的維度:美國電網的容量是按用電高峯設計的,夏天最熱的那天。但那只是全年平均負荷的 10-15-20%。如果部署足夠多的公用事業級儲能或調峯電廠,可以是燃氣、工業燃氣輪機、電池、任何上述電源,你就能釋放出美國電網 20% 的容量給數據中心。因爲大部分時間那些容量是閒置的,只在每年幾天的幾個小時會達到峯值。美國電網是太瓦級的,20% 就是 200 多 GW。


今天數據中心只佔美國電網的 3-4%,到 2028 年會到 10%。而如果能像我說的這樣釋放電網容量,空間是非常充足的。這些事情不容易,涉及大量的硬件工程和風險,但供應鏈比芯片簡單太多了。


Dwarkesh:即使 CCGT 可能要 1500 美元/千瓦的資本支出,其他技術成本更高也沒關係?


Dylan:可以高到 3,500 美元/千瓦。電力成本翻倍意味着什麼?一顆 Hopper 的部署成本從每小時 1.4 美元變成 1.5 美元。因爲模型的邊際效用提升遠大於那一毛錢的能源成本增加。


我們追蹤的數據顯示,到這個十年末,大約一半的新增數據中心容量會是“behind the meter”(廠區自備發電)。Behind the meter 幾乎總是比電網接入貴,但電網有審批、互聯排隊等各種問題。Behind the meter 的技術路線非常多樣,往復式發動機、船用發動機、航改燃機、CCGT、Bloom Energy 燃料電池、太陽能加儲能,每一種技術單獨都能做到數十 GW,加起來就是數百 GW。


太空 GPU 在這十年內不會實現


Dwarkesh:馬斯克非常看好太空數據中心。如果你說電力在地面不是瓶頸,那太空數據中心的理由是什麼?馬斯克可能會說地面的審批太難了。


Dylan:用地方面,美國很大,數據中心佔地不多。空氣排放許可是個挑戰,但特朗普政府已經降低了門檻,在得克薩斯州可以跳過很多這類繁文縟節。


太空確實能源免費,這是唯一的理由。但即便地面電力成本翻倍,它仍然只佔 GPU 總成本的一小部分。


真正區分各個雲服務商的,除了軟件之外,是它們部署和管理故障的能力。GPU 可靠性很差,Blackwell 大約 15% 部署後需要返修。你已經在地面測試好了,然後要拆掉、裝上火箭、送進太空、再重新上線——這至少多花六個月。而在算力受限的世界裏,前六個月是算力最有價值的時候,因爲現在比未來更稀缺。你延遲了六個月的算力部署。地面上我們看到有的雲服務商部署 GPU 需要六個月,有的快得多。太空不可能更快。


Dwarkesh:那通信怎麼辦?Starlink 衛星之間現在是 100 Gb/s 的激光鏈路,未來可以更高,接近 InfiniBand 的 400 Gb/s。


Dylan:但那是每顆 GPU 的帶寬,不是每個機架。而且還要乘以 72(一個 NVL72 裏的 GPU 數量)。從 Hopper 到 Blackwell 到 Rubin 還分別翻倍。


更關鍵的是,隨着模型變得越來越稀疏(MoE 專家越來越多,領先模型已經有數百甚至上千個專家),你需要在成百上千顆芯片之間做通信。你沒法把衛星做到無限大,所以需要衛星間的互聯。這些空間激光比地面的可插拔光收發器貴得多、可靠性更差,地面的光收發器是百萬級量產的,而且已經很不可靠了,經常需要拔出來擦一擦再插回去。


歸根結底,空間數據中心面臨的是同一個稀缺資源:我們到本十年末每年只能造 200 GW 的芯片。不管放在地面還是太空,都不重要。芯片是最大的瓶頸,所以你要做的是讓芯片在製造完成的那一刻就開始工作產出 token。爲此,地面的人們在做各種事情來加速部署,數據中心模塊化、機架模塊化、甚至在數據中心現場才裝芯片(其他所有東西提前布好線)。這些在太空做不到。


太空數據中心終會有意義的那一天,但不會在這個十年,而是在更遠的未來。當能源真正成爲大瓶頸、當土地和審批更加困難、當芯片不再是瓶頸的時候。馬斯克不靠 20% 的優化贏,他靠的是 10 倍的顛覆,那是 SpaceX 和 Tesla 成功的模式。太空數據中心也許最終能提供 10 倍優勢,但不是在地球資源還沒用完的時候。


爲什麼沒有更多對沖基金進行 AGI 交易?


Dwarkesh:你做 SemiAnalysis 這些數據表格,六個月前預測了內存危機,現在在講清潔室(潔淨室)危機,未來是設備危機。爲什麼只有 Leopold Aschenbrenner(前 OpenAI 超級對齊團隊研究員,對沖基金 Situational Awareness LP 創始人,專注押注 AI 基礎設施供應鏈的公開市場股票。


該基金 2025 年上半年扣費後回報率達 47%,遠超同期標普 500 的 6%;截至 2025 年四季度,其公開持倉規模從創立時的 2.25 億美元增長至約 55 億美元)在用你的數據賺瘋了?其他人在幹什麼?


Dylan:很多人在賺錢,只是方式不同。Leopold 開玩笑說他是唯一一個告訴我“你的數字太低了”的客戶,其他所有人都說我的數字太高了。不管是超級雲廠商還是 AI 實驗室,都說“那家公司不可能有那麼多”,然後我們得費勁用事實說服他們。有時候他們要六個月到一年才接受現實。


我大約 60% 的業務來自產業客戶,AI 實驗室、數據中心公司、超級雲廠商、半導體公司。另外 40% 來自對沖基金。很多基金也在用我們的數據交易。比如內存交易,一年前如果你告訴別人內存價格會翻四倍、智能手機出貨量下降 40%,所有人都會說你瘋了。但有一些人相信了,而且交易了內存股票。Leopold 當然在持倉規模和倉位構建上做得可能比大多數人好,但他絕不是唯一一個。


關鍵在於信念。你得真正相信 AI 會以這種方式爆發,纔會去做這些交易。而 Leopold 可能是所有人中對 AGI 起飛最有信念的。


臺積電會將蘋果踢出 N2 製程名單嗎?


Dwarkesh:如果英偉達、亞馬遜和谷歌都願意爲 N2 產能出高價,臺積電會不會把蘋果踢出去?


Dylan:不會直接踢出去。芯片設計週期很長,超過一年,所以更可能發生的是英偉達等預付產能擴張費用。臺積電不會完全驅逐蘋果,但當蘋果訂了 X 的量時,臺積電可能會說“我們預測你只需要 X-1”,然後只給 X-1。蘋果傳統上總是多訂 10%、然後在年中削減 10%。這個彈性空間蘋果以後可能就沒有了。


今年蘋果仍然佔據 N2 大部分產能,AMD 也在爭取一小部分來早期做 AI 芯片和 CPU——這對 AMD 來說是個很大的賭注,因爲新制程有延遲風險。但隨着時間推移,蘋果佔臺積電收入的比例會越來越小。


到 A16 節點時,第一個客戶已經不是蘋果而是 AI。蘋果不再是臺積電最親密的夥伴了,它的業務沒在增長,而臺積電的資本支出在膨脹。加上內存和封裝成本上漲擠壓蘋果的物料成本,蘋果的出貨量可能會下降,進一步變成一個不那麼重要的客戶。


機器人與地緣風險


Dwarkesh:如果到 2030 年有數百萬臺人形機器人在運行,每臺都需要本地算力,這對半導體有什麼影響?


Dylan:不需要把所有智能都放在機器人裏。更高效的做法是把大部分規劃和高層任務交給雲端更強大的模型來做,高批量推理、更大的模型。雲端給出指令比如“拿起那個杯子”,然後機器人本地的小模型處理具體的力度、重量等實時反饋。每秒或每秒十次從雲端更新指令就夠了。


如果把所有處理都放在設備端,一是更貴(無法做批量推理),二是智能不夠(雲端模型更大更強),三是我們處於半導體短缺的世界,機器人需要先進製程芯片(因爲功耗敏感),你每給一臺機器人裝一顆先進芯片,就少了一顆給 AI 數據中心的。


Dwarkesh:這其實暗示了一個關於未來的有趣事實,智能會高度集中在物理空間上。今天 80 億人的計算是分佈在每個人的腦袋裏的。未來即使有數百萬臺機器人散佈在世界各地,實際的思考和計算仍然在集中式數據中心裏完成。


Dylan:沒錯。我覺得馬斯克也意識到了這一點,所以他跟三星簽了大合同來造機器人芯片,一方面分散地緣風險,另一方面三星的 AI 芯片產能競爭沒臺積電那麼激烈。他同時得到了地緣政治多元化和供應鏈多元化,而且不必跟那些願意付“無限”價格的數據中心買家直接競爭。


參考資料:

1.https://www.youtube.com/watch?v=mDG_Hx3BSUE


運營/排版:何晨龍

Scroll to Top