AWS Trainium 3年底問世,供應鏈完整解析

近年AI概念股在市場上星光閃耀,各種與人工智慧相關的公司與題材持續湧現,從晶片、伺服器組裝,到光通訊與冷卻系統,再延伸到PCB、CCL、連接線器等,形成一幅蓬勃發展的產業圖景。而在這股浪潮中,若能鎖定確定性高、落地時程明確的關鍵事件,將更有機會精準掌握成長契機。而ASIC就是已確立的重要趨勢之一。
與通用型GPU相比,ASIC針對特定AI工作負載進行高度優化設計,能在相同能耗下提供更高效能密度,並在長期運行中顯著降低成本。生成式AI與大型語言模型的規模日益龐大,使能源效率、計算密度與部署速度成為資料中心的核心競爭力,這正是ASIC的優勢所在。同時,GPU供應鏈長期緊張、成本高企,也推動了雲端服務商(CSP)加快自研ASIC晶片的腳步,以減少對單一供應商的依賴。
而根據野村證券最新的研究報告指出,隨著谷歌、亞馬遜AWS等科技巨頭打算未來兩年部署自主設計的ASIC晶片來看,市場格局或將發生根本性的轉變。野村表示,目前AI伺服器市場仍由輝達主導,市占率高達8成以上,而採用ASIC架構的AI伺服器市占僅約一成;不過,若從出貨數量來看,今年Google TPU的出貨量估計可達150萬至200萬台,AWS的Trainium 2亦有140萬至150萬台,合計已接近輝達500至600萬台的出貨水準。
換算下來,ASIC伺服器的出貨量已逼近整體AI伺服器的一半。隨著越來越多雲端服務商提前布局並加速部署自家ASIC解決方案,野村預測明年ASIC伺服器的出貨量有望正式超越輝達,改寫AI運算市場的勢力版圖。同時,外資高盛證券也預估,明年ASIC伺服器全球出貨將高達59.1萬台,較今年成長率高達40%,成長力道不容小覷。
由此可見,ASIC正成為AI伺服器市場中與GPU並行的重要架構。進一步來看,四大CSP廠的動作各有節奏,而從時程觀察,明、後年四大CSP廠ASIC晶片開發計畫藍圖已相當明確且快速推進中,接下來將最快上量、大規模部署的就是AWS的Trainium 3,預計於明年第2季推出;Trainium 3 Lite亦規劃在明年第3季發表。
Trainium 3採用的是台積電(2330)的3奈米製程,計算性能比前代Trainium 2提升兩倍、能效提升40%,此外,AWS去年還推出一款名為Ultraserver的新伺服器,是由64顆相互連接的自研晶片組成,並強調內建Trainium 3的UltraServers呈現的效能將是採用Trainium 2裝置的4倍。
根據產業鏈消息,第1批搭載Trainium 3的伺服器將於今年底開始供貨,初期將優先部署於AWS的AI訓練與推論集群中,用於支撐更大規模的生成式AI模型與雲端服務。相較於其他CSP的ASIC專案仍在測試或初期導入階段,Trainium 3的量產時程更為明確,也因此被市場視為明年ASIC放量的關鍵起點。且值得一提的是,相比其他CSP巨頭,AWS對於台灣供應鏈依賴度高,幾乎涵蓋了從ASIC設計、晶圓製造、先進封裝,到伺服器組裝、散熱、連接器與PCB等完整環節。對台灣廠商而言,這將更有機會在後續世代產品的研發與量產中持續分食成長紅利。
因此,隨著Trainium 3即將放量,AWS供應鏈也成為近來市場關注的焦點,包括水冷散熱的奇鋐(3017)、連接線器的貿聯KY(3665)、導軌的川湖(2059)等,PCB族群更是從台光電(2383)、高技(5439)、金像電(2368)領漲後,資金效益開始向外擴散,股價皆走出強勁多頭走勢。
而在AWS這條供應鏈的最上游,負責ASIC客製化設計的,正是世芯KY(3661)。據了解,在Trainium 3項目中,世芯與邁威爾(Marvell)曾在部分模組與設計標案上展開激烈競爭,最終世芯憑藉其在高頻寬記憶體整合、低延遲互連架構以及先進製程驗證上的優勢,成功取得核心設計合作機會。專家指出,世芯優勢在於自有高效能運算IP組合,包括D2D APLink IP與IP子系統集成的搭配服務,技術面則涵蓋完整的中介層與基板設計的2.5D封裝設計流程,同時可以提供小晶片技術平台。
展望未來,外資表示,近期Trainium 3重新設計定案(re-tape out)順利完成,世芯KY也開始向供應鏈下單,顯示量產準備工作正加快中;且據供應鏈透露,世芯KY提高明年先進封裝需求,成長率達25%,顯示ASIC需求暢旺,可望明顯挹注26年營運。法人預估,明年上半年Trainium 3開始放量出貨,全年出貨量可望達80至100萬顆,整體產品生命週期累計出貨量上看180至200萬顆,將為世芯KY帶來40至60億美元的營收貢獻。
此外,市場傳出,AWS第4代產品規劃已出爐,而世芯搶下後段設計,法人預估,最快將於28年中開始量產。相關業者透露,TR4擬以2奈米打造,前段設計由AWS旗下Annapurna晶片開發部門進行,並採用新思科技之224G Serdes IP,而新思與世芯策略合作,雙方共同鞏固AI高速運算晶片領域的競爭力。
當然,AWS之外,市場也對明年其他3家CSP廠將發表的產品抱持期待,包括Google TPU v8p及TPU v7e將於明年第4季推出,Meta的MTIA v2及MTIA v3將分別於明年第1季及第3季發表;微軟今年第4季有M200,至於M280及M400則計畫明年下半年推出。
另外,從資本角度來看,亦可見CSP廠投入ASIC持續加速,像是Google近期宣布將今年資本支出從750億美元上調至850億美元,同時並指引明年資本支出會進一步增加;微軟也宣告,計畫到2026年將AI訓練算力提升5倍,因此明年資本支出預計仍會增加,預估金額將高達1030億美元,儘管年度資本支出增幅減緩,僅成長一成餘,但絕對金額卻創下歷史新高,明年微軟的資本支出金額仍相當驚人。至於亞馬遜與Meta,前者今年預計投入1000億美元,而後者今年總支出將在1140億美元至1180億美元之間;而26年,Meta的AI支出成長率將高於25年的支出增幅。綜上可見雲端服務供應商持續加碼投資AI的信心,也持續為資本市場注入強心劑。