PCIe 6.0 CXL NVLink UALink Astera Labs CPO UCIe Chiplet

讓算力順暢協同運作 Astera Labs搶占AI高速互連

2025-11-24
2026年高速傳輸新規範將落地,相關技術與產業動態成AI產業推展亮點。高速互連決定AI的規模與效率,系統架構的可延展性,將成為AI產業競爭的新核心。

生成式AI浪潮推升算力需求持續翻倍,從資料中心到超大規模雲端業者,AI加速器叢集的建置持續迅速擴大。過去兩年,晶片運算能力透過半導體製程的協助持續提升,但在GPU、CPU、記憶體與儲存系統之間的資料互連卻成為效能瓶頸。高速互連技術成為AI時代系統架構是否能持續擴張的關鍵。

Astera Labs過去幾年以PCIe重計時器(Retimer)、CXL記憶體擴展控制器等產品切入高速互連領域,而2025年推出的Scorpio AI Fabric Switch,更是以AI叢集為核心需求重新定義互連架構,隨著AI產業對算力的持續追求,其策略已由元件供應商,邁向AI系統級互連解決方案提供者。2026年許多高速傳輸新規範將落地,相關技術與產業動態也將成為AI產業推展的亮點。

算力成長與互連瓶頸交錯

近年GPU迭代速度驚人,但資料傳輸能力卻無法同步提升。整體AI系統效能建立在運算、記憶體與傳輸平衡之上,而過去兩年,傳輸介面發展不若運算能力的提升速度,使得一些模型訓練甚至推論效能無法完全釋放。

然而,2025~2026年將是互連技術急起直追的一年。Astera Labs產品管理副總裁Ahmad Danesh(圖1)表示,PCIe 6.0已開始進入CPU、GPU與伺服器主機板,PCIe 7.0也在制定之中。同時,CXL的記憶體池化架構開始在雲端資料中心試點;而GPU之間的高速互連,不僅有NVIDIA主導的NVLink,也出現由開放陣營推動的UALink。標準不再單一,而是走向多架構並行。

圖1 Astera Labs產品管理副總裁Ahmad Danesh(右)表示,該公司在AI伺服器傳輸介面的角色,是成為架構之間的橋樑與協調者。左為Astera Labs亞太區銷售副總暨台灣區總經理甘博隆

不過,在一台AI伺服器中,CPU可能採用PCIe 6.0,GPU叢集之間採用NVLink或UALink,儲存與網路設備則可能還停留在PCIe 5.0。不同標準、不同速度、不同拓撲必須協同運作,而這正是系統設計的複雜所在。Danesh說,Astera Labs看到客戶面臨的不只是速度不夠,而是速度不一致。因此,該公司在Aries product line中加入Gearbox變速能力,使不同世代、不同速率的設備得以共同運作,避免因升級不一致造成架構瓶頸。這種協調能力,已從過去的可有可無,變成AI系統可擴張性的前提。

Astera Labs亞太區銷售副總暨台灣區總經理甘博隆提到,傳統的交換器(Switch)本來就有Gearbox功能,可以支援不同速度。但如果系統需求很單純,那麼使用一個完整的Switch就顯得過於昂貴且複雜。Astera Labs的Gearbox解決方案,允許兩個不同速率的裝置直接連接,解決AI系統中常見的混速傳輸難題。

NVLink與UALink不是對立

NVIDIA的NVLink與由AMD、Intel、Meta等推動的UALink,究竟是競爭,還是各自攻占不同生態?Danesh說,NVLink不是開放標準,而是NVIDIA內部生態的延伸。NVLink Fusion雖然允許其他晶片與NVIDIA GPU在架構上協作,但規格仍由NVIDIA主導。

相對地,UALink提供一種完全開放且可跨供應商的互連方式,目的在於形成可擴張且不依賴單一GPU供應商的架構。UALink的目標是實現與NVLink同等的低延遲優勢,它結合了Ethernet(200G)、PCIe的優點,以及低延遲記憶體存取。

超大規模資料中心追求的是成本效益(TCO),如果系統需要最大化記憶體一致性與超大叢集效率,可能傾向NVLink;若需要跨供應商的GPU、NPU混合叢集,則會考慮UALink。Danesh認為,Astera Labs在其中的角色,是成為架構之間的橋樑與協調者,而不是選邊站。

AI效能競賽全面展開

當AI模型規模進入兆級參數,成本敏感度比過去更高。產業正在從單純提升FLOPS,轉向提升每瓦效能與每成本效能。資料中心希望在更少電力、更低散熱需求、相同或更小空間內,塞進更多有效運算。這促使高速互連必須重新設計,而不是簡單地疊加頻寬。

Astera Labs的Scorpio Switch即以AI工作負載為中心重新構築資料流與布線方式。Danesh解釋,傳統以乙太網路發展的交換器,在AI訓練場景中效率並不理想;而從AI拓撲重新出發,就能在不提升功耗的情況下,提高資料交換效率。Astera Labs不是把一般交換器改良,而是重新設計一個只為AI而生的交換器,從晶片架構到資料流程都進行了優化,以實現最低的延遲、最高的彈性、最低的功耗。

Astera Labs的TCO觀點涵蓋整個生命週期,研發階段憑藉在電子訊號、管理能力上的優勢,Astera Labs提供客戶所需的工具和軟體,使其需要做更少的發展,迅速運輸,以降低研發費用並加速產品上市。在生產階段,提供的工具與設計能幫助客戶達到最高的良率,降低生產費用。而在營運階段,在資料中心實際運行時,其電子管理和管理工具能確保最高限度的上傳時間(Maximum Uptime),並實現最低的能量消耗,讓客戶買來的硬體能發揮最大價值,進一步降低營運費用。

CPO & UCIe 2026關鍵布局

隨著AI GPU叢集規模急速擴張,銅纜傳輸逐漸接近物理極限。光互連架構的討論度近期持續上升,不過就現階段的概況觀察,Danesh說明,機板內、機箱內的距離仍以電傳輸為主,成本與功耗較優;當GPU叢集擴展至多機架(Rack to Rack),光互連將成為必要。

光傳輸為何勢在必行?Danesh解釋,銅線有其物理限制。PCIe銅纜可以傳輸7~8米。但8米大概只能提供2~3個機架。如果想要連接288個GPU,可能需要四個機架。銅線就不能解決了,所以必須要透過光纖。2026~2027將會是電-光混合互連架構正式成形的一段過渡期,而Astera Labs已在Aries電光轉換與Scorpio架構中,預先布局光互連的對應版本。真正大規模的共同封裝光學CPO商用落地,時間點可能在2028~2029年。

而為了強化AI晶片效能,小晶片(Chiplet)架構預計未來幾年將快速發展,其中,UCIe是晶片內裸晶高效互聯解決方案,並提供了跨供應商互通的可能性,但真正形成規模經濟仍需要時間。Astera Labs已是UCIe生態成員,但未公布具體Chiplet產品時程。當市場成熟、需求明確時,會在正確的時間點進入。Astera Labs的布局是等待量產與需求重疊的時機。

AI高速互連浪潮來襲

從PCIe 6.0、Gearbox混速、NVLink與UALink的開放之爭,到AI專用的Scorpio交換器、TCO最佳化,再到CPO與UCIe的未來布局。如果說GPU決定AI的算力,那麼高速互連就決定AI的規模與效率。系統架構的可延展性,將成為產業競爭的新核心。

Astera Labs希望扮演讓所有算力能夠真正協同運作的角色。過去是做出產品後去找客戶,現在是客戶來問,能做到多少。高速互連技術的競局,正要真正開始。2026年高速傳輸正式進入高速發展時期,儘管AI在高速發展下,已讓市場出現產業過熱的雜音,泡沫化風險被提到的次數越來越頻繁,高速傳輸是否會因此慢下腳步,也是未來這一年觀察的重點。

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!