AI 邊緣運算 高速互連 Agentic AI ARM NXP Intelligent IoT PCIeR CPO CXL UCIe UALink NVLink Fusion

2026AI產業高速前進 邊緣運算/高速互連雙軸加速

2025-11-24
2026年,高速傳輸與邊緣運算將帶來更多可能性。邊緣運算將在智慧物聯網的多項應用中豐富消費者體驗,AI高速互連包括PCIe、CPO、CXL、UCIe、UALink、NVLink Fusion等,將專注於系統級整合與商品化驗證。

人工智慧(AI)在2025年持續成為高科技業甚至所有產業的重要議題,在高速發展之下,也帶來許多重要變化與進展,持續為未來的世界帶來重要轉變,雲端運算依舊是AI發展的主引擎,然而展望2026年,高速傳輸與邊緣運算(Edge Computing)卻更加欣欣向榮,也帶來更多可能性。

AI 2025年高速發展落地各產業

恩智浦半導體執行副總裁暨技術長Lars Reger(圖1)表示,2025年,AI技術從工具進化為智慧代理,廣泛應用於企業營運、醫療、金融、製造等領域。以下幾項變化相當關鍵:

  • 自主代理型AI(Agentic AI):具備環境適應、決策與協作能力,開始進入物流、客服與金融監管等應用場域。
  • AI模型效能提升:新一代模型在推理、語言理解與多模態處理上表現大幅進步,開啟更複雜任務的可能性。
  • 開源模型崛起:開源AI模型逐漸縮小與專有模型的差距,促進技術民主化。
  • AI與邊緣設備整合:AI不再侷限於雲端,開始部署於終端設備,提升即時性與隱私保護。
圖1 恩智浦半導體執行副總裁暨技術長Lars Reger表示,2025年,AI技術從工具進化為智慧代理,廣泛應用於各領域

另外,Arm物聯網事業部硬體產品管理資深總監Lionel Belnet(圖2)指出,2025年是AI真正成為工作負載得以應用在通用運算上的一年,從雲端到邊緣裝置皆然。當前的挑戰在於如何以值得信賴且高效率的方式擴展AI。

圖2 Arm物聯網事業部硬體產品管理資深總監Lionel Belnet指出,2026年邊緣AI將由更智慧且異質化的運算架構所驅動

2025年是AI從資料中心邁向無所不在的重要轉折點,AI不再侷限於雲端,而是運行於智慧型手機、個人電腦、車用系統與工業終端裝置等各類終端。生成式與多模態AI的蓬勃發展,推動市場對更高效能的運算平台,以及更貼近資料產生處的智慧運算需求。

而隨著AI的規模不斷擴大、部署逐漸貼近取得資料的來源端,雲端與邊緣運算的界線日益模糊。Belnet認為,CPU已成為支撐異質化系統的核心,這些系統可讓AI在各處高效率地運行。CPU具備的靈活性與成熟的軟體生態系,使其成為執行各類AI工作負載的關鍵,不論是傳統推論還是生成式模型。當CPU與GPU或NPU等加速器協同運作時,能在整個系統中智慧地協調運算,達到分散式AI所需的效能、低延遲與能源效率的最佳平衡。

而隨著AI應用的加速普及,產業正面臨一項現實挑戰:運算能力的成長必須在能源可承受的範圍內進行。資料中心每年耗電量約達460兆瓦/時——相當於整個德國的用電量,算力與電力成正比,但無止盡的算力需求終將拖垮供電系統,因此,能效成為接下來的發展重點。

成本/能效/法規挑戰接踵而至

然而AI在高速發展之下也帶來許多挑戰,Reger提到,高效能模型需大量資源,導致部署成本居高不下。許多企業仍使用傳統IT架構,基礎架構出現落差,難以支援AI的動態與分散式需求。另外在法規與倫理風險部分,資料主權、AI偏誤與安全性成為監管焦點,企業需投入更多成本以符合法規。

Belnet則指出,AI工作負載的持續成長正面臨現實世界的能源瓶頸,迫使晶片設計商、大型雲端服務供應商與終端裝置OEM,將「效率」列為設計首要目標。大規模訓練與部署基礎模型如今取決於每瓦效能的提升,而非單純追求極致運算能力。這樣的現實加速了產業向更智慧的系統設計邁進,包括在終端裝置上進行推論運算,以及在各層軟硬體堆疊中導入節能感知的運算。

另外,新興的模型格式與AI框架讓開發者生產力成為產業策略焦點。許多團隊過去耗費過多時間在為特定晶片進行最佳化,而非專注於打造創新體驗。到了2025年,業界開始聚焦於可攜式軟體堆疊,開放、跨平台的工具鏈,可抽象化硬體差異。

2026年解決AI瓶頸為持續發展重點

2026年針對AI現階段的問題,產業界將嘗試解決,並為未來三~五年的產業發展奠定基礎,而在算力與系統架構的演變上可以觀察到,Reger說明,AI模型部署於邊緣節點,減少資料回傳雲端的延遲與頻寬消耗,也就是從雲端集中式轉向分散式架構。此外,透過模型剪枝、量化與知識蒸餾等技術,讓AI模型能在資源受限的設備上運行,有更多AI模型壓縮技術以及TinyML會被廣泛運用。再者,提升資料隱私與模型安全性,支援跨設備協同學習也是重要課題。

關鍵的邊緣運算部分,Belnet解釋,2026年的邊緣AI將由更智慧且異質化的運算架構所驅動,在嚴格的功耗限制下實現更高效能。隨著Armv9邊緣AI平台與Lumex CSS等架構的推進,產業重心正從單純追求運算速度,轉向系統整合效率與可擴展性。

運算與系統架構的演進方向部分,Belnet說,異質化運算組合結合CPU、GPU與NPU,並針對即時任務進行緊密整合與最佳化,以實現更高效能與更低延遲。一致化運算子系統簡化設計複雜度與縮短產品上市時間,讓合作夥伴更快速地打造具備AI能力的邊緣終端。強化本地資料處理,更重視在終端進行推論運算,縮短記憶體與資料傳輸路徑,降低對雲端的依賴,提升反應速度與安全性。

克服頻寬、延遲與功耗瓶頸的關鍵策略主要有四種。在地化記憶體階層設計可減少外部記憶體的資料傳輸流量,提升能源效率與系統整體效能。核心間更緊密的整合有助降低延遲、減少資料傳遞瓶頸,強化即時任務的運算效能。智慧化軟體平台與框架可透過最佳化的電源管理、模型壓縮與跨層排程機制,確保在不同運算層級間實現高能源效率的執行。而在高效率的邊緣AI終端中導入可持續運作的低功耗子系統,例如應用於可穿戴式健康監測裝置,則讓系統能以極低功耗即時偵測並回應環境變化。

邊緣運算應用遍地開花

在應用上,邊緣運算的多樣性將讓2026年的高科技產業更加多采多姿,其中,智慧物聯網(Intelligent IoT)將聚焦於智慧連網產業、先進機器人與更豐富的消費者體驗,這些皆由高效率的、且安全的終端AI所驅動。工業系統正從單純的感測功能,進化至具備在地AI與自主控制能力的智慧架構。像是預測性維護、品質檢測與智慧機器人等應用,現今都需要兼具高效能與可預測即時回應的運算平台。

此外,新一代自主與協作型機器人在2026年將持續受到市場關注,相關廠商也會投入更多研發資源,這些機器人結合AI、感測與邊緣即時控制能力。Belnet指出,像ROBOTIS等廠商便採用Arm架構處理器,打造用於物流、工業自動化與服務領域的AI機器人,遍及工廠、城市與家庭。

AI現已能在智慧家庭與連網終端裝置中的本地運行,提供更快速、更私密且更個人化的使用體驗。從智慧音箱、智慧攝影機到連網家電,Arm的Cortex-A與Cortex-M系列處理器結合專用AI加速器,提供實現always-on智慧所需的可擴展效能與高能源效率。同時,穿戴式裝置如健康監測器與健身追蹤器也能夠進行持續感測並提供個人化洞察。這些技術讓製造商能打造出可學習、可適應、能自然互動的終端裝置,讓使用者享有即時智慧體驗,無須依賴雲端運算即可完成在地AI推論。

AI高速互連2026拚落地

相較於AI算力在NVIDIA與台積電的合作之下,持續推高處理器效能,AI高速互連成為過去幾年發展相對落後的關鍵環節,2025~2026年將是高速互連規格與實體互聯技術急起直追並加速成熟的一年,市場重心於2026年將推向商業化應用。就幾項關鍵技術而言,2025年的進展與2026年可預見的趨勢,可歸納如下。

PCIe站穩Gen6朝Gen7前進

PCIe在2025年繼續往更高頻寬演進,PCI-SIG在2025年持續推進PCIe 7.0的規範工作(草案/早期版本在2025年公開討論),將頻寬再翻倍,目標鎖定資料中心、HPC與大型AI平台;但產業界也同時指出從規範到大規模商品化仍需時間,消費端落地更慢,資料中心與伺服器市場將率先採用。換句話說,2025年是規範與測試加速的一年,2026~2027年將看見更實際的系統驗證與限量商用化。

CXL 3.2商用落地

CXL在2024~2025年持續擴張,CXL 3.2等版本已強化記憶體擴展與安全性,2025年見到越來越多軟體/系統整合驗證案例,供應鏈也在為記憶體池化(Memory Pooling)、加速器與快取一致性做部署準備;進入2026年,CXL預期會在伺服器內記憶體擴充與異構資源共享上扮演更實務的角色,尤其在向量資料庫與大型模型推理場景。

UALink開放拚市場

2025年,UALink(Ultra Accelerator Link)從概念到1.0規範快速成形,定位明確,為大量GPU/加速器的互連提供低延遲、高頻寬且開放的連接選項。與NVLink的私有生態不同,UALink強調開放規格與供應商多元性,目標是讓AI叢集在不被單一廠商綁架的前提下擴展到數百或上千顆加速器。

NVLink Fusion提升開放性

NVIDIA在2025年正式推動NVLink Fusion生態,並公布夥伴名單與半客製化(Semi-custom)路線,讓NVLink從封閉的GPU互聯延伸為可與第三方SoC/ASIC協作的生態。2025年中開始可見廠商加入生態,2026年,NVLink Fusion預期會在需要極低延遲、緊密記憶體一致性與高效GPU/CPU整合的超大型AI範例中出現更多部署範本。

UCIe 3.0 2026發功

UCIe在2025年中完成重要升級並於2025年下半年公布3.0規範草案/正式版。UCIe 3.0的重點是把小晶片(Chiplet)封裝的原始通道速率向上提升,納入48GT/s、64GT/s等級別的規格選項,並加入執行期再校正(Runtime Recalibration)、延伸的Sideband Reach、與更強的管理性功能,這些設計直接回應多晶片模組在功耗、可靠度與多廠IP整合上的痛點。換言之,UCIe 3.0在2026年將成為推動異構Chiplet設計商品化的關鍵基礎。

CPO邁出產業化腳步

矽光子/共同封裝光學(Co-packaged Optics, CPO)方面,2025年大廠與系統廠已把CPO視為下一階段超大規模資料中心互連的必經路徑,並開始在技術路線、光引擎與封裝整合上投入試產與小批量驗證。多家廠商與研究指出,雖然大規模量產可能要到2028年以後才會普及,但2026年將是關鍵的驗證年,矽光子元件、光電引擎與系統整合包括與PCIe/ CXL/專用鏈路的介面會在2026年出現更多互通性測試與早期商業試用。

總體而言,2025年是規範完成+生態啟動的一年,PCIe與UCIe的高階規格成形、CXL生態快速擴張、NVLink由封閉向生態化延伸、而矽光子/CPO則進入系統驗證期。進入2026年,產業重心將從規格談判轉到系統級整合與商品化驗證—UCIe 3.0對Chiplet化SoC的可行性提升、CXL對記憶體/加速器共享的實務價值、NVLink Fusion對極致GPU/CPU整合的吸引力、以及CPO對超大規模互連的長期解法,都將決定下一波AI基礎設施整體效能提升的程度。

AI發展腳步不停歇

展望未來三~五年,各個高速傳輸介面將加速落地。邊緣運算也在持續改善之下,逐步解決過去破碎化的問題,隨著裝置在2026 年能執行更複雜的AI模型,邊緣運算正持續邁向成熟階段,展現出更快的反應速度與更嚴謹的能源管理。Belnet預期模型能力與終端運算效能將持續提升,同時在嚴格的能源與成本限制下達成最佳平衡。

根據市調機構指出,Edge AI市場預估年成長率超過20%,至2026年將達數十億美元規模,亞太地區成為成長最快的區域。儘管部分裝置仍於破碎化的泥淖掙扎,但部分功能技術較單純,如智慧家庭設備,或市場需求度較高,如AI眼鏡等,將迅速解決相關問題,開創下一波AI榮景。

隨著運算日益貼近資料產生處,AI推論已成為各產業的標準配置。從智慧型手機、個人電腦,到工業控制器與嵌入式系統,越來越多邊緣終端裝置能在本地執行複雜模型, 以降低資料傳輸量、減少延遲,並降低對雲端的依賴。

廠商為掌握AI商機也加速平台的更新與迭代,即使是低功耗裝置也需要具備執行數十億參數等級模型的能力,這象徵著生成式與多模態AI正式邁向邊緣端運算的新階段。過去仰賴雲端的AI,如今可在使用端即時、高效率且安全地運行,實現真正的在地智慧體驗。

在開發工具部分,Arm持續透過KleidiAI、開源機器學習函式庫,以及針對TensorFlow Lite與ONNX Runtime等框架最佳化的執行環境,深化對軟體與開發者支援的投資。這些工具協助開發者在不增加功耗的前提下,進一步提升模型效能,加速AI部署於整個邊緣生態系的推進。

Reger認為,AI向邊緣擴展,AI模型將更廣泛部署於感測器、攝影機、醫療設備與工業機器,實現即時分析與決策。專用AI晶片將普及化,如NPU與低功耗AI加速器,已成為邊緣裝置的標準配備,效能可達10TOPS/ W,比傳統CPU/GPU高出六倍以上。

隨著模型壓縮與精簡技術成熟,透過量化、剪枝、知識蒸餾等方式,讓大型模型能在資源受限的裝置上運行,推升邊緣AI應用能力。

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!