愛立信 人工智慧 AI 5G ADI 機器學習 數位預失真 能耗

AI驅動高訊號保真與節能 ML-DPD提升5G基地台能效

2026-01-26
5G技術雖然提升了網路速度和連接性,但其能耗成本卻是前所未有的挑戰,預計到2029年用戶數將達67億。技術人員正探索利用人工智慧(AI)來優化RAN功耗,以應對5G系統在能效方面的壓力。

雖然5G已深刻改變世界,並兌現了高速率、低延遲、高密度連接的承諾,卻也伴隨著一項隱性代價,即不容忽視的能耗成本。根據愛立信(Ericsson)預測,到本十年末,即2029年左右,5G用戶數量將達到67億[1]。儘管5G的資料傳輸效率遠超4G網路,但由於承載的資料量更大,5G的能耗將比前一代行動網路高出4至5倍[2]

此一挑戰的核心在於無線接取網路(Radio Access Network, RAN)的功耗。RAN消耗了絕大部分電力,尤其是在功率放大器(Power Amplifier, PA)環節。為了在能效比、訊號失真、更寬廣的工作頻寬,以及更快速的訊號變化之間取得平衡,RAN開發者對設備的彈性、智慧化程度與即時優化提出了更高要求。簡而言之,RAN設備需要具備更強的適應性。

面對5G系統在適應性與能效方面的新壓力,技術人員將目光投向快速發展的人工智慧(AI),並探索AI可望帶來的新能力。除了備受關注的大語言模型,AI在邊緣端決策(Edge Decision-making)領域也正湧現新的機會,藉由AI的分析優勢,可即時因應各類複雜應用場景。無線通訊領域的技術人員也開始研究如何運用AI來優化RAN功耗,並從中看到了新的突破機會。

對於行動營運業者而言,推動AI融合的舉措可謂恰逢其時。事實上,麥肯錫(McKinsey)的研究發現,能耗對營運業者淨利的影響,是銷售額成長的1.5倍[3]。與此同時,Verizon、T-Mobile、Bharti Airtel等通訊營運業者,均已承諾將在2050年前實現淨零排放的目標。

在5G時代,網路能效問題愈發嚴峻。儘管4G網路的能耗成本已占網路總持有成本(Total Cost of Ownership, TCO)的20%至25%[4],但向5G的轉換將大幅加劇此一壓力。在某些場景下,大規模的5G部署(尤其是在既有2G/3G/4G基礎設施上疊加建設時)可能使能源需求增幅多達140%[2]

5G網路能耗攀升的主要技術成因[5]

大規模MIMO

相較於目前的2×2或4×4MIMO配置,5G大規模多輸入多輸出(Multiple-Input Multiple-Output, MIMO)基地台天線陣列規模更大、性能更強,最大可支援64×64配置(較傳統方案高出16倍),但能耗也顯著增加。例如,一座5G基地台的耗電量是4G基地台的三倍。

基地台密集化

進入5G時代,都會區需藉由新增大型基地台(Marco Cell)與小型基地台(Small Cell)以達成網路密集化,而這將使總能耗進一步提升,對電信商的營運造成壓力。

資料流量大幅成長

結合資料量決定能耗的理念,如圖1所示,不難發現,即便5G在單位位元能效比的表現更卓越,但受行動資料流量高達50%的增加幅度影響,整體網路的功耗仍會隨之攀升。

圖1 儘管5G在單位位元能效比表現優異,整體網路功耗仍會隨行動資料流量增加而顯著上升

5G無線接取網路的能效瓶頸

5G能耗問題的核心在於微妙的權衡,PA在接近滿功率運行時能效最高,但這種運行模式會導致訊號失真,進而引發合規問題並降低性能。為規避此類風險,大多數PA會採用功率回退(Power Back-Off, PBO),以犧牲能效換取訊號線性度。記憶效應則進一步加劇了PA的非線性問題。PA包含一些回應速度較慢的元件,這些元件會記住先前的輸入訊號,使PA的非線性行為隨著先前的訊號歷史而變化。而數位預失真(Digital Pre-Distortion, DPD)技術可解決此類問題。

DPD的工作原理

DPD的工作機制是預先對訊號進行失真處理,且失真方向與PA通常產生的失真方向相反。這類似於裁縫縫製衣物時會預留額外尺寸,因為知道衣物洗滌後會縮水;DPD會在輸出前預先加入與PA失真相反的補償,使兩者在PA中相互抵消,最終達到線性化,以滿足線性度與鄰道功率比(Adjacent Channel Leakage Ratio, ACLR)、頻譜遮罩等合規要求。因此未來的演進方向十分明確,即利用AI實現更智慧的DPD。

目前的DPD解決方案依賴於一種數學模型方法,即基於Volterra的線性化,用於對PA的特性進行建模。在5G寬頻載波與高峰均功率比(Peak-to-Average Power Ratio, PAPR)條件下,Volterra模型複雜度呈指數成長,導致運算與記憶體成本大幅增加,晶片面積和能耗亦隨之增加,最終削弱DPD帶來的能效收益和應用價值。

AI/ML驅動的數位預失真技術

如今,新興技術開始以機器學習(ML)取代傳統DPD所依賴的固定數學模型。工程師無需再手動調整訊號校正演算法,而是能透過以真實波形資料訓練的神經網路,對PA的非線性特性進行動態建模與即時補償。這些模型可使用反向傳播優化,並直接映射到現有硬體架構中。因此,機器學習式數位預失真(ML-DPD)應運而生。

ML-DPD的原理與優勢

ML-DPD帶來數項十分顯著的效益,例如最佳化時間從數天縮短至數小時,大幅減少部署成本;在多種訊號條件下,模型皆能取得最佳線性化表現;能效提升不再僅是理論推估,而是具備實際可量測的結果。最重要的是,此類模型具備自我調整能力,能夠從即時工況中學習,並隨硬體變化或環境因素而自動更新補償參數。

MT-DPD:中期記憶效應處理

儘管目前的DPD技術已具備相當成熟度,但行動通訊的需求仍持續推動其性能極限。為支援更高速率傳輸,PA需在更寬廣的頻寬下運作,導致訊號變化更為迅速。快速變化的輸入訊號可能造成暫態不穩定,使失真程度增加,甚至可能違反美國聯邦傳播委員會(Federal Communications Commission, FCC)的發射限值。

為解決此問題,研究人員提出一種基於神經網路的新型模型,可更準確地理解並預測訊號的動態變化。

透過將此模型與以系統取樣速率運行,且具備高準確度的Volterra-DPD架構結合,即形成中期數位預失真(Mid-Term DPD)技術。此技術專門處理持續時間約100奈秒至10微秒,即屬於中期記憶效應範疇的非線性失真。

初步測試結果顯示,MT-DPD能顯著降低記憶效應引起的失真[7]。未來研究方向可能將聚焦於電荷捕捉效應的改善,這是氮化鎵(Gallium Nitride, GaN)元件的主要性能瓶頸之一。

如今,PA面臨的挑戰已不僅限於靜態失真。隨著5G網路中動態流量大幅增加,長期記憶效應問題愈加嚴重,尤其是基於GaN的高效率PA中,因電荷捕獲造成的失真更為顯著。AI/ML驅動的方法可對這些特性進行建模,將DPD的能力延伸至新領域。階層式神經網路能同時校正並適應由即時非線性、快速變化的瞬態效應和緩慢漂移效應引起的失真。利用這套統一系統,基地台在實際運作場景中可同時達到高訊號保真度與高PA能效[7]

ML-DPD帶來的營運效益

ML-DPD解決了業界的一項實際需求:提升基地台能效。這對行動營運業者而言十分重要,因為他們在5G基礎設施上的投入龐大,而ML-DPD可透過降低能耗來提升成本效益。在保持合規的同時,最大化容量輸出亦是一項重要優勢,如此將讓使用者得以享受高速的行動網路體驗。訊號優化已不再只是工程問題,而是直接影響營運成本;ML-DPD為控制5G能耗提供了一條可行的道路。

(本文作者任職於ADI)

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!