音訊應用日趨複雜 手機數位介面浮上檯面

2006-10-16
手機已演變成為多通道、多媒體的智慧型終端裝置,其中的音訊需求也早已不只是基本的雙向語音通訊,更增加了包括數位音樂與立體聲等複雜的音訊應用。為了減少處理器晶片面積,常見作法是將數據轉換和放大器功能從處理器中分離出去,並用數位介面加以連接,常見的介面有I2S、PCM、AC’97、HAD與SSI等。各種數位音訊介面有其不同優點與限制,在使用上應審慎考量手機功能需求,選擇適當的介面。
手機已演變成為多通道、多媒體的智慧型終端裝置,其中的音訊需求也早已不只是基本的雙向語音通訊,更增加了包括數位音樂與立體聲等複雜的音訊應用。為了減少處理器晶片面積,常見作法是將數據轉換和放大器功能從處理器中分離出去,並用數位介面加以連接,常見的介面有I2S、PCM、AC’97、HAD與SSI等。各種數位音訊介面有其不同優點與限制,在使用上應審慎考量手機功能需求,選擇適當的介面。  

蜂巢式手機已經發展成為一種多通道、多媒體智慧型終端機。在此過程中,蜂巢式手機的音訊需求發生了巨大變化,相較於從前基本的雙向語音通訊,目前蜂巢式手機中出現難以置信的眾多音訊應用,這些音訊並且來自手機中不同的類比和數位元件,訊息以類比和多種數位格式提供,然後被送入不同類型的類比和數位輸出元件,本文概述當前使用於蜂巢式手機中的音訊介面與控制介面。  

正如前述,蜂巢式手機中有廣泛的訊號通道可供聲音訊號使用。蜂巢式手機使用的訊號通道可以是類比或數位式,或者兩者兼具,這取決於處理器晶片中是否含有麥克風和耳機所使用的編解碼器和訊號放大器。  

處理器的半導體製程正朝向更小尺寸、更高元件密度,和更低工作電壓發展。在這種小尺寸處理器上,若出現任何類比電路,都將造成效能損失,例如輸出功率(電壓×電流)和訊噪比降低。儘管在這些尺寸更小的製程基礎上建構類比架構,可以提供較高的輸出功率,但是這些架構占用的晶片面積變得越來越大,將導致晶片面積增大、成本效應降低。  

數位音訊介面連接外部元件  

事實上,對於純粹的數位處理功能,這些都是不必要的。因此可將數據轉換和放大器功能從處理器中分離出去,取而代之的作法是採用一個或多個數位介面,來連接外部的數據轉換器和放大器功能,這些功能可以由獨立元件提供,也可以包含在音訊子系統中。以下列出一些知名的數位音訊介面,同時也探討它們在蜂巢式手機中使用時的優缺點。  

I2S介面廣泛用於手機  

晶片間音訊(Inter-IC Sound, I2S)介面是三線二通道匯流排,專為數位音訊設計,提供點對點廣播的數據傳輸協定。例如採用該協定進行從發射器到接收器的傳輸時,無論數據是否被接收器正確接收,接收器都不會回應。  

I2S廣泛用於消費性音訊裝置和蜂巢式手機的數位音訊播放器,例如MP3播放器中。最初的I2S規範須以二進位的補碼形式發送一連串資料,並且先發送最高有效位元(Most Significant Bit, MSB)。發射器總是在字元選擇(Word Select, WS)變化後的一個時脈週期之後,發射下一個字元的MSB。先發送MSB是因為發射器和接收器可能具有不同的字元長度。也就是說,每一通道的MSB具有固定位置,而最低有效位元(Least Significant Bit, LSB)的位置則依照數據字元的長度而定。  

發射器不須知道接收器能夠處理多少位元,如果系統字元長度大於發射器字元長度,該字元的最低有效數據位元將被截掉。如果系統字元長度比發射器字元長度短,字元中的剩餘最低有效數據位元將被設為0。如果送入接收器的數據字元長度大於接收器的字元長度,通道中在WS之後傳送來的位元將被忽略,下一個通道數據將被讀取,且先讀取MSB。另一方面,如果送入接收器的通道數據字元長度小於接收器的字元長度,那麼缺少的位元將內部設定為0。  

I2S的靈活性導致產業中存在多種數位音訊,卻不遵循原始定義的I2S數據格式。一些常見的變種格式包括 16、18、20或24位元數據、向右對齊(新力採用)或向左對齊(飛利浦採用),以及最高或最低有效位元優先。因此,各種元件中的I2 S相容性如何,以及哪種I2S格式能相容各種格式,就成了衍生的問題。  

目前,無論輸入何種數據格式,常用的I2S輸入數位類比轉換器都可識別並進行調整。但是基於多種原因,一些數位類比轉換器製造商並不能支援所有可能的I2S輸入格式變化。相反的,I2S輸出類比數位轉換器不應產生所有可能的數據格式,以免加重負擔。在蜂巢式手機中,不須使音訊頻段上的類比數位轉換器輸出I2S支援的各種數據長度和格式。例如,為何須要輸出24位元的48kHz取樣速率;另外一個問題是︰是否須要在蜂巢式手機中支援所有可能的I2S數據格式。I2S架構型態與優缺點分析如圖1與表1。  

PCM介面常用於未壓縮音訊  

脈衝編碼調變(PCM)格式是用於儲存和傳輸未壓縮數位音訊的最常見數據格式,用二進位的數位取樣值(1與0)代表有或無脈衝。  

高品質數位音訊需要較高的取樣速率和取樣字元長度。帶有未壓縮線性量化的PCM主要用於數位音訊中,音訊工程協會(AES)推薦使用的取樣速率為 48kHz,但是常見的音樂CD使用以44.1kHz的取樣速率錄製的16位元PCM數據。PCM也用於數位錄音帶(DAT),同時也是AIFF和WAV 等數位音訊文件的常用格式。在頻寬更高或專業音訊標準中,則推薦使用96kHz的取樣速率。但是蜂巢式手機中的PCM,主要用於使用4線製的雙向數位語音訊號通道。PCM架構型態與優缺點分析如圖2。  

DPCM只儲存兩個連續取樣差異  

誤差脈衝編碼調變(DPCM)是一種有損失的壓縮格式,它只儲存兩個連續取樣的差異。不管原始文件的分辨率是多少,DPCM只用4位元來儲存差異。使用DPCM時,一個8位元的文件將被壓縮成2=1,而16位元文件將被壓縮成4=1。  

ADPCM可預測後續取樣值  

自適應誤差脈衝編碼調變(ADPCM)與DPCM類似,其差別是用於儲存連續取樣差別的位元數會隨訊號複雜性變化。ADPCM的工作原理是分析一系列取樣,並預測下一個取樣的值,然後儲存計算值和實際值之間的差別。有時一些遊戲軟體會使用SMAF數位音訊格式,這種格式其實是PCM/ADPCM文件。  

A/μ法則壓縮低振幅 取樣精度較高  

A法則(A-law)和μ法則(μ-law)是兩種非常相近的有損PCM壓縮方案。兩種方法都使用對數(而非線性量化)表現精度更高的低振幅取樣(而非高振幅取樣)。典型的語音取樣速率是8kHz。如果採用線性量化,要得到最小值為72dB的訊噪比率,每一取樣需要12或13位元,取樣位元率約為 96kbit/s。如果使用對數量化,可以降低到每一取樣8位元,相應的位元率為64kbit/s。  

另外也可使用高品質的16位元線性量化語音取樣,並降低最少高達3位元的取樣。透過對數編碼表,剩下的13位元可以壓縮成8位元,不會明顯降低語音品質或訊噪比率。對於語音識別和命令,語音編解碼器使用線性量化16位元解析度數據,取樣速率範圍為8kHz到26kHz,如此可把語音音效寬度擴展到 11.7kHz。A法則和μ法是目前廣泛被使用的國際電信聯盟(ITU)標準,美國和日本以μ法則編碼為標準,而在歐洲和其他國家則使用A法則壓縮。 PCM優缺點分析如表2。  

AC’97專為個人電腦開發  

音效解碼器97(AC’97)介面是特別為個人電腦市場所開發的。控制單元功能整合在基頻或應用處理器中。透過5線(包括Reset)、13個時槽、稱為 AC-Link的TDMA雙向介面來傳輸數位音效和控制命令及狀態訊息。三個時槽適用於TAG位元、命令和狀態訊息。其他時槽是GPIO位元預留的。這樣,每一個AC-Link將支援9個數位音效通道。典型的數位音效數據格式是長度為16、18和20位元的線性量化PCM,支援的取樣速率有8.0、11.025、16.0、22.05、32.0、44.1和48kHz。  

AC’97設置一個單獨的2位元ID並在控制單元上使用4個序列資料線,每一個AC-Link最多可以支援4個AC’97相容的編解碼器。典型的個人電腦配置包括一個電訊數據傳輸用數據機編解碼器。控制單元或主編解碼器都可以用作主裝置(Master)。AC’97架構型態與優缺點分析如圖3與表3。  

雙向I2S適用非語音通道數位音效  

為了適應非語音通道數位音效播放和錄製,目前的趨勢是開發一個雙向版I2S(4線)介面。發射器作為主裝置的例子如圖4所示。雙向I2S介面架構型態與優缺點分析如圖4與表4。  

HAD支援多通道數位音效  

高傳真音效(HAD)又名Azalia,主要設計支援個人電腦上的多通道數位音效,原本沒有預期會在手機中使用。列在此的主因是它與AC’97很接近,因此有時也會利用到。高傳真音效控制單元是一種控制I/O周邊的匯流排,透過PCI匯流排連接到系統儲存器上。它包括一個或多個DMA引擎,每一個都可以根據DMA類型設置在HAD裝置和儲存器之間傳輸單端的音效串流。  

數位音效數據和控制訊息在控制單元和HAD裝置、主音效和數據機編解碼器之間進行傳輸。該鏈路分發音效取樣頻率時的主時脈,並且協定支援固定傳輸速率下的各種音效取樣頻率和尺寸。與AC’97同樣的模式支援大多數的編解碼器,例如利用多重的序列資料(SDI)匯流排。HAD架構型態與優缺點分析如圖5與表 5。  

SSI支援4個TDMA通道  

序列同步介面(SSI)是支援高達4個分時多工存取(TDMA)通道的專用4線介面,可以實現音效編解碼器、數據機和主頻率處理器之間的通訊。當按照這種模式使用時,SSI匯流排出於內部網路模式。在此模式下,一個SSI主裝置可以連接一個以上的SSI僕裝置(Slave)。  

SSI匯流排也有其他模式,提供編解碼器、藍芽數據機和主頻率處理器所需的特殊配置。在這些模式下,SSI適用於固定和可變式取樣速率的數位音效 AC’97編解碼器(2通道)或者與一個標準的、具有取樣速率為44.1kHz或48.0kHz的數位音效I2S裝置(2通道)通訊。SSI架構型態與優缺點分析如圖6與表6。  

8位元並列介面常見於硬體音樂合成器  

硬體音樂合成器通常使用一個8位元並列數據路徑,加上晶片選擇、讀、寫、位址和IRQ接腳,如舊式ISA匯流排。新產品利用I2S 為控制通道,提供作為可挑選的數位音效輸入和輸出通道,某些產品也具備獨立的I2S輸出通道。8位元並列介面架構型態與優缺點分析如圖7與表7。  

對於使用數位音效介面的裝置,也需要控制介面匯流排,這裡有一些可供選擇。  

I2S為手機最常用控制匯流排  

I2S匯流排(I2S Bus)是手機中最常用的控制匯流排。I2S是一種多主裝置、多僕裝置2線雙向序列的介面。活動線路、序列數據線(SDA)及序列時脈線(SCL)都是雙向的。連接到I2S匯流排的最大設置量需要滿足線上(400pF)最大允許電容以及127個裝置位址的需求。  

I2S有兩種形式,標準速率為100kbit/s,高速速率則為400kbit/s。根據原始規定,I2S 訊號特徵與5伏特直流電源電壓相關,高、低電平邏輯門檻值是Vcc的函數,而不是固定值。CPU製程使尺寸變小,電源電壓和邏輯電壓水準也下降。具有多種版本的I2S可在低於5伏特直流電源電壓的條件下工作,特別是3.3Vcc,其邏輯門檻值固定在特殊值上,從而能夠與電源電壓低至 1.8Vcc的處理器所發出的數位控制訊號配合。  

SPI適用於可攜式裝置  

序列周邊介面(SPI)適用於可攜式裝置和其他行動平台系統,但比I2S的使用要少很多。SPI是一種4線製同步序列資料協定,為 CPU和其他支援SPI裝置間的中、低頻寬(1Mbit/s)網路連接提供支援。SPI是單主裝置、複合僕裝置匯流排。SPI數據能在8位元模組中,以全多工模式同時發送和接收。每個SPI僕裝置都需要一個晶片選擇訊號。如果匯流排上有10個裝置,則需要10個晶片選擇線路,此外還需要共享時脈和數據線路,以便選擇合適的裝置。晶片選擇訊號通常由處理器上的GPIO埠驅動。  

根據時脈相位(CPHA)和極性(CPOL)的不同,SPI有四種模式,如果時脈相位是零,如CPHA=0,則數據被鎖定在CPOL=0的時脈的上升邊緣處和CPOL=1的時脈的下降邊緣處,如果CPHA=1,極性反轉。CPOL=0表示下降邊緣,CPOL=1表示上升邊緣。四種模式中最常用的是0模式, Microwire介面即是SPI的0模式。  

(本文作者為美國國家半導體音效產品部門技術總監)  

(詳細圖表請見新通訊元件雜誌68期10月號)  

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!