2023國際超大型積體電路技術研討會(VLSI TSA)4/17~4/20於新竹舉行,並將在實體會後,於4/24~5/23期間提供線上展會平台。VLSI研討會今年邁入第40年,長期以來匯聚國內外專家分享交流,今年邀請Intel、NVIDIA等大廠和研究機構,針對人工智慧(AI)、小晶片(Chiplet)、量子運算等熱門趨勢交流討論,面對ChatGPT生成式AI的話題熱度,分析AI對半導體業的影響及未來方向。
VLSI大會主席、工研院電光所所長張世杰表示,VLSI研討會成立目的之一,便是提供專業人士作為交流平台、談論最新技術,而今年研討會觀察近期趨勢,側重以下四大主題:AI、封裝進展、量子電腦及前瞻架構。針對AI發展,由NVIDIA講者說明AI應用帶來的改變;封裝進展則著眼Chiplet裸晶到裸晶(Die-to-die)之間的介面傳輸速率,並邀請Intel首席工程師分享對小晶片時代的看法。量子運算熱度不減,這次VLSI大會也邀請到曾協助Google推進量子里程碑的教授John Martinis談未來10年量子運算的發展趨勢。
AI時代來臨,張世杰提出本次大會將進一步探討的前瞻架構:記憶體內運算(Computing in Memory, CiM)和仿腦神經運算(Neuromorphic Computing)。張世杰表示,目前計算機的記憶體和運算單元(例如CPU)獨立存在,需要將儲存於記憶體內的資料轉移到運算單元才能進行運算,既耗能又耗時。記憶體內運算(CiM)顧名思義將運算單元和記憶體整合,能夠大幅提升運算能效。這樣的資料處理方式更接近人腦的運作模式,而模仿人腦打造AI運算架構的方式便是「仿腦神經運算」,為AI產業值得探索的方面。
談到在晶片設計流程中ChatGPT將帶來的變革,比如透過ChatGPT撰寫IC程式碼(Code),信驊科技董事長兼總經理林鴻明表示,資安和耗電量是兩項考量重點。ChatGPT潛力十足,Microsoft推出Azure OpenAI讓企業能夠客製化訓練AI,進一步擴展ChatGPT應用場域。不過,企業在將資料喂給AI時,也不免出現對公有雲的資安疑慮。由於AI運算量驚人,私有雲的算力資源難以支撐,使用公有雲提供關服務時,資安等級便成為企業看重的項目。此外,在全球淨零碳排趨勢下,如何降低AI運算的耗電量與碳排放也成為業界關注的重點。
張世杰提到,台灣若想發展自己的大型語言模型(LLM),有四個關鍵面向需要考慮:(1)大型語言模型的基礎,台灣在這部分缺少經驗;(2)資料量,建立大型語言模型需要龐大的資料庫,需要時間累積;(3)訓練方式,儘管具備相應資料量,要達成有效的訓練依舊有其難度;(4)運算資源,前面提到,AI對運算量的需求極高,這也同步提升訓練AI模型的成本。
基於上述四項考量,張世杰認為,台灣若要發展大型語言模型,需要花時間累積專業知識和技巧。他也提出另外一條名為「Open-source」的道路,採用已經有一定基礎的開放原始碼再加上台灣的語言、文化資源,不僅可以加快開發腳步,也能同步替語言模型增加中文資源,不失為建造大型語言模型的選項之一。