安提國際(Aetina)為宜鼎國際(Innodisk)集團子公司,首次登場美國超級運算大會Supercomputing 2024(SC24)展示旗下首款創新的NVIDIA MGX邊緣AI伺服器「SuperEdge AEX-2UA1」,以實機展演企業級大型語言模型(LLM),結合最新檢索增強生成(RAG)技術,使大型語言模型能夠從外部來源收集新數據,提升AI推理的效率,生成更加精準智慧的回應。
AEX-2UA1短機身伺服器,搭載最新高效能Intel Xeon 6處理器,支援高達兩張高階NVIDIA雙插槽GPU,緊湊外形中提供強勁AI效能,賦能企業部署私有大型語言模型(Private LLM)、視覺語言模型(VLM)等企業級人工智慧應用。
隨著企業加速大型語言模型的部署,安提提供最新SuperEdge NVIDIA MGX短機身邊緣AI伺服器,也持續開拓多領域的AI產品版圖和應用,從專業邊緣裝置跨足至全方位人工智慧伺服器解決方案,更體現宜鼎集團在AI布局的重要里程碑;透過此產品推出,宜鼎集團將能全面滿足客戶從前端感測器、儲存裝置、AI軟體工具、邊緣運算平台到高效能邊緣AI伺服器的多元需求。
生成式AI技術推動全球企業進行數位轉型,促使企業尋求可靠、緊湊且具有成本效益的邊緣AI伺服器,尤其對於注重資料安全性的產業,例如金融、醫療保健和5G電信等產業,得以處理敏感數據並滿足企業多元人工智慧應用的要求。
為加速企業生成式AI部署,安提AEX-2UA1 NVIDIA MGX短機身邊緣AI伺服器,整合Intel第六代Xeon高效能處理器,支援高達兩張高階NVIDIA雙插槽GPU,搭載NVIDIA NVLinkTM超高速GPU雙向互連技術,在緊湊的短機身尺寸中釋放極致的邊緣運算效能。此外,AEX-2UA1支援先進的網路解決方案,包括NVIDIA BlueField-3 DPU、SuperNIC和NVIDIA ConnectX-7 NICs,實現高效系統通訊和平行處理,串聯成完整的企業級邊緣AI系統。
AEX-2UA1不僅助力企業在本地端部署私有大型語言模型的AI訓練和推理,賦能企業得以利用敏感資料訓練模型,並於符合嚴格法規的前提下安全運用這些模型。其短機身機構設計最佳化空間利用,能靈活部署於短機身機架、標準機架等多種企業數據中心環境。同時,AEX-2UA1採用NVIDIA MGX模組化伺服器架構,為當前及未來的NVIDIA硬體提供最大的相容性與靈活性,確保企業具備更高的未來擴展性。
安提國際於Supercomputing 2024期間,在美國亞特蘭大動態展出SuperEdge AEX-2UA1短機身邊緣AI伺服器,以及多項邊緣AI創新應用。