NVIDIA推出新版本的預先訓練模型及遷移學習工具套件TLT3.0,這是以NVIDIA的TAO(Train, Adapt and Optimize)平台引導工作流程以打造人工智慧(AI)的核心要素。此版本包含用於電腦視覺及對話式AI領域的多種高精度且高效的預先訓練模型及生產力功能,能以十倍速度開發AI。
對於試圖使用開源碼模型進行訓練,以開發AI產品的工程和研究團隊來說,想要在生產環境中部署客製化、高精度、高效能AI模型的開發歷程,可能是件變化莫測的事。NVIDIA提供預先訓練模型和TLT,減少資料收集與標註的成本,還能免除從零開始訓練AI或機器學習模型的工作,無需龐大的AI開發團隊也能部署生產級AI。
新版本亮點為支援邊緣即時推論的姿勢預測模型,推論效能比OpenPose模型快九倍,可用於人員偵測的語義分割網路(PeopleSemSegNet)及多種產業應用案例的電腦視覺預先訓練模型,像是車牌偵測和辨識、心率監測、情緒辨識、人臉特徵點等。此外,亦包括可在多種特定領域及開源碼資料集上進行訓練的語音辨識模型CitriNet、用於問答的全新Megatron Uncased模型及多種支援語音轉文字、命名實體辨識(Named-entity Recognition)、標點符號及文字分類的預先訓練模型,可在AWS、Google Cloud Platform和Azure上進行訓練。
TLT3.0還與多個合作夥伴的平台進行整合,這些合作夥伴提供大量的標記資料,以便執行端到端的AI及機器學習工作流程。現在已能使用這些服務生成和標註資料、與TLT整合,以進行模型訓練和最佳化,並使用DeepStream SDK或Jarvis來部署模型,建立電腦視覺和對話式AI應用程式。