富士通研究所日前發表新的AI技術,透過深度學習可從關節位置識別複雜的人類行為,並成功實現了世界第一的高精度圖像識別。
這項行為識別技術,透過深度學習來識別多個關節串聯的複雜動作,或獲取行為中相鄰關節位置資訊。較過往未使用鄰近關節資訊的常規技術相比,獲得相當顯著的進步。
例如開箱取出物品,手、肘部及肩關節隨著手臂彎曲和伸展,這樣多關節相互變化的複雜行為也能獲得識別。
富士通研究所於1月10日至1月15日在線上舉行的第25屆國際模式識別會議(25th International Conference on Pattern Recognition, ICPR 2020)中揭幕這項新AI技術的細節。
2021年中,富士通研究所將追加此項新技術至「行為分析技術Actlyzer」中,期待打造更高精確度且能快速應用的辨識系統。
應用於檢查工廠的工作程序以及檢測公共環境中的危險行為,可望大力提升社會安全性。
近年來AI技術的進步,已實現深度學習從視頻圖像識別人類行為。一般來說,利用AI進行人類行為識別取決於各骨骼關節位置的時間變化,包括手、肘部及肩關節的識別特徵,然後將這些特徵連接到簡單的運動模式(例如站立或坐下)。常規技術下已能準確掌握每個關節的特性。再加上對完成訓練的AI模型,進一步提供連接相鄰關節的組合特徵,來實現複雜運動的高精度識別。