富士通發表新AI技術 實現世界第一高精度圖像識別

富士通研究所發表新的人工智慧(AI)技術,透過深度學習可從關節位置識別複雜的人類行爲,併成功實現了世界第一的精度圖像識別

這項行爲識別技術,透過深度學習來識別多個關節串聯的複雜動作,或獲取行爲中相鄰關節位置資訊。較過往未使用鄰近關節資訊的常規技術相比,獲得相當顯著的進步。例如開箱取出物品,手、肘部肩關節隨着手臂彎曲和伸展,這樣多關節相互變化的複雜行爲也能獲得識別。

富士通研究所於日前1月10日至1月15日在線上舉行的第25屆國際模式識別會議(25th International Conference on Pattern Recognition,ICPR 2020)中揭幕這項新AI技術的細節

2021年中,富士通研究所將追加此項新技術至「行爲分析技術Actlyzer」中,期待打造更高精確度且能快速應用的辨識系統。應用於檢查工廠工作程序以及檢測公共環境中的危險行爲,可望大力提升社會安全性

近年來AI技術的進步,已實現深度學習從視頻圖像識別人類行爲。

一般來說,利用AI進行人類行爲識別取決於各骨骼關節位置的時間變化,包括手、肘部及肩關節的識別特徵,然後將這些特徵連接到簡單的運動模式(例如站立或坐下)。常規技術下已能準確掌握每個關節的特性。再加上對完成訓練的AI模型,進一步提供連接相鄰關節的組合特徵,來實現複雜運動的高精度識別。

富士通針對圖形卷積神經網路(Graph Convolutional Networks,GCN)開發了一組新的AI模型,藉由採取透過以人體關節姿勢結構節點作爲基礎,以鄰近關節(作爲節線)所構成的圖來執行圖結構的卷積運算

透過關節的時間序列數據預先訓練此模型可以優化與相鄰關節的連接強度(Weight)並可以獲取用於行爲識別的有效連接關係

這項技術利用骨架數據對行爲識別領域的世界基準進行了評估。在實際數據中,與簡單行爲(如坐、立)相比,準確率和常規技術持平;然而,在諸如開箱或扔擲的複雜行爲辨識上準確率則大大地提升,與常規技術相比提高了7%以上,成功達到世界第一的識別精度。