成果簡介:
在基于大數(shù)據(jù)的自然交互意圖理解方面,課題搭建了集成體位姿態(tài)、生理、語音通道、視頻等多通道實(shí)時(shí)同步數(shù)據(jù)采集平臺,建立了多種感知信息對應(yīng)的個人行為意圖和情感狀態(tài)數(shù)據(jù)庫。面向康復(fù)訓(xùn)練,針對視頻遮擋情況下蹲坐動作難以識別的情況,構(gòu)建蹲、坐、半蹲動作數(shù)據(jù)集,采用決策級融合算法 D-S 證據(jù)理論融合RBG 視頻的分類結(jié)果與 IMU 和足底壓力傳感器特征級融合后的分類結(jié)果,實(shí)現(xiàn)運(yùn)動意圖識別誤判率的降低。
應(yīng)用領(lǐng)域:
市場前景:
擬轉(zhuǎn)化的方式(或合作模式):
相關(guān)圖片(2-3張):

圖1 人體行為識別系統(tǒng)

圖2 視覺遮擋下的蹲/坐/半蹲識別