根據(jù)外媒的消息,谷歌日前發(fā)布了一項(xiàng)使用眼動(dòng)追蹤相機(jī)追蹤、識(shí)別面部表情的專(zhuān)利。
據(jù)了解,該專(zhuān)利被稱(chēng)為“使用眼動(dòng)跟蹤相機(jī)對(duì)面部表情進(jìn)行分類(lèi)”,其工作原理是使用機(jī)器學(xué)習(xí)算法,結(jié)合眼動(dòng)追蹤傳感器,以分析用戶(hù)臉上的表情。
該專(zhuān)利繼續(xù)描述系統(tǒng)如何允許用戶(hù)通過(guò)虛擬形象在虛擬世界中彼此交互,虛擬形象不僅跟用戶(hù)相似,而且還能夠反映他們的面部表情。
在該專(zhuān)利中我們注意到,由于VR頭顯會(huì)遮擋用戶(hù)的面部,因此當(dāng)用戶(hù)佩戴時(shí),面部表情難以確定。據(jù)說(shuō)機(jī)器學(xué)習(xí)算法能夠被訓(xùn)練以識(shí)別與憤怒,快樂(lè),驚喜等相關(guān)的表達(dá),以及識(shí)別更微妙的表達(dá),例如凸起的眉毛。