Go to contents

顔の筋肉の変化や音声の分析で感情をリアルタイムで把握、UNISTが着用型人間感情認識技術を開発

顔の筋肉の変化や音声の分析で感情をリアルタイムで把握、UNISTが着用型人間感情認識技術を開発

Posted January. 30, 2024 08:20,   

Updated January. 30, 2024 08:20

한국어

韓国国内の研究チームが、顔の筋肉の変化と音声などを感知し、リアルタイムで感情を認識できる技術を開発した。蔚山(ウルサン)科学技術院(UNIST)のキム・ジユン新素材工学科研究チームは29日、顔に装着して感情を認識する「着用型人間感情認識技術」を世界で初めて開発したと明らかにした。

研究チームが開発したセンサーは、顔の表情と声を感知する6つのセンサーで構成されている。眉間や目、鼻、唇、あごの付近に位置するセンサーは顔の筋肉変化を、声帯に位置するセンサーは声を分析する。これらの情報は同時に感知・統合され、人工知能(AI)により感情情報に変わる。こうして分析された感情は、仮想現実(VR)の環境に適用され、ユーザーオーダーメード型サービスとして活用できる。状況別に個人の感情を把握し、音楽や映画、本などを推薦するやり方だ。

研究に第1著者として参加したイ・ジンピョ博士研究員は、「今回開発したシステムは、複雑な測定装置なしに数回の学習だけでリアルタイムで感情認識を具現することが可能だ」とし、「今後、携帯型感情認識装置および感情基盤のデジタルプラットフォームサービスの部品に適用される可能性を示した」と話した。

今回の研究は、シンガポールの南洋工科大学の研究チームとの協業で行われ、国際学術誌「ネイチャーコミュニケーションズ」に掲載された。


チョン・ナムヒョク記者 forward@donga.com