人工知能が会話を指導 MITが「会話の時の感情」がわかるアプリを開発

会話の時に相手の感情がわかるアプリが開発されました。

開発したのはMIT(マサチューセッツ工科大学)のチームです。

アプリは生体情報を記録するバンド(サムスン「Simband」)に内蔵され、このバンドを腕に装着して、会話中の身体データ(皮膚の温度や心拍数、身体の動きなど)と音声データの両方を収集します。

収集されたデータは人工知能によって分析され、会話のどの部分が嬉しい感情で、どの部分が悲しい感情なのかを把握できます。また、感情の変化を5秒感覚でリアルタイムに追跡することもできます。

分析されたデータの正確性は約83%のことです。

このアプリを使えば、相手が会話中どこで嬉しい感情になり、どこで悲しい感情になるのかが客観的にわかります。

その結果を後で見直すことで、その後の会話を改善できます。リアルタイムでも感情の変化を確認できるので、会話中にも会話の改善ができるようになるのかもしれません。

開発したチームは、このアプリがアスペルガーや自閉症の人たちの助けになることを期待しています。

まだ実用段階にはないようですが、今後人工知能が人間に「会話」の指導をする時代がやってくるのかもしれません。

参考記事:MIT built a wearable app to detect emotion in conversation

 

タイトルとURLをコピーしました