人工知能が会話を指導?MITが「会話の時の感情」がわかるアプリを開発

会話の時に相手の感情がわかるアプリが開発されたそうです。

How a person tells a story could be interpreted in a multitude of ways — telling your friend about your awesome new car can come across as excitement or a brag...

一般的に、アスぺルガー症候群や自閉症など発達障害の人は、相手の感情を読み取ることが苦手だと言われています。私もその傾向があるのですが、会話の時に相手の言葉をそのまま受け取ってしまい、言葉以外のメッセージ(顔の表情など)に気がつかないことがよくあります。「察する」というのが苦手なのでしょう。それでトラブルになるケースもよくあります。

しかしこのアプリがあれば、誰でも客観的に相手の感情がわかるようになるので、発達障害の人など、感情を読み取るのが苦手な人の大きな助けになる可能性があると思います。

開発したのはMIT(マサチューセッツ工科大学)のチームです。

アプリは生体情報を記録するバンド(サムスン「Simband」)に内蔵され、このバンドを腕に装着して、会話中の身体データ(皮膚の温度や心拍数、身体の動きなど)と音声データの両方を収集します。

収集されたデータは人工知能によって分析され、会話のどの部分が嬉しい感情で、どの部分が悲しい感情なのかを把握できるそうです。また感情の変化を5秒感覚でリアルタイムに追跡することもできるそうです。

分析されたデータの正確性は約83%のことです。

このアプリを使えば、相手が会話中どこで嬉しい感情になり、どこで悲しい感情になるのかが客観的にわかりますよね。そしてその結果を後で見直すことで、その後の会話を改善することも期待できます。またリアルタイムでも感情の変化を確認できるので、会話中にも会話の改善ができるようになるのかもしれません。

このアプリを開発したチームも、アスペルガーや自閉症の人たちの助けになることを期待しているそうです。まだ実用段階にはないようですが、今後人工知能が人間に「会話」の指導をする時代がやってくるのかもしれません。

参考記事:MIT built a wearable app to detect emotion in conversation

スポンサーリンク

シェアする

  • このエントリーをはてなブックマークに追加

フォローする

関連コンテンツ
googleスポンサーリンクと関連コンテンツ
スポンサーリンク