知覚と感受性:感情を習得したAIはあり?なし?

感情認識テクノロジーの仕組み、有用性、プライバシー上の懸念について考察します。

あまり良いことのなかったある日、家に帰るところだと想像してください。途中で店に立ち寄ると、ロボットアシスタントが寄ってこようとしましたが、あなたの不機嫌そうな顔を見て後ずさりし、別の客の対応を始めました。あなたは家に着くと、イライラしながらドアに向かって「開くのが遅い!」、電球に向かって「切れてるぞ!」と当たり散らします。すると、たちまちスマートスピーカーが心地よい音楽を流し始め、コーヒーマシンがカフェモカを入れてくれました。どうですか、いかにもSFっぽい情景ではないですか?

実のところ、感情認識のテクノロジーは、日常生活の多くの場面ですでに導入されつつあります。近い将来には、人間の気分をさまざまな「もの」が察知するようになるかもしれません。たとえば何かの機器だとか、家電や車など、あらゆるものが。この記事では、そのようなテクノロジーがどのような働きをするのか、どれほど有効なのか、そしてどのような危険となり得るのか見ていきます。

人工的なEQ

現存する感情認識システムの大半は、人間が話したり書いたりした言葉だけでなく、表情と声も分析します。たとえば、口角が上がっていれば機嫌が良いと判断するでしょうし、鼻にしわが寄っていれば怒りか不快感を抱いていると判定するでしょう。震えた高い声で早口に話す様子は恐れを示す可能性があり、大声で「乾杯!」と言っている人たちはおそらく楽しい気分だろうと判断できます。

さらに複雑なシステムになると身ぶり手ぶりも分析し、表情や話し方と一緒に周囲の環境までも考慮に入れます(リンク先は英語)。そのようなシステムは、たとえば銃を突きつけられて無理に笑わされている人を、喜んでいるのではない可能性が高いと認識します。

感情認識のシステムは、感情とその外面的な表れとの関連付けを、ラベル付けされた大量のデータから学習するのが一般的です。学習用のデータには、テレビ番組やインタビュー、または実際の人間が実験用に作成した会話の録音や録画が使われる場合もありますし、演劇や映画の映像クリップ、またプロの俳優が演じる会話が使われる場合もあります。

比較的単純なシステムであれば、目的に応じて写真または言語資料を使って学習させることができます。たとえばMicrosoftが実施するプロジェクト(英語)は、人間の感情、性別、おおよその年齢を写真から推測しようという試みです。

感情認識テクノロジーの用途

Gartnerは、2022年までに10個に1個の割合で機器に感情認識テクノロジーが搭載されるようになると予想しています(英語記事)。しかし、現時点ですでにそうしたテクノロジーを活用している組織もあります。どこかのオフィスや銀行、またはレストランに入ったとき、フレンドリーなロボットに遭遇したことはないでしょうか。このようなシステムが有用性を発揮する可能性がある分野を、少しばかり挙げてみましょう。

セキュリティ

感情認識は、家庭内その他での暴力の抑止に役立つ可能性があります。このテーマは多くの科学記事で触れられており、学校その他の機関にそうしたシステムを販売している企業もすでにあります(リンク先はいずれも英語)

人材採用

一部の企業では、感情認識機能を持つAIを人事アシスタントとして導入しています(英語記事)。AIシステムは、最も時間のかかる選考プロセスの初期段階で、応募者のよく使う言葉、イントネーション、表情を評価します。その上で、応募者がその職務に本当に関心を抱いているか、正直に話しているかなどについてのレポートを、採用担当者向けに作成します。

顧客サービス

ドバイの道路交通局が今年、顧客サービスセンターに興味深いシステムを導入しました。人々がサービスセンターの建物に入るときと出たときの表情をAI搭載カメラで比較して、満足度を判断するというものです(英語記事)。算出されたスコアが一定値を下回ったときは、システムがセンターの職員にサービス品質の向上を図るようアドバイスします(プライバシー保護の観点から、訪問者の写真は保存されません)。

特別な配慮を必要とする子供の対人関係支援

自閉症の子どもが周囲の人の感情を読み取るのを支援することを目的としたプロジェクトもあります(英語)。このシステムはGoogle Glassで動作します。子どもが人と接したとき、Google Glassは画像や音を使って、相手の感情を読み取る手がかりを与えます。このツールを使った子どもの方が社会生活に早く順応することを、複数のテスト結果が示唆しています。

感情検知はどれほど有効なのか

感情認識テクノロジーは、まだ完成にはほど遠い段階です。それを端的に示すのは、米国の多くの学校で導入されている攻撃検知システムの例です。このシステムは、恐怖の叫び声よりも咳の方を緊急性が高いと判定することが明らかになりました(英語)。

南カリフォルニア大学の研究チームが実施したテストでは、顔認識テクノロジーも簡単にだませることが判明しました(英語)。研究対象となったのは、表情を特定の感情と自動的に関連付けるシステムですが、たとえば、悪意のある笑みを本当の笑顔と区別できませんでした。

したがって、周囲の状況を考慮に入れる感情認識システムの方が正確です(リンク先は英語)。ただし、そうしたシステムはもっと複雑ですし、数もぐっと少なくなります。

何を見ているかだけでなく、何を使って学習したかも重要です。たとえば、演じられた感情に基づいて学習したシステムは、実際の感情の認識に難を抱える可能性があります。

個人データとしての感情

感情認識テクノロジーの普及によって、また別の重要な問題が提起されています。精度に関係なく、感情認識システムは人間のパーソナルスペースに立ち入るのです。想像してみてください。通りすがりの人が着ている服をいいなと思ったとき、そう思ったのを自覚するよりも早く、そのブランドの服の広告が大量に表示される。あるいは、会議中に納得がいかなくて顔をしかめたら、後で昇進の機会を見送られる。そんなことが起こるかもしれません。

Gartnerによると、米国住民と英国住民の過半数が、自分の感情や気分をAIに読み取られたくないと思っています(英語)。また、感情認識テクノロジーと顔認識テクノロジーを法律で禁じている地域もあります。たとえば米国カリフォルニア州では今年10月、法執行機関の職員が装着式のカメラを使って表情や身ぶり手ぶりを含む生体情報を記録、収集、分析することを禁ずる法律が導入されました(英語)。

この法案の起草者たちは、顔認識テクノロジーを用いることは通行人にパスポートの提示を求めるのに等しいと述べています。また、これは市民の権利の侵害であるとし、駐車料金未払いのような軽微な違反で人々が有罪になりかねないことから、もっと深刻な犯罪の通報に人々が消極的になる可能性があると指摘しています。

人工的無感情

プライバシーの問題は、感情検知テクノロジーの裏をかくことが科学研究の対象になるほど深刻です。たとえば、インペリアル・カレッジ・ロンドンの科学者たちは、人間の声から感情を取り除くプライバシー保護テクノロジーを開発しました(英語)。このテクノロジーの活用によって、感情認識テクノロジーを搭載した音声アシスタントは、会話の内容を理解することはできても、話者の気持ちを読み取ることはできなくなります。

AIに制約を設ければ、ただでさえエラーを起こしやすいAIシステムの共感機能の開発が、いっそう複雑になることは確かです。しかし、マシンが人間の潜在意識をあまりにも深くつつき回るようになった場合に備えて、予防手段を講じるのは良いことです。結局のところ、感情認識テクノロジーが確かに有用である分野があることを思えば、このテクノロジーが廃棄されるとは考えにくいですから。

ヒント