感情認識技術を規制すべきだとする声が高まっている。科学的根拠が薄いままに、採用面接における候補者の評価といった人生に関わる重要な局面で使われるようになっているというのがその理由だ。
面接をする人工知能(AI)のことを耳にしたことがあるかもしれない。ひょっとすると、実際にAIを相手に面接を受けたことがあるかもしれない。「ハイアービュー(HireVue)」をはじめとする企業は、ソフトウェアが面接の映像を分析し、候補者の「雇用適性スコア」を導き出せると主張する。こうしたアルゴリズムは、顔や姿勢などの外見を評価するだけでなく、対象者が粘り強い性格なのか、あるいはチームとして働くことに長けているのかといったことを雇用主に提示する。評価は候補者の将来に大きな影響を及ぼしかねない。米国と韓国ではAIを活用した採用がより一般化しつつあり、キャリアコンサルタントは大卒者や求人者に対し、アルゴリズム相手の面接対策の訓練をするようになっている。こうしたAIテクノロジーは学校にも導入され、裁判所の映像から嘘を検知する研究にも利用されている。
だが、謳い文句の多くは科学的な合意に基づいていない。姿勢や表情の分析から最高の働き手や学生を選別できることを証明した、査読済みの確固たる研究論文は存在しないのだ(その理由の1つは、アルゴリズムの開発企業が自分たちの手法を明かしていないからだ)。その結果、感情認識の分野は過剰な盛り上がりを見せており、2023年までには250億ドル市場になると見られている。感情認識技術に対しては、テクノロジー倫理主義者や活動家から反発が起こっており、予測的量刑や、家主が借主を決めるための住宅アルゴリズムと同様の差別問題を引き起こす恐れが懸念されている。
感情認識技術を巡る過剰な宣伝に対しては、研究者自身も懸念を抱いている。多くの研究者は、微細な表情や音声を分析するなどのさまざまな手法を用いて人間の表現を識別し、解釈するという自分たちの研究が、確たる科学的根拠のない商業目的で取り入れられて利用されていると考えている。研究者らによると、政府による規制がないことは消費者だけでなく、研究者にとっても良くないことだという。
「感情コンピューティング」とも呼ばれる感情認識技術は、まだ誕生したばかりのテクノロジーだ。AI研究者は、人間の行動様式において定量化できるものとそうでないものの線引きをするための試験をしており、感情に関する基礎科学は発展を続けてきた。ただ、現在でも複数の説があり、たとえば感情は別個に区別することができるのか、それとも連続的なものなのかといった問題がある。一方では、同じ表現が文化ごとに異なる意味を持つ場合もある。昨年7月に実施されたメタ研究は、人の顔を見ただけで感情を判断するのは不可能だと結論付けている。この研究は広く報じられており(この記事もその1つだ)、多くの記事の見出しは「感情認識は信用できない」と伝えている。
感情認識の研究者はすでに限界に気づいている。我々が取材をした研究者らは、自らの研究において、何が可能で何が不可能なのかといったことについては慎重に言葉を選んでいた。多くが強調していたのは、感情認識は個人の内的感情や経験を評価できないということだ。感情認識で可能なのは、対象となる個人の感情が他者にどう認識されるのかを推測すること、あるいはより広範囲にわたる特定集団のトレンドを示すこと(たとえばある映画が、平均的に見て別の映画よりもより好意的な反応を引き出すかどうか、といったこと)だけだ。「まともな研究者であれば、顔の動作単位を分析してその人が何を考えているのかを知ることができるなどとは主張しないでしょう」。アウクスブルク大学の感情コンピューティングの専門家であるエリザベス・アンドレ教授はそう話す。
さらに研究者らは、感情認識には単に人の顔を見る以外に、数多くの要素が絡んでくると指摘する。姿勢や歩き方などさまざまな特徴の観察や、生体センサーや音声なども利用したより包括的なデータ収集も関わってくるのだ。
こうした区別はわずかなものだが、重要だ。つまり、個人に内在する能力を評価できるとしているハイアービューなどのアプリケーションは不適格だが、機械を人間にとってより知性的な協力者にしようという目的を掲げたテクノロジーには利用できるということだ(ハイアービューは本誌のコメントの求めには応じなかった)。こうしたテクノロジーを実装した人型ロボットは、あなたが微笑めば微笑み返せるだろう。これは、人間がお互いの交流の仕方をより自然なものにするためにしばしば採るミラーリングと呼ばれる行動だ。ウェアラブル機器は、体のストレスホルモンであるコルチゾールが基準値を超えたことを検知したら、休息を取るよう知らせることができるはずだ。
こうしたアプリケーションには、あなたの内面の思考や感じていることを評価するアルゴリズムは必要ない。そこで求められるのは、コルチゾール量やボディランゲージに対する適切な反応を判断することだけだ。また、これらは科学的に証明されていない雇用アルゴリズムとは異なり、個人の人生を左右するような重要な決断はしない。「コンピューターやコンピューティングシステムを人々の役に立つようにしたいなら、人々がどのように感じているかを感知できるのが良いでしょう」。非営利団体であるデータポップ・アライアンス(DataPop Alliance)のヌリア・オリバー主任データ科学者はいう。
だが、感情認識の研究が利益のために商用利用された場合、多くのニュアンスが失われてしまう。ウェアラブル機器のストレス管理アルゴリズムは、従業員がしっかり働いているかどうか確認したいと考える企業に利用されるかもしれない。プライバシーと倫理の重要性を説く研究者らが立ち上げたアフェクティバ(Affectiva)のような企業にとってさえ、その境界線を定義することは難しい。アフェクティバはハイアービューに同社のテクノロジーを売却したのだ(アフェクティバは特定の企業に関するコメントは控えると回答した)。
昨年12月、AIナウ(AI Now)研究所は「人々の人生に影響を与える重要な決定」における感情認識技術の利用禁止を訴えた。感情認識は職場での採用選考や学校など重大な影響を与えうる場面で利用されているにもかかわらず、AIの他の利用法に比べて規制に関する注目が薄く、利用禁止の声が上がったのはこれが初めてだった。
対象的に、議会ではこの1年以内で3度目となる「顔認識」に関する公聴会が開かれたばかりだ。顔認識技術は、2020年の大統領選挙の争点の1つにもなっている。活動家らは顔認識技術の排斥を訴えており、複数の議員が民間および公的機関における規制の必要性を認めている。感情コンピューティングに関しては特定の運動や活動団体があまり存在せず、規制に関する動きも限定的だ。イリノイ州では採用面接の映像に対するAI利用を規制する州法が1月から施行されており、人権擁護団体は米国連邦取引委員会(FTC)に対してハイアービューの調査を求めている(FTCに調査の意図があるかどうか、声明などは発表されていない)。
多くの研究者は禁止範囲が広すぎると考えているものの、規制の穴が害をもたらすことについては同意している。「食品であれ医薬品であれ、私たちが消費する特定の製品を承認するための明確なプロセスが存在します。それゆえに私たちはそれらを安心して摂取でき、謳われているとおりの効果を実際に享受できるのです」とオリバー主任データ科学者は語る。「テクノロジーにはそれと同じプロセスが存在しません」。オリバー主任データ科学者は、人々の生活に大きな影響を与える可能性のあるテクノロジーを扱う企業は、そのテクノロジーが特定の安全基準を満たしていることを証明すべきだと考えている。
アフェクティバおよび感情コンピューティングのスタートアップ企業であるエンパティカ(Empatica)の共同創業者でもある、MITメディアラボのロザリンド・ピカード教授もこの意見に同意する。同教授は既存の規制モデルとして、嘘発見器の使用を制限する従業員ポリグラフ保護法を挙げ、嘘発見器は実質的に感情コンピューティング技術だと話す。この法律は大半の民間企業の雇用主による嘘発見器の使用を禁じるもので、雇用主が嘘発見器テストの結果を尋ねることも認めていない。
ピカード教授は、感情認識技術は一律に対象者の許可を得なければ使用できない形にし、企業は自社のテクノロジーがどのようにテストされ、その限界はどこにあるのかを公開することを義務付けられるようにすべきだと提案する。「現在は、買い手がしっかりとした教育を受けていないため、こうした企業がとんでもない虚偽の主張を行なうことが認められています。私たちは買い手にしっかりとした教育など求めるべきではありません」。ピカード教授は2013年にアフェクティバを離れたと述べており、ハイアービューの主張も支持していないという。
ニューヨーク大学の調査研究員で、AIナウの共同所長を務めるメレディス・ウィテカーは、研究と商用化の違いを強調する。「私たちは感情コンピューティングという分野全体を批判しているわけではありません。感情認識技術が規制もされず、正当性も担保されず、科学的根拠もない形で商用利用されていることを批判しているのです。このテクノロジーは人々がリソースにアクセスする際の権利を決定しているため、商用化は人々に害を与えている可能性があるのです」。
採用選考などにおける感情認識テクノロジーの使用を禁止することで、商用化が科学に先走ってしまうことに歯止めをかけられるだろう。まずはテクノロジーの導入を止め、それから研究に投資すべきだとウィテカー共同所長は話す。研究によってこのテクノロジーが企業の主張通りに機能することが確認されてから、規制の見直しを考えればいいのだ。
だが人々の安全を確保するには、他の規制も必要だ。科学的な裏付けだけでなく、究極的には他にも考えるべきことがあるとウィテカー共同所長は語る。「こういったシステムが繊細さを要求される場面で利用された場合には、公平に利用されるよう努め、結果に異議申し立てができるようにすべきです。さらに、このテクノロジーを利用する側と、テクノロジーの利用対象となる人々との力関係の非対称性をより強めてしまわないようにすることも必要です」。
転載元の記事はこちら
This article is provided by MIT TECHNOLOGY REVIEW Japan
Copyright ©2020, MIT TECHNOLOGY REVIEW Japan. All rights reserved.
MIT Technology Review