カリフォルニア大学サンディエゴ校クアルコム研究所は、スマートフォンなどに搭載されているAIアシスタントが、依存症患者の支援につながるかどうかをまとめた。ほとんどの場合において、依存症治療に向けた適切な応答ができなかった一方で、今後の開発によっては克服の支援に応用できることを強調した。この研究成果は1月29日、『npj Digital Medicine』に「Responses to addiction help-seeking from Alexa, Siri, Google Assistant, Cortana, and Bixby intelligent virtual assistants」として公開された。
AIアシスタントとは、ユーザーが音声を使用してスマートデバイスとやり取りする機能であり、AlexaやSiri、Google Assistantが代表的である。米国では、成人の半数(46%)がAIアシスタントを使用しており、多くの企業も注目、投資している。一方で,これらの技術を活用した研究はほとんどない。そこで研究チームは、アルコールやたばこ、マリファナ、オピオイドなどの依存症患者からの音声ヘルプ(例:麻薬をやめるのを手伝ってほしい)に対して、AIアシスタントが依存症の克服や実質的なサポートを適切に提供できるかを調査した。
実験の結果、Google Assistantなど一部のAIアシスタントでは、「たばこをやめたい」という音声ヘルプに対して、「Dr. QuitNow(モバイル禁煙アプリ)」に誘導でき、適切なサポートを提供できた。一方で、マリファナ依存症の克服に関する音声ヘルプに対して、地元のマリファナの小売店の場所を返答するなど、不適切な応答を示すAIアシスタント(Siriなど)もあった。このことから、AIアシスタントは有益どころか、むしろ有害な場合もあることが判明した。また、多くのケースでは「わかりません」といった言葉や単語の定義を返答し、支援には至らなかった。
今後、AIアシスタントが改善されれば、依存症患者に対して有意義な支援を提供するきっかけを与えられる可能性がある。例えば、音声ヘルプをもとに米国連邦政府がスポンサーを務める無料のヘルプラインなどに誘導できれば、依存症克服を促進できると考えられる。しかし、AIアシスタントを開発する企業が、法的措置や公共の反発などを懸念し、特定のサービスへの誘導を避けてしまう可能性もある。適切にユーザーを誘導できる企業に対して、潜在的な訴訟を規制する処置をとったり、開発の補助を行ったりすることで、AIアシスタントが既存の情報検索エンジンに取って代わり、何百万人ものユーザーに利益をもたらすことが期待される。
小野賢児
2019年度立命館大学大学院情報理工学研究科修了。在学中は、深層学習を用いた医用画像の解析、研究に従事。医師と共同研究を行っていた。コンピュータビジョン×医用画像に興味があり、医療AIの研究開発に取り組んでいる。2020年度より、電気機器メーカーに勤務。関心領域は、データサイエンス、ヘルスケア。在学中に、シアトル(アメリカ)、大連(中国)、ハイデラバード(インド)へのIT留学経験有り。好きな言語はPython。好きな飲み物は牛乳。