東京⼤学未来ビジョン研究センター(旧・東京⼤学政策ビジョン研究センター)、慶應義塾大学メディカルAIセンター、エムスリー株式会社m3.com編集部が2019年1月から開催している「医療×AIセミナーシリーズ」のイベントレポートです。
東京大学政策ビジョン研究センター、慶應義塾大学AIメディカルセンター、エムスリー株式会社m3.com編集部が2019年2月3日に開催した医療×AIセミナーシリーズ第3回「内科とAI」に、株式会社MICIN最高技術責任者として医療データ分析を行いながら、東京大学招聘講師としてディープラーニングの講義を担当し、多くの著作を持つ巣籠悠輔氏が登壇し、機械学習の概略とMICINでの取り組みを紹介した(セミナー概要はこちら)。
巣籠氏はまず「今のAIブームは『人工知能革命』と『情報革命』の二つに分けることができる」と述べた。AIブームは2段階に分かれており、世の中が期待しているのは「人工知能革命」だが、実際にAIブームを受けて進められている大半の取り組みは「情報革命」だという。すなわち、AIブームを受けてデータの整理・活用を推進しようという動きのことだ。機械学習を行うためにはデータは間違いなく必要となる。また、データを整理しようという動きが起こることで様々な業界に影響が及んでいると状況を分析した。
いまのAIブームは、機械学習・深層学習による第3次ブームだと言われている。深層学習も機械学習の一部なので、基本的には機械学習のブームだということになる。機械学習自体は1990年代にはほぼベースができ、その後、大きく発展した。ウェブの登場によって機械学習に用いるデータが入手しやすくなったことが、その後押しをした。
では、機械学習の「学習」とは何だろうか。巣籠氏は「学習とはパターンにわけることだ」と一言でまとめた。世の中は突き詰めれば全てパターンで構成されており、人も無意識にパターンを見つけて認識をしている。よって、機械にどのようにパターン認識をさせるのかが重要だったというわけだ。そのためになぜデータが必要なのかというと、データにはパターンの情報が内在されており、それをもとにパターンを分類するからだ。パターン分類ができるようになれば、同じ基準を用いて未知のデータの予測もできるようになる。巣籠氏は「AIは人間の敵などではなく、人間がやっていることを機械上で再現しようとしているに過ぎない」と述べた。
しかし、機械にパターンを覚えさせるのは難しかった。たとえばイヌ、ネコ、オオカミを機械に見分けさせるために、その違いをリストアップして明文化しようとすると、かなりの難問である。これは機械学習における特徴量設計(feature engineering)の難しさとして知られている。これまでは、何がパターンの特徴なのかを見つけるのは基本的に人間の作業であり、データ分析がうまくいくかどうかは人間の作業にかかっていた。モデル化に人間が介在しなくてはならなかったのがこれまでの人工知能だった。いっぽう深層学習の登場によって、人間の介在が不要になってきた。これが今起きているAIブームの背景にある。
巣籠氏は、機械学習とは要するに関数だと述べた。入力xを与えられたときに出力yを出す関数があったときに、そのあいだの関係(モデル)を見つける、それが機械学習が行っていることである。入力と出力のあいだの関連性がすごく難しいと、単純な関数では表現できない場合もある。機械学習で表せる関係性には限界がある。だが深層学習はその関数の能力が高く、複雑な関数を作り出せる。機械学習以前はなるべく簡単な関係性に落とし込む必要があったが、深層学習は複雑な関数を作り出せる。それによって特徴量設計のプロセスが短縮された。一方、関数が複雑になることで、ブラックボックス化してしまった部分もある。これはある意味、当然だと巣籠氏は述べた。
深層学習によって大きく進歩したのが、画像データと、時系列データの分析だ。画像データの研究は画期的な成果が出た2012年ごろから、時系列データ分析の研究は2014年ごろから活発になってきた。巣籠氏は機械が画像認識を間違えた例を示し、機械が間違えるものは人間も間違えることが多いと紹介した。また、1枚の画像内に写った複数の物体の高精度認識も可能になりつつある。動画内の物体もほぼリアルタイムで検知できるようになった。2015年くらいからは画像生成も活発になりつつある。
時系列データとは、株価や為替、渋滞率、人口動態、健康状態、自然言語や音声など、時間的変化を持ったデータのことだ。自然言語処理は、品詞のタグ付けや単語分割、構文解析などを基礎技術として、機械翻訳などが応用として出てきている。グーグルは2017年に翻訳技術をディープラーニング・ベースの技術に置き換えて、精度を一気に向上させた。画像認識と自然言語処理を組み合わせたアプリケーションも出てきている。また画像への自動キャプション、文書から画像の生成の研究もある。
ディープラーニングと最も相性がよいのは画像認識であり、医療分野でも成果が出ているのは画像認識が中心だ。前述のように、ディープラーニングによって特徴量設計のプロセスが少なくてすむようになった。だがデータを集めるのは大変だ。
グーグルは2016年に眼底画像から糖尿病を予測できると発表しており、スタンフォード大学は2017年に皮膚の腫瘍画像から悪性腫瘍かどうかを判定できると発表した。画像のどこに乳がんが写っているのかを検出するという研究もグーグルが2017年に発表している。
巣籠氏は「逆にいうと、画像以外ではまだまだ成果が出ていないのが現状だ」と述べた。特徴量設計が難しく、データを集めるのも難しいからだ。医師の暗黙知をどう言語化・数値化するかが鍵であり、機械に解釈できるかたちに変換しないといけない。暗黙知、すなわち無意識の知恵をなんとか一回言葉にして、さらにそれを数値にしないと機械には読み込ませることができない。「この2ステップをとるのが必要だ」と述べた。まとめると、画像に関しては結果だけわかればいいが、それ以外の診断に関しては難しいというのが現状である。
株式会社MICINは2015年11月に設立された(旧社名:情報医療)。健康診断の結果や手術動画などの医療情報を解析し、生活習慣と将来かかる病気との関係、熟練の医師の技術や見識など、暗黙知や因果関係をAIで明らかにし、より適切な治療法などをソリューションとして提供することを目指している。
現在、東京女子医大と共同で脳梗塞につながる因子を特定する研究や、国立がん研究センター東病院との大腸がん手術の動画解析に関する共同研究、産後うつの治療に向けた名古屋大との共同研究などを進めている。
また、患者と医師をオンラインでつなぐアプリケーションを提供するオンライン診療サービス「クロン」サービスも行っている。医師はパソコンを、患者はスマートフォンを使って、予約から診察、処方箋の受け取りまでをオンラインで完結できる。
2018年12月には、医療分野で第一号となる「サンドボックス制度(革新的技術・サービスを事業化するために地域限定・期間限定で現行法の規制を一時的に停止する制度)」の認定を取得し、インフルエンザのオンライン受診勧奨サービスを提供することも紹介された。将来は、オンライン診療の分析結果を生かして効果的な予測を行うことも目指している。
また診療だけではなく、病気になる前の対策として、MICINでは東京海上ホールディングスとNTTデータと共同で、従業員の健診データや勤怠データから、休職リスクを予測する技術を開発している。NTTデータの健康管理サービス「ヘルスデータバンク」等を通じて提供してきた産業保健における業務支援および健康診断結果や勤務時間などのデータ分析のノウハウをもとに、企業における従業員の休職リスクを予測する。これにより、企業は従業員の健康リスクを定量的に把握できるようになるという。
国立がん研究センターと進めている大腸がんの内視鏡手術動画の解析においては、将来は手術ロボット開発に活かすことを想定し、内視鏡を入れたときに、いまどのプロセスにいるのか、そのプロセスにおいて、どういう動き方をすれば良い手術結果をもたらせるのかを定量的に評価し機械学習させていこうとしている。現段階では、いまどのプロセスなのかを判断できるようになっている段階だが、今後、良い手術の明文化・定義も目指し、手術の現場に活用されることを目指す予定だという。
森山和道 サイエンスライター
サイエンスライター、科学書の書評屋。1970年生。広島大学理学部地質学科卒。NHKディレクターを経て現職。現在、科学技術分野全般を対象に取材執筆を行う。特に脳科学、ロボティクス、インターフェースデザイン分野。研究者インタビューを得意とする。