東京⼤学未来ビジョン研究センター(旧・東京⼤学政策ビジョン研究センター)、慶應義塾大学メディカルAIセンター、エムスリー株式会社m3.com編集部が2019年1月から開催している「医療×AIセミナーシリーズ」のイベントレポートです。
東京大学政策ビジョン研究センター、慶應義塾大学AIメディカルセンター、エムスリー株式会社m3.com編集部が2019年1月27日に開催した医療×AIセミナーシリーズ第2回「消化器科とAI」に、東京大学大学院医学系研究科内科学専攻博士課程の青木智則氏が登壇し、カプセル内視鏡の人工知能(AI)を使った支援について紹介した(セミナー概要はこちら)。青木氏らは、平澤氏と同じくAIメディカルサービスと共同研究を行っており、ディープラーニングを用いて、カプセル内視鏡画像におけるびらん・潰瘍所見の自動検出法を開発しようとしている。
青木氏は小腸カプセル内視鏡と胃カメラとの違いを、カプセル内視鏡を使っている医師の悩みなどを含めて紹介した。カプセル内視鏡は、被検者が飲み込むだけで検査ができる小型内視鏡だ。メインは小腸用である。シェアが大きいのはMedtronic社の「PillCam SB3」で、サイズは26mm×11mm、重さは3g。高齢者でもつるっと飲めるという。
1秒間に2枚から6枚の画像を自動撮像し、無線送信によって外部のレコーダーに記録する。被検者は身体に8枚のセンサーアレイを付けるので、ざっくりした位置情報はそこで手に入る。レコーダーに録画された画像は最終的にはワークステーションに取り込まれて、臨床医が読影して確認を行う。
小腸カプセル内視鏡は、原因不明の消化管出血において、上部・大腸内視鏡カメラで原因がわからなかった場合に使われることが多い。小腸は3-6mと長く、通常の内視鏡では届かず、患者の苦痛を伴ってしまうためだ。原因がわからなかった場合、小腸を検索する。2000年にこのカプセル内視鏡が発表されたときは画期的だと言われたという。
胃カメラの検査時間は5分から20分程度だが、カプセル内視鏡の場合は小腸の観察時間は4~8時間程度。胃カメラは撮像枚数は1症例あたり多くて100枚程度だが、カプセルの場合は自動撮像なので4万枚から8万枚に及ぶ。胃カメラでは読影はリアルタイムに行うが、カプセルの場合は撮影は自動で行われるので、読影は基本的に検査後にまとめて行うことになる。空気を使って広げてみるための送気機能はない。だが、被検者への体への負荷は小さい。
胃カメラの場合は送気によって広げて見ることができるが、カプセル内視鏡ではそのような機能はないので胃は見られない。だが、十二指腸や小腸はもともと管腔がそれほど大きくないので十分な観察ができる。画像はカプセルの通過速度に合わせて1秒間に2枚から6枚撮影され、双方向の無線通信によってレコーダーに記録される。これを一つの症例あたり、30分から60分かけて読影する。
実際には動画のように連続画像を見ながら読影する。カプセルは腸内を行ったり来たりする。そのときに自動撮影した連続画像を動画形式で見続けることになる。
自動撮像なので、画像が暗かったり、焦点があっていなかったり、残渣や泡も多い。省略したり、水を流して綺麗にしたりすることはできない。一方、じっくり見たいところを重点的に撮影しているわけでもない。具体的には、がんであっても、わずかな枚数しか撮影されていないことがある。つまり、膨大な枚数が撮影される一方で、異常所見が見つけにくいという課題がある。そこで、コンピュータによる異常所見の自動検出システムが期待される。
カプセル内視鏡では様々な所見が映る。小腸は、そもそもあまり病気がないと言われているが、種類は様々で、びらん、潰瘍、血管拡張症、リンパ管拡張、小腸がん、リンパ腫などがある。特に頻度が高いのはびらん、潰瘍、血管拡張症、リンパ管拡張だ。人の目でも認識しやすいものも、認識しにくいものもある。
2014年、色の識別による自動検出という取り組みの発表があった。血管拡張は赤いし、リンパ管拡張は白い。それらを認識して自動検出するというものだったが、びらん・潰瘍の色識別による自動検出は限界があった。びらん・潰瘍の所見のなかにはクローン病や小腸がん、非ステロイド性抗炎症薬による潰瘍などが疑われることがあり、びらん・潰瘍所見の拾い上げは重要である。
このような流れから色以外の特徴量をAIが自分で見出せるディープラーニングの出番がやってきた。青木氏らは、カプセル内視鏡画像におけるびらん・潰瘍所見を自動検出することを目指した。教師画像を使ってモデルを学習させて、別の画像セットで検証を行った。ニューラルネットワークには、領域ベースの特徴抽出が可能で画像の移動や変形に対して頑健なため画像認識に強いCNN(畳み込みニューラルネットワーク)を用いた。具体的にはびらん・潰瘍が見られる5360画像を使って学習させたあと、学習済みCNNに正常か異常か、どのくらいの確率でびらん・潰瘍なのかを自動抽出させた。
CNNの読影速度は速い。1万0440画像を233秒で読影できる。角度の問題でうまく検出できないこともあり、また泡や残渣、正常血管構造をびらんと判断してしまうこともあった。いっぽう確率は少ないが専門医が見落としたびらんをCNNが発見した場合もあった。1万画像のうち3つと少ないがCNNが検出することで人が確認することができたという。感度は90%前後だった。
最後に今後の展望として、感度を上げるために、残渣や泡が多い画像では感度がやや低くなってしまう課題があり、それを克服したいとした。情報量が多すぎると拾えないのだ。そこで今後は検出精度の向上と、血管拡張症や隆起性病変など他の異常所見の検出もできるシステムの開発を目指す。
また大腸カプセル内視鏡への応用も探る。大腸用のカプセルカメラには、まだカプセル内視鏡検査の手法自体に課題があり広く使われていない現状があるが、もし普及してくるのであれば同様の課題があるため、同じようにAIが活用できると考えているという。青木氏は「臨床応用することで臨床医の読影負担や見逃しを減らすことにつながる自動診断システムの第一歩である」と述べ、「AIはカプセル画像読影の強力なサポートとなる。読影医の時間的な負担や精神的負担を軽減できることにつながるし、それがさらにカプセル内視鏡の普及につながると考えている」と語った。カプセル内視鏡画像のアノテーションについては東京大学、広島大学、仙台厚生病院で進めている。
森山和道 サイエンスライター
サイエンスライター、科学書の書評屋。1970年生。広島大学理学部地質学科卒。NHKディレクターを経て現職。現在、科学技術分野全般を対象に取材執筆を行う。特に脳科学、ロボティクス、インターフェースデザイン分野。研究者インタビューを得意とする。