1. m3.com
  2. AI Lab
  3. ニュース
  4. 造影CTの相を臓器・血管特徴より認識し、自動分類―轟・加藤の「医療AI ト...

AI Lab プロジェクト医療×AIの発展にご協力いただける方を募集しています

造影CTの相を臓器・血管特徴より認識し、自動分類―轟・加藤の「医療AI トレンドを追う」(11)

2019年12月3日(火)

アイリス株式会社AIエンジニアの轟佳大氏が、眼科専門医でデジタルハリウッド大学大学院客員教授の加藤浩晃氏と共に、企業や大学における医療AI開発の取り組みを紹介する連載コラムです。取り上げてほしいテーマや質問事項、記事の感想などございましたら、「m3com-editors@m3.com」までメールをお送りください。

» 連載1回目から読む


ななめ読み
- 医用画像処理のトップカンファレンスであるMICCAI(International conference on Medical Image Computing and Computer Assisted Intervention)が10月13-17日に開催された
- MICCAIに採択された論文の中から、今回は筆者が気になった「造影CT画像の相を自動的に認識する研究」を紹介する


今回から複数回企画として、10月13-17日に中国・深センで開催された医用画像処理のトップカンファレンスであるMICCAI(International conference on Medical Image Computing and Computer Assisted Intervention)に採択された論文を紹介したいと思います。

CT画像のコントラストから造影相を自動認識

今回紹介する論文は、米国のイェール大学および中国の平安科技(pingan technology)らの研究グループが発表した「CT Data Curation for Liver Patients: Phase Recognition in Dynamic Contrast-Enhanced CT」です。私が以前、肝臓腫瘍の自動検出に関する研究を行っていた際に「CT画像の相を自動特定するのは少し難しそうだな」と思った事もあったため、今回の成果を受けて嬉しく思い、紹介します。

この研究は、造影CTで撮像できる相(通常相-Non Contrast、動脈相-Arterial、門脈相-Portal Venous、後期相-Delay)を画像の特徴から自動認識するという研究であり、MICCAIのワークショップに採択されました。ちなみにMICCAIでは、ポスター、オーラルそしてワークショップの3種類の採択があります。その中でも、ワークショップは各テーマに沿った研究であり、かつ真新しいものや今後の発展が期待されるものが採択されることが多いという特色をもちます。

造影CTの各相を抽出する際は、通常はPACSに付けられたタグを用いて行う事が多いですが、研究グループは「PACSに付けられたタグは信頼性が低く、正確に抽出ができない」ことを課題として挙げていました。また、「正確に相を抽出することはPACS内に無造作に溜められている医用画像を自動的に抽出する事に繋がる」と推測しました。

これらの解決策として研究グループは、現場で放射線科医らが臓器のコントラストを観察することで相を把握していることを応用し、画像認識による自動抽出手法を初めて提案しました。論文における新規性は、「シンプルな3Dモデルと新規提案した損失関数で高精度な分類を達成」、「画像ベースでの造影CTの分類タスクを初めて行った」というものです。

todoroki3

論文より引用。各相を把握するための臓器・血管の特徴に矢印が付いている

シンプルなモデルで計算効率を向上

研究のフローは以下の通りです。研究グループはまず、PACS内に保存されているCT画像に対して、教師データとしてタグ付け (後ほど行うテキストマイニング手法との比較実験のため) をルールベースにて行いました。また、タグをつけると同時に深層学習モデルに学習をさせるためのラベル付け(NC、ART、PV、Delay、Other)を各画像に対して行いました。今回使用したCT画像はオリジナルデータセットで6997症例(各症例10-30スライス、スライス間隔5mm以下)です。

todoroki5

論文より引用。各画像へのタグ付けのルールの詳細

このたび提案されたモデルではシンプルな3D-SEモデルが使用されています。このSEとは、「Squeeze-and-Excitation module」と呼ばれる構造のブロックを組み込む事を表しています。SEブロックはILSVRC2016(The ImageNet Large Scale Visual Recognition Challenge 2016)にて提案され、優勝した概念でもあります。 SEブロックの効用を簡単に説明すると、分類モデルXにSEブロックを追加するだけで計算量は同じまま、精度を向上させることができるというものです。例えば50層の分類モデルとさらに高精度な100層の分類モデルがあった時に、50層を100層にまで深くしたいとしても、計算量は少なくとも2倍以上となるので、簡単には深くできるものではありません。しかし50層のモデルにSEブロックを導入する事で、50層+SEブロックは計算量が50層の時とほぼ同じで、精度が100層相当にまで向上するのです。

提案されたモデルはとてもシンプルで、2層の3D畳み込み層、1つのSEブロック、そして2層の全結合層の計5層から構成されています。入力はCT画像で、出力は5クラス(NC、ART、PV、Delay、Other)です。また新規提案された損失関数は「Aggregated Cross Entropy(ACE) loss」と呼ばれるもので、簡単にいえばコントラストを持つものを一括りにした状態でロスの計算を行うというものです。そしてコントラストを求める課題のため、最終的にロスを計算する時に用いるground truthはコントラスト有り≌1、コントラスト無し≌0に振り分けられます。その結果、計算するロスはコントラストに関するもののみとなり、これにより計算効率を上げる事にも繋がると解説されていました。

todoroki6

論文より引用。 3DSEモデルの全体像

todoroki7

論文より引用。 Aggregated Cross Entropy lossの全貌

提案モデルは放射線科医と同じ部位に注目

比較実験は、「テキストマイニング、3DSEモデル、3DSE+ACE lossモデルでの比較」および、「従来の分類モデル、3DSE+ACE lossモデルでの比較」が行われました。結果としては3DCE+ACE lossモデルがどの時も最も高精度に分類が可能でした。また、CAM(Class activation mapping)と呼ばれる「深層学習モデルがどこを見て結果を示したのか」を示す検定方法を用いて、3DSE+ACE lossモデルが本当に放射線科医と同じ部位を見ているのかについて調査しました。その結果、3DSE+ACE lossモデルは放射線科医と同じ場所(動脈相の時は動脈、心臓、門脈相の時は門脈、腎臓、後期相の時は腎臓)を見ていることがわかりました。

todoroki8

todoroki9

todoroki10

論文より引用。 各実験の結果画像

この研究では、PACS内の造影CT画像の相を正確に抽出することを目的としています。その結果、従来行われているテキストマイニングよりも、画像ベースの提案手法の方が良い結果が得られ、また放射線科医とほぼ同じ場所を見ていることも確認されました。研究グループによると、今後は別の組織でも同様の分類が行えるように研究を進めていくといいます。

現状、日本においてPACSデータが無造作に溜められる事はあるのだろうか、と読みながら疑念を抱く部分もありましたが、海外ではそういった事例もあるからこそ研究テーマになったのだろうと感じました。また、「平安科技が著者として入っているため、PingAn Healthcareでこの辺りの事業を今後行うのかな?」「溜める部分ではなく抽出する領域で新たな市場ができるのかな?」と思いを馳せていました。

第11回もありがとうございました。今回からはMICCAIで採択された論文から私が関心を持った論文を紹介しました。次回もお楽しみに。

轟佳大

轟佳大

アイリス株式会社 AIエンジニア。1992年生まれ、立命館大学大学院 情報理工学研究科修了。大学・大学院を通して医療AIの研究を行い、大学院在学中にはシンガポール国立情報研究所にて医療AIの研究に従事。最新論文は医工学分野のトップカンファレンスに採択された。研究や仕事の傍ら、医学生や医師、社会人向けに医療AIの講演などを行っており、スライド「AI×医用画像の現状と可能性」(http://ur0.work/SfKm)は1万viewを超える。医療と最新テクノロジーとアイスが好き。

このシリーズの記事