Artificial Intelligence–Based Breast Cancer Nodal Metastasis Detection
スポンサーリンク
論文URL
https://www.archivesofpathology.org/doi/pdf/10.5858/arpa.2018-0147-OA
2018年8月公開
ポイント
- 病理画像(HE染色画像)から乳がんを検出するモデルLYNA(LYmph Node Assistant)をGoogle Brainが作成
- 技術的にはFCN登場前夜にしばしば目にしたパッチベースのクラス分類を採用
- 分類モデルはInception V3
- 性能
- Camelyon16による評価
- AUC = 99%
- 1スライド画像あたり1件の擬陽性を許容した場合、感度91%
- DS2による評価
- AUC = 99.6%
- Camelyon16による評価
LYNA:前処理
- HE染色画像は以下の影響で見た目が大きく変わる。
- 施設固有の影響:組織組織標本の準備、染色方法など
- スライドスキャナーの影響:デジタル化時のホワイトバランスなど
- スライド画像単位でHSV空間での色の統計量がリファレンス画像の統計量と合うよう色調補正
- リファレンス画像の統計量は訓練画像の中央値の統計量(ヒストグラム?)
- 色調補正方法は明記されていないが、ヒストグラム形状を合わせているものと思われる
LYNA:学習フェーズ
- スライド画像から299x299のパッチをランダムに切り出す
- 299x299はInception V3の入力画像サイズ
- パッチ内に腫瘍を含むか否かの2クラス分類を行うようInception V3を学習
- 正常パッチ:腫瘍パッチ=4:1で学習
LYNA:推論フェーズ
- 閾値処理により組織を含むパッチを抽出
- 1スライドあたり100,000パッチ程度抽出される
- 各パッチの腫瘍確率をInception V3で推論
- 各パッチの推論結果を元の位置に並べることで、粗いセグメンテーション結果にする
- 全パッチの最大推論確率を当該スライドの推論確率とみなす