医療系AIエンジニアの技術メモ

ディープラーニング(主に画像系)の技術メモブログです

Transfusion: Understanding Transfer Learning with Applicationsto Medical Imaging

スポンサーリンク


f:id:y_kurashina:20190317225358j:plain
Fig1. ImageNet、Fungus photographs、ChestXray14

論文URL

https://arxiv.org/pdf/1902.07208.pdf

2019年3月公開

ポイント

  • ImageNetによる学習済みモデルを医療画像に転移学習し、その効果を検証
    • Fundus photographs (眼底画像データセット)
      ResNet50を評価
    • ChestXray14 (胸部X線画像データセット)
      DenseNet121を評価
  • 転移学習、ランダムな初期値、初期値の平均と分散を学習済みのモデルのパラメータの平均値と分散としたケースを比較(Fig2)
    • いずれのケースでも最終的な性能に有意差は無い
    • 転移学習を行うと最も収束が早い
    • 学習済みモデルのパラメータの平均と分散に従い、パラメータの初期化を行うだけでもランダムな初期値からスタートするよりも早く収束する
      • 精度が改善するわけではないので、転移学習に対するメリットは無い模様
  • CIFAR-100からCIFAR-10に対して同様の評価をしたところ、上記と同じ結果が得られたことから、医療画像に関わらず、広い分野のデータセットに対し、同様の傾向を得られる可能性が有る。
  • ImageNetでモデルを学習すると低層のフィルタはGaborフィルタ(≒エッジ抽出フィルタ)のようになる。一方、転移学習せずに医療画像でモデルを学習した場合Gaborフィルタは得られず、同等の性能のモデルであっても低層のフィルタが必ずしもエッジ抽出フィルタにならない(入門書で良く言われる説明は必ずしも真では無かったと言うこと)。
    • ただし、最終的な特徴量はいずれのモデルも似たような感じになっている。

f:id:y_kurashina:20190317224444j:plain
Fig2. 眼底画像データセットの学習曲線