BoxNet: Deep Learning Based Biomedical Image Segmentation Using Boxes Only Annotation
スポンサーリンク
論文URL
https://arxiv.org/pdf/1806.00593.pdf
2018年6月公開
ポイント
- Segmentationを弱教師付き学習で行う手法を提案
- 検出対象物体領域の長軸と4点の極点のみをアノテーション
- 教師データ作成時間を10~30%程度に削減し、通常の教師付き学習結果と同等の精度を実現
BoxNetの処理の流れ
教師データ作成
- 初めに検出対象物体領域の長軸を決めるために、領域中心付近の2点を指定(Fig2. の青点)
- 検出対象物体領域の4か所の極点を指定(Fig2. の緑点)
- 上記6点の情報から、傾きを持ったBounding Boxが決定される(Fig2. の赤枠)
Segmentationラベル生成
- 以下のようにラベル付けした教師データ(Fig3.(a))により、Segmentation用モデルを学習し、粗いSegmentation結果を得る(Fig3.(b))
- 候補領域(Fig3.(a)緑領域) アノテーションされたBounding Boxの内部40%の領域およびBoxの中心と4つの極点を結ぶ線
- 背景領域(Fig3.(a)水色領域) Bounding Boxの外部
- 未使用領域(Fig3.(a)グレー領域) Bounding Box内で候補領域外の領域
- Segmentationされた領域をGraph Searchにかけ、検出対象物体領域の形状を補正(Fig3.(e))
- Fig3.(d)の黄色領域が補正された箇所
- Fig3.(c)は比較対象として実施されたDenseCRFの結果
- 以下のようにラベル付けした教師データ(Fig3.(a))により、Segmentation用モデルを学習し、粗いSegmentation結果を得る(Fig3.(b))
Graph Searchの結果得られた検出対象物体領域データを教師データとして、最終的なSegmentation用モデルを学習
Graph Search
- 検出対象物体毎に中心からの放射線上の画素値を抽出(Fig4.(d)(e))
- 抽出した領域をGraph Searchにかけ、物体の境界を決定する(Fig4.(e)の緑線)。その際、アノテーション時に付けた4か所の極点を通ることを制約としている。