Max-margin Class Imbalanced Learning with Gaussian Affinity
スポンサーリンク
論文URL
https://arxiv.org/pdf/1901.07711.pdf
2019年1月公開
ポイント
- クラスごとの教師データ数がアンバランスな場合に対応できるAffinity Lossが提案されている。
- 各クラスの特徴量をクラスタリングし、クラス境界のマージンを最大化する
- クラスタのセントロイドと各サンプルの類似度をガウシアンで測っている
- 概念的にはガウシアンカーネルを使ったSVMをイメージすると理解しやすい
- Softmax Lossでは教師データ数の少ないクラスの特徴量空間は適切に分離できないが、Affinity Lossではマージン最大化によりこの問題に対処している。
- Affinity Lossのハイパーパラメータ(σ、λ、m)を問題ごとに調整する必要が有る。
- 論文中には、実験用に用意したImbalanced MNISTでの調整結果のみ記述されており、他の実データセットでどのようなパラメータを使用したか不明。
- 実用上ハイパーパラメータチューニングが問題になりそうで、軽く試すには不向きなLossに思える。
Affinity Loss
- 類似度
]
- : 特徴量ベクトル
- : クラスタのセントロイド 学習パラメタで各クラスm個のセントロイドを使用する。複数のセントロイドを使用することで、特徴量ベクトルの複雑な分布に対応。
- Max margin Loss
- : 他のクラスとサンプルの類似度
- : 真のクラスとサンプルの類似度
- Diversity regularizer (セントロイドを均一に分布させる正則化項) , s.t. j<k]
- Affinity Loss
(a)のSigmoidの結果は教師データ数の少ない0~4の分布領域が小さいのに対し、(c)のAffinity Lossでは均一な分布が得られている。
スポンサーリンク