Generative Adversarial Minority Oversampling
スポンサーリンク
論文URL
https://arxiv.org/pdf/1903.09730.pdf
2019年4月公開
ポイント
- conditional GANによりデータ数が少ないクラスの水増しを行うGAMO(Generative Adversarial Minority Oversampling)を提案
- Discriminatorだけでなく、クラス分類モデルも騙せるデータをGeneratorで生成する
- Discriminatorとモデルの両方を騙すためには、クラス分類境界付近のデータを生成することになるため、モデルの本質的な性能向上に資すると期待できる
- GAMOはクラス分類に特化した構成となっている(Fig1)
- 物体検出やセグメンテーションにも、このアイデアを応用できるのではないかと思われるが、それほど自明に拡張できるわけではない。
GAMO (Fig1)
- 各クラスの新たなデータはIGU(Instance Generation Unit)で生成される
- IGUでは実データをcTMU(conditional Transient Mapping Unit)が生成する重みで凸結合する
- 実データの凸結合とすることにより、真のクラス分布では有り得ないサンプルが生成されることを抑制できる
- IGUでは実データをcTMU(conditional Transient Mapping Unit)が生成する重みで凸結合する
- cTMU(conditional Transient Mapping Unit)はクラスラベルとノイズから上記重みを生成する
- 損失関数はCross Entropy LossではなくLeast Square Lossとする方が性能が高い
- Fig1左上のImage Feature Extractionが出力する特徴量は、何らかのモデルで抽出した特徴量でも画像を単に一次元ベクトル化したものでも、どちらでも良い
- クラス分類モデル、cTMU、IGU、Image Feature Extractionの詳細は不明
- 著者のgithubを確認する必要がある。
データ数を偏らせたMNIST、Fashion-MNISTでの評価結果
- 各クラスのデータ数を4000, 2000, 1000, 750, 500, 350, 200, 100, 60, 40としている
- クラス分類モデルの転移学習は行っていない
- 転移元モデルは偏りのないデータで学習しているため
- 評価指標
- ACSA : Average Class Specific Accuracy
- GM : Geometric Mean
スポンサーリンク