以下の内容はhttps://karalog.hatenablog.com/entry/2021/01/30/203000_1より取得しました。


DataAugmentaionは2回やれ

論文へのリンク

[1909.09148] Data Augmentation Revisited: Rethinking the Distribution Gap between Clean and Augmented Data

筆者・所属機関

Zhuoxun He 1 Lingxi Xie 2 Xin Chen 3 Ya Zhang 1 Yanfeng Wang 1 Qi Tian 2

1 Shanghai Jiao Tong University 2Huawei Noahs Ark Labc 3Tongji University

投稿日付

2019/09/11

概要(一言まとめ)

Data Augmentationを最後の数epochs、減らして(無しで)学習させることで性能があがる

手法の概要

Data Augmentation正則化としてとらえて、汎化誤差と経験損失の観点で性能向上の理由を説明?

コメント

関連情報

次に読む論文

自分なりのアウトプット

気になった英単語・英語表現

  • empirical 経験的



以上の内容はhttps://karalog.hatenablog.com/entry/2021/01/30/203000_1より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14