https://arxiv.org/pdf/1905.01004.pdf
を読んだ。
問題設定
データセットと学習アルゴリズムを固定したときに、入力に対する予測の誤差の期待値を抑えるのではなく、その期待値と、有限個の入力での誤差の平均の差(Generalization Error)を抑える。
→何個ぐらいからなるデータセットを用意すればいいかがわかる
- Single Layer GCNNを考える。フィルターは
の形をしている
- 固定されたグラフ上でのSemi-supervisedという設定
- つまり、データセット内の
(頂点属性)のペアは未知の分布に従う
からサンプルされたものだとする
- SGDで学習しているとする
- activation function
はリプシッツ連続かつリプシッツスムーズ
- loss関数もリプシッツ連続かつリプシッツスムーズ
証明の重要ポイント
- データセットの一要素が変わった場合を考える。このとき影響を受けるのは
のみ。
の差分による寄与と、その他の係数に分ける。
やばい点
でのオーダー表記が正しいのは、最大固有値が1より大きい場合であるがこれは一般に成り立たない。さらに悪いことには
のときには1以下なので困る。