以下の内容はhttps://xuzijian629.hatenablog.com/entry/2019/06/22/104657より取得しました。


機械学習におけるカーネルを一言で

2つのデータがどれだけ似ているかを返す関数です。

非負実数を返し、似ていれば値は大きく、似ていないと小さいです。

以上!

カーネルトリックについて

たいてい回帰問題の文脈で現れると思いますが、元のデータ点を直線(もしくは超平面)で回帰することはそう一般にうまくいきません。 そのため、ある関数 \phiによって元のデータを高次元空間にマップしてから、超平面で回帰することを考えます。このときに適切な \phiを知ることは至難の業ですが、実は \phiを直接知らなくとも、さまざまな計算をうまく変形して行うと、 \phi(x), \phi(x')内積 \phi(x)^T \phi(x')の形とは限らず、より一般に \phi(x)^T A\phi(x')の形で現れます)さえわかれば多くの場合で事足りることがわかります。そして、 \phiを定める代わりにこの内積関数をカーネルとして予め定めてあげることで、 \phiを陽に扱わずこの問題が解けることになります。これがカーネルトリックです。

最後に

なんで本の説明はどれを見てもあんなに長々しいんや




以上の内容はhttps://xuzijian629.hatenablog.com/entry/2019/06/22/104657より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14