以下の内容はhttps://workmemo.techblog.jp/archives/8236172.htmlより取得しました。
コメント
コメント一覧 (2)
1. 17ec084
2020年03月06日 09:36
単純パーセプトロンの活性化関数にも使えますね。
入力とパラメータの内積が正なら1、負なら-1を返すので。ラベルy=1と-1を分類できるわけです。
ちなみに活性化関数y'を宇宙船にする場合、損失関数は
y-y'だけで済みます。(誤差の大きさは見れませんが、方向は確実に指定できるので。)
2.
ブログ著者
2020年03月09日 12:18
>>1
コメントありがとうございます。今までの普通のIF文の頭だったら
何に使うんだろう? で終わってましたが、確かに簡単に状態を表せるだけででもいいですね。
(しかもそれを内部的に1とか2とかわかりづらい数値を入れるわけでもなく)
Deep Learningは勉強中なので、いまいち凄い便利! ってところまで行けてないんですけども。
↑このページのトップヘ
コメント
コメント一覧 (2)
入力とパラメータの内積が正なら1、負なら-1を返すので。ラベルy=1と-1を分類できるわけです。
ちなみに活性化関数y'を宇宙船にする場合、損失関数は
y-y'だけで済みます。(誤差の大きさは見れませんが、方向は確実に指定できるので。)
コメントありがとうございます。今までの普通のIF文の頭だったら
何に使うんだろう? で終わってましたが、確かに簡単に状態を表せるだけででもいいですね。
(しかもそれを内部的に1とか2とかわかりづらい数値を入れるわけでもなく)
Deep Learningは勉強中なので、いまいち凄い便利! ってところまで行けてないんですけども。