以下の内容はhttps://anton0825.hatenablog.com/entry/2016/10/29/000000より取得しました。


Kerasで浮動小数点数の精度を下げて効率を上げる

精度はデフォルトで64bitだが、以下の本には16bitでもほとんど精度は落ちないと書いていたので精度を下げてみた。

下げ方自体は簡単で、以下を実行するだけ。

tf.keras.backend.set_floatx('float16')

でもfloat16だと学習結果が大幅に悪くなってしまった。。16bit用の前処理が必要っぽい。 一旦何もしなくても大丈夫な32bitにしてます。

参考:

qiita.com




以上の内容はhttps://anton0825.hatenablog.com/entry/2016/10/29/000000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14