Basic Deep Learning
Book list of Deep learning
2018年ごろに以下2冊が入門本として勉強しました。
- 深層学習(岡谷 貴之 著) 2015年
- ゼロから作るDeep Learning - Pythonで学ぶディープラーニングの理論と実装(斎藤 康毅 著) 2016年
CNNの基本
Loss関数
Neural Networkは最適なパラメータ(Weightとbias)を見つけるため、学習で損失関数が最小値を取るとき
- 2乗和誤差
- クロースエントロピー誤差
パラメータ更新
https://github.com/j-w-yun/optimizer-visualization
SGD(確率的勾配降下法)
Momentum
-
勾配の累積 (モメンタム更新):
-
パラメータの更新:
AdaGrad
-
勾配の累積二乗和:
-
パラメータの更新:
Adam
-
勾配の移動平均 (モーメント計算):
-
バイアス補正:
-
パラメータの更新:
正則化
モデルが過学習(オーバーフィッティング)するのを防ぐため目的にパラメータに何らかの制約を課すことです
よく使われる正則化手法は以下です。
制約付き最適化(KKT条件から導く)
L2正則化(Ridge回帰)
寄与が小さい重みを抑える
L1正則化(Lasso回帰)
寄与が小さい重みをゼロにする