Coursera Machine Learning Week5 課題 2周目②Videoと問題文と課題の関係
CostFunctionのVideoを振り返ったので、CostFunctionに取り組みます!
と思って↓をみてみたら、nnCostFunction.mの範囲がえらく広いことに気づきました。
100点中95点がnnCostFunction.mになっています↓
少し引いて全体を俯瞰してみたいと思いました。
今後、他の問題の応用を目的と考えたときにWeek5で習得したいことは
機械学習の黄金パターンの
①予測式-->②Cost Function-->③Gradient-->④最適θ-->⑤予測の
②③④⑤です。
Week5Videoの重要ポイントは
Cost Function、Backpropagation、Gradient Checkingの3つだと思います。
CostFunctionは②に関係していて、
Backpropagation/Gradient Checkingは③に関係していると思います。
問題文と課題プログラムをするのにどのVideoを振り返るか
知りたかったので、粗く図にまとめてみました↓
CostFunctionをするにはVideo①CostFunctionと少しVideo④のUnrolling Parameterを
振り返れば十分と判断しました。
あとは、やはりかなりの問題文がnnCostFunction.mにつながっていますね。
黄金パターンの
①予測式-->②Cost Function-->③Gradient-->④最適θ-->⑤予測も
図に加えてみました↓
課題はほぼGradientなっていることがわかりました。
Gradientは苦手なのでVideoはよく振り返った方が良さそうです汗
今回はここまでです。次回CostFunctionに取り組みます!