暇人日記

アラフォーおっさんのコーセラの機械学習の課題を解こうと頑張っています!

Coursera Machine Learning Week5 課題 2周目②Videoと問題文と課題の関係

CostFunctionのVideoを振り返ったので、CostFunctionに取り組みます!

と思って↓をみてみたら、nnCostFunction.mの範囲がえらく広いことに気づきました。

 

100点中95点がnnCostFunction.mになっています↓

 

f:id:omoshiroamericanews:20200418111606p:plain

 

 

少し引いて全体を俯瞰してみたいと思いました。

 

今後、他の問題の応用を目的と考えたときにWeek5で習得したいことは

機械学習の黄金パターンの

①予測式-->②Cost Function-->③Gradient-->④最適θ-->⑤予測の

②③④⑤です。

 

Week5Videoの重要ポイントは

Cost Function、Backpropagation、Gradient Checkingの3つだと思います。

CostFunctionは②に関係していて、

Backpropagation/Gradient Checkingは③に関係していると思います。

 

問題文と課題プログラムをするのにどのVideoを振り返るか

知りたかったので、粗く図にまとめてみました↓

f:id:omoshiroamericanews:20200418113237p:plain

 

CostFunctionをするにはVideo①CostFunctionと少しVideo④のUnrolling Parameterを

振り返れば十分と判断しました。

あとは、やはりかなりの問題文がnnCostFunction.mにつながっていますね。

 

黄金パターンの

①予測式-->②Cost Function-->③Gradient-->④最適θ-->⑤予測も

図に加えてみました↓

 

f:id:omoshiroamericanews:20200418125857p:plain


課題はほぼGradientなっていることがわかりました。

Gradientは苦手なのでVideoはよく振り返った方が良さそうです汗

 

今回はここまでです。次回CostFunctionに取り組みます!