Coursera-Machine Learning-Week3
Gradientの日記で見たように、Week3とWeek2ではJを最小とするthetaの 探し方が違いました↓ Coursera Machine Learning Week3 課題 2周目④ -苦闘記憶-Gradient - 暇人日記 Week3はcostFunction.mがJとgradでfminuncで最小値を見つけましたが、 Week2ではCompu…
今回はcostFunctionReg.mに取り組みます。 テーマはRegularizationです。 Regularizationは予測があたりすぎのOverfitの状態を解消するための方法でした。 (出典;『Coursera Machine Learning』 By Mr. Andrew Ng) 一番右のOverfitの状態を真ん中のJust rig…
今回、取り組むのは計算されたグラフを視覚的に捉えたいので グラフ化したいということに取り組みます。 予測結果は↓のように でていますが、これをどうやってグラフにするかですね。 もともとオリジナルのデータを↓のようにグラフにしていたので、 これを予…
今回はpredict.mに取り組みます。 前回の日記で予測は計算して値は0と1の間で狙い通りですが、 最終的には全て0か1になってほしいです。 予測計算結果↓ 問題文を読むことにします↓ TEST1が45点でTEST2が85の生徒の合格確率は0.776になることを 確認しなさい…
今回はfminuncに取り組みます。 これに似たfmincgがWeek4以降もずっと出てくるので非常に大事な関数だと思います。 まずは問題文を読むことにします↓ Week2ではgradientのStepとJが減る様子を順にみていったが、 Week3では備え付き機能のfminuncを使う、と説…
今回はcostFunction.mの②『Gradient for logistic regression』に取り組みます。 Gradientはめちゃくちゃ苦手です。頭の中で図でイメージできないからだと思います。 状況証拠を積み上げてこうじゃないか、みたいな数学的じゃないことに 糸口を求めるしかな…
今回はcostFunction.mに取り組んでみます。 costFunction.mは①『Compute cost for logistic regression』と ②『Gradient for logistic regression』に分かれていますが、 ①の『Compute cost for logistic regression』に取り組んでみます。 ・問題文 ・プロ…
今回はSigmoid Functionに取り組みます。 問題文 プログラム全体ex2.m プログラム詳細sigmoid.m の順にみていきます。 まず、問題文です↓ そもそもLogistic RegressionとSigmoid Functionって何だったっけ?と 思いましたので、一度自分なりのサマリーをして…
Week3はLogistic Regressionがテーマのでした。 この日記ではLogistic Regressionの説明やサマリーは よく分かっている他のブログにお任せして、 課題を解くのに苦労したことを書いています。 まずは問題文を読み進めていきます。 大学を受験した100人の生徒…