2020-02-01から1ヶ月間の記事一覧
前回の終わりから問題文を読み進めていきます。 one-vs-allでloopが必要だけれど、まずは1つのパターンの式を作ってみようと 言っていると思います。 ポイントでいうと↓の部分です。 Regularized Logistic RegressionはWeek3の課題にもあったから、 完コピで…
Week4の課題は0-9の手書きの数字を機械学習させて認識させる課題でした。 これをMulti-Class classificationとNeural Networkの2つの方法で解くという設定でした。 Neural Networkをついにプログラミングできるという喜びとやりがいのある 課題だったのを覚…
Gradientの日記で見たように、Week3とWeek2ではJを最小とするthetaの 探し方が違いました↓ Coursera Machine Learning Week3 課題 2周目④ -苦闘記憶-Gradient - 暇人日記 Week3はcostFunction.mがJとgradでfminuncで最小値を見つけましたが、 Week2ではCompu…
今回はcostFunctionReg.mに取り組みます。 テーマはRegularizationです。 Regularizationは予測があたりすぎのOverfitの状態を解消するための方法でした。 (出典;『Coursera Machine Learning』 By Mr. Andrew Ng) 一番右のOverfitの状態を真ん中のJust rig…
リンボー(Rush Limbaugh)は保守系で有名な人気ラジオパーソナリティーと英会話学校で教えてもらい、彼の番組を探した思い出があります。 (当時、私はアメリカ駐在中で絶望的な英語力のなさのため、 週末は英会話学校に行っていました) 聞いてみたいと思っ…
今回、取り組むのは計算されたグラフを視覚的に捉えたいので グラフ化したいということに取り組みます。 予測結果は↓のように でていますが、これをどうやってグラフにするかですね。 もともとオリジナルのデータを↓のようにグラフにしていたので、 これを予…
今回はpredict.mに取り組みます。 前回の日記で予測は計算して値は0と1の間で狙い通りですが、 最終的には全て0か1になってほしいです。 予測計算結果↓ 問題文を読むことにします↓ TEST1が45点でTEST2が85の生徒の合格確率は0.776になることを 確認しなさい…
今回はfminuncに取り組みます。 これに似たfmincgがWeek4以降もずっと出てくるので非常に大事な関数だと思います。 まずは問題文を読むことにします↓ Week2ではgradientのStepとJが減る様子を順にみていったが、 Week3では備え付き機能のfminuncを使う、と説…