暇人日記

アラフォーおっさんのコーセラの機械学習の課題を解こうと頑張っています!

2020-01-01から1ヶ月間の記事一覧

Coursera Machine Learning Week3 課題 2周目④ -苦闘記憶-Gradient

今回はcostFunction.mの②『Gradient for logistic regression』に取り組みます。 Gradientはめちゃくちゃ苦手です。頭の中で図でイメージできないからだと思います。 状況証拠を積み上げてこうじゃないか、みたいな数学的じゃないことに 糸口を求めるしかな…

Coursera Machine Learning Week3 課題 2周目③ -苦闘記憶- Compute Cost for CostFunction

今回はcostFunction.mに取り組んでみます。 costFunction.mは①『Compute cost for logistic regression』と ②『Gradient for logistic regression』に分かれていますが、 ①の『Compute cost for logistic regression』に取り組んでみます。 ・問題文 ・プロ…

Coursera Machine Learning Week3 課題 2周目② -苦闘記憶- Sigmoid Function-

今回はSigmoid Functionに取り組みます。 問題文 プログラム全体ex2.m プログラム詳細sigmoid.m の順にみていきます。 まず、問題文です↓ そもそもLogistic RegressionとSigmoid Functionって何だったっけ?と 思いましたので、一度自分なりのサマリーをして…

Coursera Machine Learning Week3 課題 2周目① -苦闘記憶- データのグラフ化 

Week3はLogistic Regressionがテーマのでした。 この日記ではLogistic Regressionの説明やサマリーは よく分かっている他のブログにお任せして、 課題を解くのに苦労したことを書いています。 まずは問題文を読み進めていきます。 大学を受験した100人の生徒…

Week2の課題でRegularizationを使用するとJは小さくなるか?

前回の日記でWeek2のMultiの課題にPolynomialを使用しても、 Jは20億から下がりませんでしたので、 Week3で予測精度を上げるテクニックの1つとして紹介されている Regularizationを使ってJが小さくなるかどうか見てみたいと思います。 Regularizationとは↑の…

Week2の課題でPolynomial=多項式化するとどうなるか?-後半-

Polynomialで予測精度が向上してJが小さくなったか、 Learning Curveの形は変わったか、を プログラミングしながら検証していきます。 まずDataをSetします。 Train setとTest Setの分け方は同じです。 プログラミングを続けます。 多項式=polynomialの部分…

はてなブログPRO使用開始に伴うURL変更について

10月末から始めたブログも気づけばもう3か月たって50記事書くことができました! 最初はアメリカのニュースのことを書いていたりしたのですが、 機械学習が難しくも面白くハマって Coursera Machine Learningのことばかり書いている日記になりました。 記事…

Week2の課題でPolynomial=多項式化するとどうなるか?-前半-

前回の日記で行ったWeek2のMuiltiの課題がunderift=『予測当たらなさすぎ』と Learning Curveでは結果が出てきたので、 対策の1つに挙げられているAdding polynomial fearuresに取り組んでみたいと思います↓ Polynomial=多項式化することで期待しているのは…

Week2の予測結果をWeek6の仮説精度検証とLearning Curveで評価してみたらどうなるか?

Week6では↓のように仮説の精度検証の方法が説明されていたので、 この方法で前回の日記で取り組んでいたWeek2の予測結果を 評価してみたいと思います。 今回は仮説検証なのでデータを70対30に2分割します。 (余談ですが、モデル選択の場合は60対20対20の3分…

Week2の課題をPCAしてみるとどうなるか?

PCAはWeek8で紹介された内容でした。 PCAはデータが膨大で計算負荷が大きいときに 類似と判断できるデータを削減して、 計算負荷を小さくすることが目的のものでした。 具体的なPCAの計算方法は↓でした。 これ↑がn次元をk次元にする方法でした。 今回は2次…

Coursera Machine Learning Week2 課題 2周目⑩ -苦闘記憶- Normal Equation

最後のOptionでNormal Equasionです。 Videoでは (出典;『Coursera Machine Learning』 By Mr. Andrew Ng) と説明されていて、 nが大きいと時間かかるけど、nが小さかったら一発で解答にたどり着くというイメージなのでとても楽しみにしていました。 まずは…

Coursera Machine Learning Week2 課題 2周目⑨ -苦闘記憶- 最適なαを探す

もうOptionの部分に入って長いですが、引き続きOptionの部分を行います。 まずは問題文を読みます。 適切なlearning rateを選びなさいという趣旨ですね。 Iterationを50にして、learning rate=alphaを0.3/0.1/0.03/0.01というように 変化させてJの収束具合を…

Coursera Machine Learning Week2 課題 2周目⑧ -苦闘記憶- Costfunction/Gradient with multi

今回はLinear Regression with multiのCostfunction/Gradientに取り組みます。 まずは問題文を読んでみます。 なんと、Food Truckの予測と同じ式が使えると書いてあります。 ↓がFood Truckの考え方でした。 このときXを基にした予測値は X X thetaでした。 …

<結果>楽天カードでマイルを貯めることにしてみました

前回、書いたこの日記のUPDATEをしたいと思います。 www.courseradaisuki.com まず前回の日記で受け取る予定だったポイントを表にすると↓になります。 (11/17時点) 本日でこうなっています↓ 入会キャンペーン10000ポイント分とプロモ分約2500ポイントにつ…

Coursera Machine Learning week2課題 2周目⑦ -苦闘記憶- featureNormalize-

今回はOptionalのLinear Regression with multi variableの featureNomalizeに取り組みます。 まず問題文を読んでみます。 家のサイズと寝室の数から家の値段を予想しなさいということですね。 まず基データを見てみたいと思います。 こういうふうにサイズと…

Coursera Machine Learning Week2 課題 2周目⑥ -苦闘記憶- Visualizing J(θ)

今回はVisulizing θに取り組みます。 まずは問題文を読みます。 Jの見える化について説明されています。 見える化できるのはグラフで表現することができると書いてあります。 見える化できるのは3次元までだろうと思いますが、 今回はθ0とθ1とJの3つの数量…

Coursera Machine Learning Week2 課題 2周目⑤ -苦闘記憶- Predict

今回は前回計算した結果でてきたthetaを用いての予測です。 ここが一番大事なはずなんですが、costfunctionとthetaを計算したら 満足している私がいました汗 本当はJを用いて最少誤差になる予測パラメーターθを導き出しているので、 予測を表現することが実…

Coursera Machine Learning Week2 課題 2周目④ -苦闘記憶- Gradient

今回はGradient Decentに取り組みます。 個人的にはGradient Decentが一番難しくてわからないです。 1周終わっても同じです。 それはさておき、まずは問題文を読んでみます。 Loop Structureは既に用意されていて、 ΘのUpdateの式にのみ注力すればいいようで…

<続報>オプティムは日記書いた時に買った方が良かった。。。

約2か月前に↓の日記を書きました。 www.courseradaisuki.com 10/30の株価は2741円、 12/30の株価は3425円! もしあの時100株買っていれば約7万円の利益がありましたorz この時は以下3つの方法で考えました↓ ①<やや短期的>ゴールデンクロス/デッドクロス視…