2020-01-01から1ヶ月間の記事一覧
今回はcostFunction.mの②『Gradient for logistic regression』に取り組みます。 Gradientはめちゃくちゃ苦手です。頭の中で図でイメージできないからだと思います。 状況証拠を積み上げてこうじゃないか、みたいな数学的じゃないことに 糸口を求めるしかな…
今回はcostFunction.mに取り組んでみます。 costFunction.mは①『Compute cost for logistic regression』と ②『Gradient for logistic regression』に分かれていますが、 ①の『Compute cost for logistic regression』に取り組んでみます。 ・問題文 ・プロ…
今回はSigmoid Functionに取り組みます。 問題文 プログラム全体ex2.m プログラム詳細sigmoid.m の順にみていきます。 まず、問題文です↓ そもそもLogistic RegressionとSigmoid Functionって何だったっけ?と 思いましたので、一度自分なりのサマリーをして…
Week3はLogistic Regressionがテーマのでした。 この日記ではLogistic Regressionの説明やサマリーは よく分かっている他のブログにお任せして、 課題を解くのに苦労したことを書いています。 まずは問題文を読み進めていきます。 大学を受験した100人の生徒…
前回の日記でWeek2のMultiの課題にPolynomialを使用しても、 Jは20億から下がりませんでしたので、 Week3で予測精度を上げるテクニックの1つとして紹介されている Regularizationを使ってJが小さくなるかどうか見てみたいと思います。 Regularizationとは↑の…
Polynomialで予測精度が向上してJが小さくなったか、 Learning Curveの形は変わったか、を プログラミングしながら検証していきます。 まずDataをSetします。 Train setとTest Setの分け方は同じです。 プログラミングを続けます。 多項式=polynomialの部分…
10月末から始めたブログも気づけばもう3か月たって50記事書くことができました! 最初はアメリカのニュースのことを書いていたりしたのですが、 機械学習が難しくも面白くハマって Coursera Machine Learningのことばかり書いている日記になりました。 記事…
前回の日記で行ったWeek2のMuiltiの課題がunderift=『予測当たらなさすぎ』と Learning Curveでは結果が出てきたので、 対策の1つに挙げられているAdding polynomial fearuresに取り組んでみたいと思います↓ Polynomial=多項式化することで期待しているのは…
Week6では↓のように仮説の精度検証の方法が説明されていたので、 この方法で前回の日記で取り組んでいたWeek2の予測結果を 評価してみたいと思います。 今回は仮説検証なのでデータを70対30に2分割します。 (余談ですが、モデル選択の場合は60対20対20の3分…
PCAはWeek8で紹介された内容でした。 PCAはデータが膨大で計算負荷が大きいときに 類似と判断できるデータを削減して、 計算負荷を小さくすることが目的のものでした。 具体的なPCAの計算方法は↓でした。 これ↑がn次元をk次元にする方法でした。 今回は2次…
最後のOptionでNormal Equasionです。 Videoでは (出典;『Coursera Machine Learning』 By Mr. Andrew Ng) と説明されていて、 nが大きいと時間かかるけど、nが小さかったら一発で解答にたどり着くというイメージなのでとても楽しみにしていました。 まずは…
もうOptionの部分に入って長いですが、引き続きOptionの部分を行います。 まずは問題文を読みます。 適切なlearning rateを選びなさいという趣旨ですね。 Iterationを50にして、learning rate=alphaを0.3/0.1/0.03/0.01というように 変化させてJの収束具合を…
今回はLinear Regression with multiのCostfunction/Gradientに取り組みます。 まずは問題文を読んでみます。 なんと、Food Truckの予測と同じ式が使えると書いてあります。 ↓がFood Truckの考え方でした。 このときXを基にした予測値は X X thetaでした。 …
前回、書いたこの日記のUPDATEをしたいと思います。 www.courseradaisuki.com まず前回の日記で受け取る予定だったポイントを表にすると↓になります。 (11/17時点) 本日でこうなっています↓ 入会キャンペーン10000ポイント分とプロモ分約2500ポイントにつ…
今回はOptionalのLinear Regression with multi variableの featureNomalizeに取り組みます。 まず問題文を読んでみます。 家のサイズと寝室の数から家の値段を予想しなさいということですね。 まず基データを見てみたいと思います。 こういうふうにサイズと…
今回はVisulizing θに取り組みます。 まずは問題文を読みます。 Jの見える化について説明されています。 見える化できるのはグラフで表現することができると書いてあります。 見える化できるのは3次元までだろうと思いますが、 今回はθ0とθ1とJの3つの数量…
今回は前回計算した結果でてきたthetaを用いての予測です。 ここが一番大事なはずなんですが、costfunctionとthetaを計算したら 満足している私がいました汗 本当はJを用いて最少誤差になる予測パラメーターθを導き出しているので、 予測を表現することが実…
今回はGradient Decentに取り組みます。 個人的にはGradient Decentが一番難しくてわからないです。 1周終わっても同じです。 それはさておき、まずは問題文を読んでみます。 Loop Structureは既に用意されていて、 ΘのUpdateの式にのみ注力すればいいようで…
約2か月前に↓の日記を書きました。 www.courseradaisuki.com 10/30の株価は2741円、 12/30の株価は3425円! もしあの時100株買っていれば約7万円の利益がありましたorz この時は以下3つの方法で考えました↓ ①<やや短期的>ゴールデンクロス/デッドクロス視…