Coursera Machine Learningで学んだことを「機械学習入門」の内容と対応させてみる
「機械学習入門」を読んでみました。
正確には「フリーソフトウェアで学べる機械学習入門」という本です。
読んでいると、『おぉ、これCourseraでやったやつだ!』『Courseraをやったときはこういう位置づけだとは思わなかった』みたいなことがあったので書いてみたいと思います。
まず「機械学習入門」ですが構成が↓だと本に書いていました。
Coursera Machine Learningで何を学んだかについては、
こちらの方のブログを参考にさせて頂きます。
私よりよっぽど頭よくて理解されている方で、まとめがわかりやすくて
好きなブログです。
Week1-11で何をやっていたかを引用させて頂きます↓
Week1(まとめ:本記事)
- Introduction
- Linear Regression with One Variable
- Linear Algebra Review
Week2(まとめ記事)
- Linear Regression with Multiple Variables
- Octave/Matlab Tutorial
Week3
Week4(まとめ記事)
- Neural Networks: Representation
Week5(まとめ記事)
- Neural Networks: Learning
Week6
Week7(まとめ記事)
- Support Vector Machines
Week8
Week9
Week10(まとめ記事)
- Large Scale Machine Learning
Week11(まとめ記事)
- Application Example: Photo OCR
Week10とWeek11以外は対応箇所があると思ったので↓のようにまとめてみました。
これをみて思ったのはPCAは前処理パートに位置づけされていることに気づきました。
Signateの課題を行った時もPCAをやったほうがよかったのかなと思いました。
本の第2章に『機械学習の流れ』が図解されていてので、
Courseraと対応させてみました↓
私が黄金の流れと呼んでいた
①予測式-->②Cost Function-->③Gradient-->④最適Θ-->⑤予測
は『学習』の部分だったんだと思いました。
本とCourseraだと対応させてみて勉強になりました。
面白かったです。
本にPythonで解く例題があるのでしばらく取り組んでみます。