はやたすさんおすすめの、「筑波大学 オープンコースウエア 機械学習」で勉強を始めました。
簡単に、覚えておきたいメモを残していこうと思います。
機械学習 | 筑波大学オープンコースウェア|TSUKUBA OCW
こちら、大学の授業を無料で、しかも分からないところは何度でも学習できるので、機械学習を学習したい方におすすめです!
なお、pythonプログラミングから勉強したい方は、はやたすさんのYoutubeがおすすめ!
nikonikostudy.hatenablog.jp
- 第1回 機械学習概論と単回帰(1)
- 第2回 機械学習概論と単回帰(2)
- 第3回 重回帰 (1)
- 第4回 重回帰 (2)
- 第5回 モデルの複雑さと汎化 (1)
- 第6回 モデルの複雑さと汎化 (2)
- 第7回 特徴選択とL1正則化 (1)
- 第8回 特徴選択とL1正則化 (2)
- 第9回 決定的識別モデル (1)
- 第10回 決定的識別モデル (2)
- 第11回 カーネル/確率的識別モデル1 (1)
- 第12回 カーネル/確率的識別モデル1 (2)
- 第13回 確率的識別モデル2/経験損失最小化 (1)
- 第14回 確率的識別モデル2/経験損失最小化 (2)
- 第15回 k-meansと主成分分析(1)
- 第16回 k-meansと主成分分析(2)
- 第17回 ニューラルネットワーク1 基礎とCNN (1)
- 第18回 ニューラルネットワーク1 基礎とCNN (2)
- 第19回 ニューラルネットワーク2 RNNとGAN (1)
- 第20回 ニューラルネットワーク2 RNNとGAN (2)
第2回 機械学習概論と単回帰(2)
第一回学習:2021/06/10
目標値と特徴量
目標値:予測したい値
– 目的に沿って自ずと決まる場合が多い
– 取得にコストがかかる値である場合が多い
特徴量:目標値䛾予測と関係する(と考えられる)値
– どんなデータが優秀な特徴量か䛿普通明らかでない( よい特徴量䛿よい予測精度につながる)
– 取得にコストがかからない値を選びたい(取得にコストがかかる目標値を回帰を使って安価に得たい)
– 優秀で安価に得られる特徴量を見つけることがなにより重要
第3回 重回帰 (1)
第一回学習:2021/06/10
スケーリングしたものでないと、最も正・負の影響が強い特徴量を評価することはできない
第4回 重回帰 (2)
第一回学習:2021/06/10
第6回 モデルの複雑さと汎化 (2)
第一回学習:2021/06/11
どういうデータがあるのかお客さんがわかってないことは多い。
どういうものが欲しいか、お客さんがわかってないことも多い。
◆要復習◆
第9回 決定的識別モデル (1)
第一回学習:2021/06/15
◆要復習◆
第10回 決定的識別モデル (2)
第一回学習:2021/06/15
第11回 カーネル/確率的識別モデル1 (1)
第一回学習:2021/06/16
第12回 カーネル/確率的識別モデル1 (2)
第一回学習:2021/06/16
第13回 確率的識別モデル2/経験損失最小化 (1)
第14回 確率的識別モデル2/経験損失最小化 (2)