ゆるゆるチャレンジ

興味のあることをゆるゆる共有します〜

【筑波大学】オープンコースウエア 機械学習

はやたすさんおすすめの、「筑波大学 オープンコースウエア 機械学習」で勉強を始めました。
簡単に、覚えておきたいメモを残していこうと思います。

ocw.tsukuba.ac.jp

機械学習 | 筑波大学オープンコースウェア|TSUKUBA OCW

こちら、大学の授業を無料で、しかも分からないところは何度でも学習できるので、機械学習を学習したい方におすすめです!


なお、pythonプログラミングから勉強したい方は、はやたすさんのYoutubeがおすすめ!
nikonikostudy.hatenablog.jp

第1回 機械学習概論と単回帰(1)

第一回学習:2021/06/10

「簡単に知れること」から「簡単には知れないこと(コストがかかること)」を予測する

第2回 機械学習概論と単回帰(2)

第一回学習:2021/06/10

目標値と特徴量

目標値:予測したい値
– 目的に沿って自ずと決まる場合が多い
– 取得にコストがかかる値である場合が多い

特徴量:目標値䛾予測と関係する(と考えられる)値
– どんなデータが優秀な特徴量か䛿普通明らかでない( よい特徴量䛿よい予測精度につながる)
– 取得にコストがかからない値を選びたい(取得にコストがかかる目標値を回帰を使って安価に得たい)
– 優秀で安価に得られる特徴量を見つけることがなにより重要

データの確認

データがどんな分布をしているのか、ざっと可視化してみてみる(ヒストグラムなど)
アルゴリズムに突っ込めば当たる、って思いがち
ゴミを突っ込んでもゴミしか出てこない。
全体の労働時間の5%くらい。データ集めて、データきれいにして、特徴量設定するのがとっても大変

データの前処理

・欠損値へ䛾対応
– 欠損値を含むサンプル䛿除去する
– 欠損値䛿そ䛾特徴䛾平均値・中間値で補完する
• 外れ値へ䛾対応
– 全体を俯瞰し、極端な外れ値を含むサンプル䛿除去
する(測定エラー、入力ミス、例外䛾可能性)
• スケーリング
– 各特徴が平均0、標準偏差1になるようスケーリング
– 最大値が0、最小値が1になるようスケーリング

◆要復習◆
微分

第3回 重回帰 (1)

第一回学習:2021/06/10

スケーリングしたものでないと、最も正・負の影響が強い特徴量を評価することはできない

第4回 重回帰 (2)

第一回学習:2021/06/10

第5回 モデルの複雑さと汎化 (1)

第一回学習:2021/06/11

◆要復習◆
線形代数(行列計算)
M次多項式回帰モデル よくわからない
確率統計

第6回 モデルの複雑さと汎化 (2)

第一回学習:2021/06/11

どういうデータがあるのかお客さんがわかってないことは多い。
どういうものが欲しいか、お客さんがわかってないことも多い。

◆要復習◆

第7回 特徴選択とL1正則化 (1)

第一回学習:2021/06/12

◆要復習◆

第8回 特徴選択とL1正則化 (2)

第一回学習:2021/06/15

◆要復習◆
LassoとRidgeがちゃんとわかっていない

第9回 決定的識別モデル (1)

第一回学習:2021/06/15

◆要復習◆

第10回 決定的識別モデル (2)

第一回学習:2021/06/15

第11回 カーネル/確率的識別モデル1 (1)

第一回学習:2021/06/16

第12回 カーネル/確率的識別モデル1 (2)

第一回学習:2021/06/16

第13回 確率的識別モデル2/経験損失最小化 (1)

第14回 確率的識別モデル2/経験損失最小化 (2)

 

第15回 k-meansと主成分分析(1)

第16回 k-meansと主成分分析(2)

第17回 ニューラルネットワーク1 基礎とCNN (1)

第18回 ニューラルネットワーク1 基礎とCNN (2)

第19回 ニューラルネットワーク2 RNNとGAN (1)

第20回 ニューラルネットワーク2 RNNとGAN (2)