「機械学習」の版間の差分
ナビゲーションに移動
検索に移動
37行目: | 37行目: | ||
*'''教師なし分類(unsupervised classification)'''とも呼ぼれる | *'''教師なし分類(unsupervised classification)'''とも呼ぼれる | ||
*例として、マーケティング担当者が顧客の関心に基づいて顧客集団を発見できる | *例として、マーケティング担当者が顧客の関心に基づいて顧客集団を発見できる | ||
+ | ====データ圧縮のための次元削減==== | ||
+ | ---- | ||
+ | *'''次元削減(dimensionally reduction / dimension resuction)'''というサブフィールド | ||
+ | *教師なし次元削減は特徴量の前処理においてよく使用されるアプローチの一つ | ||
==・・・・・・・・・・・・・・・・・== | ==・・・・・・・・・・・・・・・・・== |
2021年6月6日 (日) 07:23時点における版
| TensorFlow | Docker | Ubuntu | 数学 | 統計 | ベイズ統計 | データ解析 | R |
機械学習
3種類の機械学習
1.教師あり学習(supervised learning)
- ラベル付された'訓練データ'(training data)からモデルを学習し、未知のデータを予測できるようにする
- 離散値のクラスラベルを持つ教師あり学習は'分類'(classification)とも呼ばれる
- 教師あり学習の回帰(regression)サブフィールドの場合、出力信号は連続値となる
クラスラベルの予測(分類)
- 分類は新しいインスタンスを対象としてクラスラベルを予測することが目標
- インスタンスの所属関係(group membership)として解釈できる
- メールスパムフィルタは、二値分類(binary classification)の典型例
- ’陰性クラス(negative class)と陽性クラス(positive class)を区別する決定境界(decision boundary)を学習すれば分類できる
- 多クラス分類(multiclass classification)の典型例として手書き文字認識が挙げられる
連続値を予測(回帰)
- 連続値を予測する回帰分析(regression analysis)では、複数の予測変数(predictor variable)と連続値の応答変数(response variable)が与えられれ結果を予測できるようにそれらの関係を探る
- 予測に使われる変数は説明変数(explanatory variable)、予測したい変数は成果指標(outcome)
- 機械学習では予測変数は一般的に特徴量(feature)と呼び、応答変数を目的変数(target variable)と呼ぶ
2.強化学習(reinforcement learning)
- 強化学習の目的は環境とのやり取りに基づいて性能を改善するシステムを構築することで、そうしたシステムはエージェント(agent)
- 環境の現在状態情報には、いわゆる報酬(reward)信号が含まれるため、教師あり学習に関連する分野とみなされる
- チェスチェンジの例では、環境(チェス番)の状況に応じコマの動きを決定し、ゲームの勝ち負けが報酬tなる
3.教師なし学習
- 教師なし学習では、エージェントの特定の行動に対して、正解ではなく、報酬(reward)の度合いを定義する
- ラベル付されていないデータや構造が不明なデータを扱うことになる
- 目的変数や報酬関数がなくても、データの構造を調べて意味のある構造を取り出すことができる
クラスタリング(clustering)
- 大量の情報を意味のあるグループ(クラスタ)として構造化できる探索的データ解析手法
- 教師なし分類(unsupervised classification)とも呼ぼれる
- 例として、マーケティング担当者が顧客の関心に基づいて顧客集団を発見できる
データ圧縮のための次元削減
- 次元削減(dimensionally reduction / dimension resuction)というサブフィールド
- 教師なし次元削減は特徴量の前処理においてよく使用されるアプローチの一つ
・・・・・・・・・・・・・・・・・
基礎
- 未定義の値はパラメータ、説明はモデル
- 典型的には、学習と推論の2段階でアルゴリズムを調べる
- 学習段階での目的は、特徴モデルと呼ばれるデータを記述し、モデルに要約すること
- 特徴ベクトルは、実際のデータを単純化したもの、学習・推論のステップはデータそのものではなく、特徴ベクトルに依存
- 測定する値とどの測定値を比較すべきかの設計は、特徴量設計と呼ばれる
- 調べる特徴の数が多すぎるとパフォーマンスが低下する可能性(次元の呪い)
- 同一性は構成されている特徴に分解される
学習アプローチ
- 訓練データ
- 特徴ベクトル
- 学習アルゴリズム
- モデル
推論アプローチ
- テストデータ
- 特徴ベクトル
- モデル
- 予測
距離の測定
学習のタイプ
教師あり学習
- モデルと呼ばれるラベル付きデータを必要とする
- 訓練データセットと呼ばれる例の集まりを使用する
教師なし学習
強化学習
- 環境が行動によりどう反応するかを観察することで収集される情報を訓練する
- どのような行動の組み合わせが最も有利な結果をもたらすかを知るため
アルゴリズム
アルゴリズム | 用途 | 備考 |
---|---|---|
線形回帰 | トレンドの予測 | |
ロジスティクス回帰 | データを2つのカテゴリに分類し、データセットを分割する最善の方法を見つける | |
多クラスタロジスティクス回帰 | データを複数のカテゴリに分類する | |
隠れマルコフモデル(ビタビ) | 最も可能性の高い隠れた理由を見出す | |
k平均法 | 固定数のカテゴリにクラスタリングし、自動的に分割 | |
自己組織化マップ | 任意のカテゴリにクラスタリングし、高次元データを2次元平面上へ非線形写像する | |
オートエンコーダ | 入力されたデータを一度圧縮し、重要な特徴量だけを残した後、再度もとの次元に復元 | |
Qポリシーニューラルネットワーク | ニューラルネットワークを用いた環境での強化学習 | |
パーセプトロン | 教師ありニューラルネットワークを用いたデータの分類 | |
畳み込みニューラルネットワーク | 教師ありニューラルネットワークを用いた次世界画像の分類 | |
リカレントニューラルネットワーク | ニューラルネットワークを使用して観測に一致するパターンを生成 | |
シーエンス変換(Seq2seq)モデル | 自然言語の問い合わせに対する自然言語応答の予測 | |
順位付け | 効用の学習によって項目を順位付けするための学習 |
線形回帰
バリアンスとバイアス
- バイアスとバリアンス(偏りと分散)のトレードオフ(Bias-Variance Tradeoff)とは?
- バイアス(偏り:Bias)とは、予測値と真の値(=正解値)とのズレ(つまり「偏り誤差:Bias error」)を指す
- バイアス(偏り誤差)が大きすぎる場合、そのモデルは入力と出力の関係性を正確に表現できていない(=訓練データでさえも正確に予測できない)といえる。いわゆる「学習不足(=過少適合:under-fitting)」の状態
- バリアンス(分散:Variance)とは、予測値の広がり(つまり「ばらつき誤差:Variance error」)を指す。この予測誤差は、訓練データの揺らぎから生じる
- バリアンス(ばらつき誤差)が大きすぎる場合、そのモデルは訓練データのノイズまで学習してしまっている(=テストデータなど未知のデータでは正確に予測できない)。いわゆる「過学習(=過剰適合:over-fitting)」の状態
import matplotlib matplotlib.use("WebAgg") import numpy as np import matplotlib.pyplot as plt x_train = np.linspace(-1, 1, 101) y_train = 2 * x_train + np.random.randn(*x_train.shape) * 0.33 plt.scatter(x_train, y_train) plt.show()
TensorFlow
© 2006 矢木浩人