2020.07.10 [学習メモ] 機械学習におけるバイアス・バリアンス分解

投稿者:

よく分からなかったのでまとめ。言葉が違うことが原因の模様。


  • 汎化誤差の期待値
    • バイアス
      • 学習アルゴリズムにおいて、誤差のうち、モデルの仮定の誤りに由来する分
      • バイアスが大きすぎることは、入力と出力の関係を適切に捉えられていないことを意味し、過少適合
      • こいつをRMSE的に捉えると理解できる
        • データ同化では、エラーとバイアスを使い分けるので、混乱しやすい
    • バリアンス
      • 誤差のうち、訓練データの揺らぎから生じる分。
      • バリアンスが大きすぎることは、本来の出力ではなく、訓練データのランダムなノイズを学習していることを意味し、過剰適合している。
      • 高バリアンスは過学習だと思えば良い(overfitting)
        • overfitting しているから、少し入力xが変わるだけで、f(x)が大きく変わる == 高バリアンス
    • ノイズ
      • 観測ノイズ。絶対になくならない
    • トレードオフ
      • バイアスとバリアンスはトレードオフ
        • 高バイアス&低バリアンス
        • 低バイアス&高バリアンス
      • アンサンブル学習は、低バイアス&低バリアンスに持っていきたい
        • スタッキング:学習器の出力を再び学習器にかける層をstackしていく
        • バギング:単純な出力結果の重み付け平均 (e.g. Random Forest)
        • ブースティング :弱学習器の出力を次の弱学習器にかける (e.g. Adaboost, Xgboost, lightgbm)
  • WIKIPEDIA 偏りと分散
  • イメージ
    • https://axa.biopapyrus.jp/machine-learning/model-evaluation/bias-variance-tradeoff.html

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です