データと決定境界

🌲 フォレスト情報

フォレストを構築してください

📊 アンサンブル学習の仕組み

🎲 バギング(Bootstrap Aggregating):

各決定木は訓練データからランダムにサンプリング(重複あり)したデータで学習します。

例: 100個のデータがあるとき、各木は100個をランダムに選びます(同じデータが複数回選ばれることもあります)。

🗳️ 多数決による予測:

すべての木の予測結果から、最も多く予測されたクラスを最終予測とします。

個々の木の誤りが平均化されるため、単一の木よりも安定した予測になります。

✨ なぜ効果的?

各木が異なるデータで学習するため、多様な「視点」を持った予測器が集まります。 これにより過学習を防ぎ汎化性能が向上します。

📋 データ統計

データを追加してください

📈 モデル性能

フォレストを構築してください