データと決定境界
🌲 フォレスト情報
フォレストを構築してください
📊 アンサンブル学習の仕組み
🎲 バギング(Bootstrap Aggregating):
各決定木は訓練データからランダムにサンプリング(重複あり)したデータで学習します。
例: 100個のデータがあるとき、各木は100個をランダムに選びます(同じデータが複数回選ばれることもあります)。
🗳️ 多数決による予測:
すべての木の予測結果から、最も多く予測されたクラスを最終予測とします。
個々の木の誤りが平均化されるため、単一の木よりも安定した予測になります。
✨ なぜ効果的?
各木が異なるデータで学習するため、多様な「視点」を持った予測器が集まります。 これにより過学習を防ぎ、汎化性能が向上します。
📋 データ統計
データを追加してください
📈 モデル性能
フォレストを構築してください