Revision history for Random Forest
Additions:
vgl. [1]
Additions:
- Die Anzahl der Iterationen ist wie bei allen Ensemble-Methoden ein entscheidender Parameter.
- Die Anzahl an zufällig gezogenen Merkmalen ist entscheiden für den Erfolg des Random Forest. Ein Standard wert hierfür ist die Wurzel aus der Anzahl an Merkmalen. Ist der Informationsgehalt der Merkmale jedoch unausgeglichen, kann es sein das die Anzahl höher ausfällt.
- Desweiteren müssen Parameter optimiert werden, welche den Basis-Entscheidungsbaum regulieren.
- Die Anzahl an zufällig gezogenen Merkmalen ist entscheiden für den Erfolg des Random Forest. Ein Standard wert hierfür ist die Wurzel aus der Anzahl an Merkmalen. Ist der Informationsgehalt der Merkmale jedoch unausgeglichen, kann es sein das die Anzahl höher ausfällt.
- Desweiteren müssen Parameter optimiert werden, welche den Basis-Entscheidungsbaum regulieren.
Additions:
Quelle:[2], vgl. [1]
Deletions:
Additions:
{{image url="Random_Forest.PNG" title="Random Forest" alt=""}}
Deletions:
Additions:
{{image url="Random Forest.PNG" title="Random Forest" alt=""}}
Deletions:
Additions:
{{image url="Random Forest.PNG" title="Random Forest" alt="Random Forest Algorithmus"}}
Deletions:
Additions:
{{image url=" Random Forest.PNG" title="Random Forest" alt="Random Forest Algorithmus"}}
Deletions:
No Differences
Additions:
{{image url="Random Forest.PNG" title="Random Forest" alt="Random Forest Algorithmus"}}
Additions:
{{files}}
Additions:
[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
[2] Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
[2] Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Additions:
=====Literatur=====
Additions:
=====Parameter=====
Additions:
=====Algorithmus=====
Deletions:
=====Parameter=====
=====Literatur=====
[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
No Differences
No Differences
Additions:
Die Idee des Random Forest ist es die Varianz der herkömmlichen Entscheidungsbäume zu verringern. Dies soll dem Entscheidungsbaum eine höhere Trefferwahrscheinlichkeit bei der Vorhersage unbekannter Merkmalsvektoren geben. Hierfür wird, in jeder Iteration, durch ziehen mit zurücklegen (bootstrapping) aus der Trainingsmenge eine Untermenge gezogen. Da die Varianz aller Iterationen nun durch die Korrelation zwischen den Bäumen beschränkt wird, muss diese möglichst verringert werden. Dies geschieht durch eine Zufällige Merkmalsselektion vor jedem Teilungsprozess.
Die Entscheidung erfolgt schließlich durch ein Mehrheitsvotum aller Iterationen. [1]
====Algorithmus=====
=====Literatur=====
[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
Die Entscheidung erfolgt schließlich durch ein Mehrheitsvotum aller Iterationen. [1]
====Algorithmus=====
=====Literatur=====
[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer