Wissensdatenbank Wirtschaftsrecht

aktuelles Dokument: GradientBoosting
image4
image3
image2
image1
 Alle Kategorien:
  Forschungsdatenbank
  Lehrveranstaltungen
  Lexikon
  Literatur
  Arb R Literatur
  B W L Literatur
  Buchfuehrung Literatur
  Common Law Literatur
  E V T Z Literatur
  Energie R Literatur
  Europa R Literatur
  Gew R S Literatur
  Informations R Literatur
  Infotech Literatur
  Insolvenz R Literatur
  Internat W R Literatur
  Jur Arbeitstechnik Lit...
  Jur Methodenlehre Lite...
  Marketing Literatur
  Mediation Literatur
  Oeffentliches R Litera...
  Personalmanagement Lit...
  Projektmanagement Lite...
  Soz R Literatur
  Sprache Literatur
  Coimbra Gramatitica...
  Cordell Business En...
  Eberlein Novo Aveni...
  Eilertons Basisfor ...
  Emmerson Business E...
  Emmerson Business G...
  Emmerson Business V...
  Grant Business Basics
  Hollett Speaking Ac...
  Koester Business En...
  KĂÄ...
  KĂĂ...
  KÄÄ...
  Prata Beleza
  Prata Beleza Arbeit...
  Redstonface2face
  Sommer Weidmann Oi ...
  Sommer Weidmann Oi ...
  Sweeney Business Co...
  Talcott Target Score
  Tavares Portugues X...
  Tavares Portugues X...
  Zaorob Games Grammar
  Staats R Literatur
  Steuer R Literatur
  Straf R Literatur
  Unternehmens R Literatur
  Urh R Literatur
  V W L Literatur
  Vertragsgestaltungs Li...
  Verw R Literatur
  Voelker R Literatur
  Vortragstechnik Litera...
  W I P R Literatur
  Wettbew R Literatur
  Z P O Literatur
  Insolvenzrecht Litera...
  Rechtsgebiete
  Rechtsprechung
  Service
  Studium F H S
  Wissensmanagement
ich war hier: WIPR3 » CategorySpracheLiteratur » GradientBoosting

Gradient Boosting

Idee

Gradient Boosting versucht sich durch mehrer Iterationen an den minimalen Fehler anzunähern. Das geschieht durch Anwendung der stepest descent Methode. Hierfür wird zu jedem Merkmalvektor ein Gradient gebildet, welchen der Algorithmus für das Training berücksichtigt. So nähert er sich durch viele Iterationen mehr und mehr einem minimalen Fehler an. Meist wird Boosting mit einem Entscheidungsbaum als Grundlage verwendet.[1]

Algorithmus

Gradient Boosting
Quelle:[2] vgl. [1]

Erklärung

  1. Initialisierung der Funktionswerte gemäß der Verteilung der Parameter. Im binären Fall, wenn eine Gleichverteilung vorliegt, wird mit 0,5 initialisiert.
  1. Wiederholen von folgenden für T Iterationen:
    1. Berechnen des Gradienten bzw. des pseudo Residuals für jeden Datenpunkt
    1. Trainieren des Entscheidungsbaums mit den Gradienten als Zielwert
    1. Bilden der Schrittweite für jede Endregion des Entscheidungsbaums
    1. Aktualisieren der Entscheidungsfunktion

Parameter

Um die optimale Leistung des Algorithmus zu erreichen, ist es Wichtig, dass verschiedene Parameter berücksichtigt werden. Die wichtigsten werden hier kurz vorgestellt:
  1. Die Tiefe des Entscheidungsbaums. Diese hat auch einen direkten Einfluss auf die Anzahl an Endregionen. Die Anzahl an Endregionen verdoppelt sich, mit zunehmender Tiefe. Dies erhöht die Rechenzeit zusätzlich.
  1. Eine Schrumpf bzw. Lernrate, welche eine Überanpassung an die neue Hypothese verhindert. Diese hat einen Wert zwischen 0 und 1. Ein Standardwert hierfür ist 0,1.
  1. Die Größe des Trainingsraums. Dies verringert die Trainingszeit und kann die Varianz verringern. Der Wert kann zwischen 0 und 1 liegen, wobei 1 bedeutet, dass alle Daten der Trainingsmenge verwendet werden. [1]

Implementationen

Gradient Boosting Phyton
XGBoost

Literatur

[1] Hastie T., Tibshirani R. and Friedman J. (2009): Elements of Statistical Learning - Data Mining, Inference, and Prediction; Springer
[2] Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Diese Seite wurde noch nicht kommentiert.
Valid XHTML   |   Valid CSS:   |   Powered by WikkaWiki