Quelle: Bild: Shutterstock / Pershkova
Maschinelles Lernen mit dem Python-Ökosystem (Teil 4) 18.02.2020, 11:12 Uhr

Entscheidungsbäume und Random Forests

Entscheidungsbäume speichern Wissen kompakt und strukturiert – somit bilden sie ein ideales Fundament für die hohe Performance der Random Forests.
Entscheidungsbäume (Decision Trees) setzt man im Maschinellen Lernen (ML) für Klassifizierung und Regression ein – sie gehören zur Gruppe des Überwachten Lernens (Supervised Learning). Ein Entscheidungsbaum deckt sowohl kategoriale (nominal-, ordinalskalierte) als auch numerische (metrische) Variable ab. Entscheidungsbäume gelten als die Grundbausteine für sogenannte Random Forests; kommen aber auch in anderen ML-Algorithmen zum Einsatz.
Wie bereits die Bezeichnung ausdrückt, arbeitet ein Entscheidungsbaum auf einer Baumstruktur, diese bildet Regeln ab, um schlussendlich Vorhersagen (Prognosen durch Regression) zu treffen oder Klassifikationen vorzunehmen. Im Falle einer Klassifikation entscheidet ein Entscheidungsbaum, zu welcher Kategorie (Klasse) ein Element (Tupel) der Grundgesamtheit gehört. Während bei einer Vorhersage der Entscheidungsbaum zu erwartende Werte (nicht zu verwechseln mit dem Erwartungswert der Statistik) prognostiziert. Die Klasse oder die Vorhersage eines Datums (Tupels) bestimmt der letzte Eintrag im Baum: das sogenannte Blatt.

web & mobile DEVELOPER

Sie wollen zukünftig auch von den Vorteilen eines plus-Abos profitieren? Werden Sie jetzt web&mobile Developer plus Kunde.
  • 2 Monate Gratis testen
  • Über 4.000 qualifizierte Fachartikel
  • Diverse DevBooks thematisch für Sie zusammen gestellt
  • Webcasts von 30 - 90 Min.
  • Aufzeichnungen von ausgewählten Fortbildungen und Konferenzen
  • Auf jedem Gerät verfügbar