Interpretable Machine Learning in R

Der Kurs kann im Rahmen unseres Machine Learning Bootcamp in R (siehe Modul 3) separat gebucht werden.


Prognosemodelle aus der klassischen Statistik wie beispielsweise das lineare Regressionsmodell gehören zu den intrinsisch interpretierbaren Modellen, da ihre Vorhersagen per Definition einer gewichteten Summe der verwendeten Variablen entsprechen und daher leicht erklärbar und nachvollziehbar sind.
Im Gegensatz dazu werden Machine Learning Modelle oft als intransparente Blackbox bezeichnet, da ihre Vorhersagen - anders als bei statistischen Modellen - in der Regel nicht leicht nachvollziehbar sind. Um dennoch Machine Learning Modelle und ihre Vorhersagen besser verstehen zu können, wurden in den letzten Jahren zahlreiche post-hoc Methoden aus dem Bereich des interpretierbaren maschinellen Lernen (auch eXplainable Artificial Intelligence bzw. XAI genannt) entwickelt.
In diesem Kurs lernen Teilnehmer die aktuell bekanntesten und wichtigsten modell-agnostischen Methoden für die Interpretation von Prognosemodellen, ihr Nutzen in der Praxis, sowie ihre Vor- und Nachteile. Der Fokus der Anwendungsbeispiele liegt dabei auf Machine Learning Modelle, die auf klassische tabulare Daten trainiert wurden.

Der Kurs behandelt folgende Themen:

  • Definition und Motivation des interpretierbaren maschinellen Lernens.

  • Unterschiede zwischen intrinischer Interpretierbarkeit und modell-agnostischer Interpretierbarkeit, sowie zwischen globale und lokale Interpretierbarkeit.

  • Folgende model-agnostische Verfahren des interpretierbaren maschinellen Lernens werden genauer erläutert:

    • Permutation feature importance: Ein Verfahren um die Wichtigkeit von Variablen eines Prognosemodells zu quantifizieren.

    • Partial dependence (PD) plots und Accumulated Local Effect (ALE) plots: Eine Visualisierungsmethode um den erwarteten Variablen-Effekt eines Prognosemodells zu visualisieren.

    • Individual conditional expectation (ICE) plots: Eine Visualisierungsmethode um Variablen-Effekt einzelner Beobachtungen eines Prognosemodells zu visualisieren.

    • Shapley values: Ein Verfahren aus der Spieltheorie um die Wichtigkeit bzw. den Beitrag einer Variable auf die jeweilige Vorhersage einer Beobachtung zu quantifizieren.

  • Fragestellungen, die anhand dieser Methoden beantwortet werden können, Ihre Probleme und Vor- und Nachteile (z.B. abhängige Variablen).

  • Im Kurs wird das Package iml: interpretable machine learning eingeführt und einfache Übungsaufgaben damit bearbeitet.

Voraussetzungen:

  • Kenntnisse in R (Im Umfang des 2-tägigen R Basiskurs bzw. 1-tägigen R Crashkurses).

  • Grundverständnis im Bereich der Datenanalyse und Statistik.

  • Erfahrungen im Umgang mit Machine Learning in R (etwa im Umfang unseres 3-tägigen Machine Learing in R Kurses).



Anstehende Kurse

Kein passender Kurs verfügbar? Kein Problem, wir richten unser Kursprogramm direkt nach dem Interesse unserer Kunden aus. Teilen Sie uns Ihr Interesse mit und profitieren zusätzlich durch einen 10% bzw. 20% Rabatt.
Giuseppe CasalicchioR, IML in R