Digital Gym, 11.12.2019, Pioneers Club Bielefeld, 16 – 17:30 Uhr

Machine Learning Verfahren können Objekte, z.B. Kunden, anhand ihrer Eigenschaften automatisiert bestimmten Klassen, beispielsweise „Kunde ist abwanderungsbedroht“ zuordnen. Dafür gibt es unterschiedliche Klassifikationsmodelle, die sich in ihren Algorithmen und ihrer Komplexität unterscheiden. Ein einfaches Modell ist leicht verständlich und nachvollziehbar, aber gleichzeitig nicht fähig, komplexe Zusammenhänge abzubilden und somit genaue Vorhersagen für Testdaten zu liefern. Komplexe Modelle sind im Wesentlichen „Blackbox“-Verfahren, die i.d.R. gute Prognoseergebnisse liefern. 

Das Verstehen und Interpretieren von „Blackbox“-Modellen ist dabei wichtig für ein Vertrauen in die Ergebnisse des Modells und deren Anwendung. Auch ist es wichtig, beurteilen zu können, wie sinnvoll das Modell ist und ob es aus den Trainingsdaten das Richtige gelernt hat. Zur Darstellung des Trade-Offs zwischen Interpretierbarkeit und Präzision werden verschiedene Beispiele aus den Bereichen Customer Churn, Biopsiedaten und Bilderkennung  mit Klassifikationsmodellen von logistischer Regression, über Decision Trees und Random Forests bis hin zum Convolutional Neuronalen Netz vorgestellt. Zusätzlich gebe ich eine Einführung in den Algorithmus LIME (Local Interpretable Model-agnostic Explanations), um diesen für die Erklärung der komplexen Modelle zu nutzen.

Slides: Explainable Machine Learnig

Den Code findet ihr auf Github.