Direkt zum Inhalt
HeimAnleitungenMaschinelles Lernen

Eine Einführung in SHAP-Werte und die Interpretierbarkeit durch maschinelles Lernen

Modelle des maschinellen Lernens sind leistungsstark, aber schwer zu interpretieren. Die SHAP-Werte können dir jedoch dabei helfen, zu verstehen, wie Modellmerkmale die Vorhersagen beeinflussen.
Aktualisierte 11. Sept. 2024  · 9 Min. lesen

Modelle des maschinellen Lernens werden immer komplexer und leistungsfähiger und können immer genauere Vorhersagen machen. Da diese Modelle jedoch zu "Black Boxes" werden, ist es noch schwieriger zu verstehen, wie sie zu diesen Vorhersagen kommen. Das hat dazu geführt, dass die Interpretierbarkeit und Erklärbarkeit von maschinellem Lernen immer wichtiger wird.

Du hast zum Beispiel einen Kredit bei einer Bank beantragt, wurdest aber abgelehnt. Du möchtest den Grund für die Ablehnung wissen, aber der Kundendienstmitarbeiter antwortet, dass ein Algorithmus den Antrag abgelehnt hat und er den Grund dafür nicht kennt. Das ist frustrierend, oder? Du verdienst eine Erklärung für die Entscheidung, die dich betrifft. Deshalb versuchen Unternehmen, ihre Machine-Learning-Modelle transparenter und verständlicher zu machen.

Eines der vielversprechendsten Instrumente für diesen Prozess sind die SHAP-Werte, die messen, wie viel jedes Merkmal (z. B. Einkommen, Alter, Kreditwürdigkeit usw.) zur Vorhersage des Modells beiträgt. Anhand der SHAP-Werte kannst du sehen, welche Merkmale für das Modell am wichtigsten sind und wie sie das Ergebnis beeinflussen.

In diesem Lernprogramm lernen wir die SHAP-Werte und ihre Rolle bei der Interpretation von Machine Learning-Modellen kennen. Wir werden auch das Shap Python-Paket verwenden, um verschiedene Diagramme zur Interpretation von Modellen zu erstellen und zu analysieren.

Was sind SHAP-Werte?

SHAP-Werte (SHapley Additive exPlanations) sind eine Möglichkeit, den Output eines jeden maschinellen Lernmodells zu erklären. Es verwendet einen spieltheoretischen Ansatz, der den Beitrag jedes Spielers zum Endergebnis misst. Beim maschinellen Lernen wird jedem Merkmal ein Wichtigkeitswert zugewiesen, der seinen Beitrag zum Ergebnis des Modells darstellt.

Die SHAP-Werte zeigen, wie sich jedes Merkmal auf die endgültige Vorhersage auswirkt, wie wichtig jedes Merkmal im Vergleich zu den anderen ist und wie sehr das Modell auf die Interaktion zwischen den Merkmalen angewiesen ist.

Willst du mit generativer KI beginnen?

Lerne, wie du mit LLMs in Python direkt in deinem Browser arbeiten kannst

Jetzt Starten

SHAP-Werte beim maschinellen Lernen 

SHAP-Werte sind eine gängige Methode, um eine konsistente und objektive Erklärung dafür zu erhalten, wie sich jedes Merkmal auf die Vorhersage des Modells auswirkt.

Die SHAP-Werte basieren auf der Spieltheorie und weisen jedem Merkmal in einem Modell einen Wichtigkeitswert zu. Merkmale mit positiven SHAP-Werten wirken sich positiv auf die Vorhersage aus, während Merkmale mit negativen Werten einen negativen Einfluss haben. Das Ausmaß ist ein Maß dafür, wie stark der Effekt ist.

SHAP-Werte sind modellunabhängig, d.h. sie können für die Interpretation jedes maschinellen Lernmodells verwendet werden, einschließlich:

  • Lineare Regression
  • Entscheidungsbäume
  • Zufällige Wälder
  • Gradient-Boosting-Modelle
  • Neuronale Netze

Die Eigenschaften der SHAP-Werte

SHAP-Werte haben mehrere nützliche Eigenschaften, die sie für die Interpretation von Modellen nützlich machen:

Additivität

SHAP-Werte sind additiv, das heißt, der Beitrag jedes Merkmals zur endgültigen Vorhersage kann unabhängig voneinander berechnet und dann aufsummiert werden. Diese Eigenschaft ermöglicht eine effiziente Berechnung der SHAP-Werte, selbst bei hochdimensionalen Datensätzen.

Lokale Genauigkeit

Die SHAP-Werte ergeben sich aus der Differenz zwischen dem erwarteten Modelloutput und dem tatsächlichen Output für einen bestimmten Input. Das bedeutet, dass die SHAP-Werte eine genaue und lokale Interpretation der Vorhersage des Modells für eine bestimmte Eingabe liefern.

Missingness

SHAP-Werte sind Null für fehlende oder irrelevante Merkmale für eine Vorhersage. Das macht die SHAP-Werte robust gegenüber fehlenden Daten und stellt sicher, dass irrelevante Merkmale die Interpretation nicht verzerren.

Konsistenz

Die SHAP-Werte ändern sich nicht, wenn sich das Modell ändert, es sei denn, der Beitrag eines Merkmals ändert sich. Das bedeutet, dass die SHAP-Werte eine konsistente Interpretation des Verhaltens des Modells liefern, auch wenn sich die Modellarchitektur oder die Parameter ändern.

Insgesamt bieten die SHAP-Werte eine konsistente und objektive Möglichkeit, Einblicke in die Art und Weise zu erhalten, wie ein maschinelles Lernmodell Vorhersagen trifft und welche Merkmale den größten Einfluss haben.

Wie man SHAP-Werte in Python implementiert

In diesem Abschnitt werden wir die SHAP-Werte berechnen und die Merkmalsbedeutung, die Merkmalsabhängigkeit, die Kraft und den Entscheidungsplot visualisieren.

Führe den Code aus diesem Tutorial online aus und bearbeite ihn

Code ausführen

Einrichten

Installiere SHAP entweder über PyPI oder conda-forge:

pip install shap

oder

conda install -c conda-forge shap

Lade die Telekommunikationskundenabwanderung. Der Datensatz sieht sauber aus, und die Zielspalte ist "Churn".

import shap
import pandas as pd
import numpy as np
shap.initjs()

customer = pd.read_csv("data/customer_churn.csv")
customer.head()

Modellschulung und Bewertung

  1. Erstelle X und y mithilfe einer Zielspalte und teile den Datensatz in Train und Test.
  2. Trainiere den Random Forest Classifier mit der Trainingsmenge.
  3. Mache Vorhersagen mit Hilfe einer Testgruppe.
  4. Klassifizierungsbericht anzeigen.
from sklearn.metrics import classification_report
from sklearn.model_selection import train_test_split

X = customer.drop("Churn", axis=1) # Independent variables
y = customer.Churn # Dependent variable

# Split into train and test 
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)

# Train a machine learning model
from sklearn.ensemble import RandomForestClassifier
clf = RandomForestClassifier()
clf.fit(X_train, y_train)

# Make prediction on the testing data
y_pred = clf.predict(X_test)

# Classification Report
print(classification_report(y_pred, y_test))

Das Modell hat aufgrund eines unausgewogenen Datensatzes eine bessere Leistung für das Label "0" als für das Label "1" gezeigt. Insgesamt ist es ein akzeptables Ergebnis mit 94% Genauigkeit.

              precision    recall  f1-score   support

           0       0.97      0.96      0.97       815
           1       0.79      0.82      0.80       130

    accuracy                           0.94       945
   macro avg       0.88      0.89      0.88       945
weighted avg       0.94      0.94      0.94       945

In unserem Leitfaden zur Klassifizierung im maschinellen Lernen erfährst du mehr über die Klassifizierung im maschinellen Lernen anhand von Python-Beispielen.

SHAP Explainer einrichten

Jetzt kommt der Teil mit dem Erklärungsmodell.

Wir erstellen zunächst ein Erklärungsobjekt, indem wir ein Random-Forest-Klassifizierungsmodell bereitstellen, und berechnen dann den SHAP-Wert anhand einer Testmenge.

explainer = shap.Explainer(clf)
shap_values = explainer.shap_values(X_test)

Zusammenfassung des Plots

Zeige die summary_plot mit den SHAP-Werten und dem Testset an.

shap.summary_plot(shap_values, X_test)

Die zusammenfassende Darstellung zeigt die Bedeutung jedes Merkmals im Modell. Die Ergebnisse zeigen, dass "Status", "Beschwerden" und "Häufigkeit der Nutzung" eine wichtige Rolle bei der Ermittlung der Ergebnisse spielen.

Zeige die summary_plot des Labels "0" an.

shap.summary_plot(shap_values[0], X_test)
  • Die Y-Achse zeigt die Namen der Merkmale in der Reihenfolge ihrer Bedeutung von oben nach unten an.
  • Die X-Achse stellt den SHAP-Wert dar, der den Grad der Veränderung der logarithmischen Quoten angibt.
  • Die Farbe jedes Punktes auf dem Diagramm steht für den Wert des entsprechenden Merkmals, wobei Rot für hohe und Blau für niedrige Werte steht.
  • Jeder Punkt steht für eine Datenzeile aus dem Originaldatensatz.

Wenn du dir das Merkmal "Beschwerden" ansiehst, wirst du sehen, dass es meist hoch ist und einen negativen SHAP-Wert hat. Das bedeutet, dass sich eine höhere Anzahl von Beschwerden eher negativ auf die Leistung auswirkt.

Hinweis: Bei der Bezeichnung "1" wird die Visualisierung gespiegelt.

Abhängigkeitsdiagramm

Visualisiere die dependence_plot zwischen dem Merkmal "Abonnementlänge" und "Alter".

shap.dependence_plot("Subscription Length", shap_values[0], X_test,interaction_index="Age")

Ein Abhängigkeitsdiagramm ist eine Art Streudiagramm, das zeigt, wie die Vorhersagen eines Modells von einem bestimmten Merkmal (Abonnementlänge) beeinflusst werden. Im Durchschnitt wirken sich die Abonnementlängen meist positiv auf das Modell aus.

Kraftplot

Wir untersuchen die erste Probe in der Testgruppe, um festzustellen, welche Merkmale zu dem Ergebnis "0" beigetragen haben. Dazu verwenden wir ein Kraftdiagramm und geben den erwarteten Wert, den SHAP-Wert und die Testprobe an.

shap.plots.force(explainer.expected_value[0], shap_values[0][0,:], X_test.iloc[0, :], matplotlib = True)

Wir können deutlich sehen, dass null Beschwerden und null Anrufausfälle zu einem negativen Kundenverlust beigetragen haben.

Betrachten wir die Kundenabwanderungsmuster mit dem Label "1".

shap.plots.force(explainer.expected_value[1], shap_values[1][6, :], X_test.iloc[6, :],matplotlib = True)

Du kannst alle Funktionen mit dem Wert und dem Ausmaß sehen, die zu einem Kundenverlust beigetragen haben. Es scheint, dass schon eine einzige ungelöste Beschwerde ein Telekommunikationsunternehmen kosten kann.

Entscheidung Plot

Wir werden nun die decision_plot anzeigen. Sie stellt die Modellentscheidungen visuell dar, indem sie die kumulativen SHAP-Werte für jede Vorhersage abbildet.

shap.decision_plot(explainer.expected_value[1], shap_values[1], X_test.columns)

Jede gezeichnete Linie auf dem Entscheidungsdiagramm zeigt, wie stark die einzelnen Merkmale zu einer einzelnen Modellvorhersage beigetragen haben, und erklärt so, welche Merkmalswerte die Vorhersage beeinflusst haben.

Hinweis: Das Entscheidungsdiagramm für die Zielmarke "1" ist in Richtung "1" geneigt.

Zeige den Entscheidungsplot für die Zielbeschriftung "0" an

shap.decision_plot(explainer.expected_value[0], shap_values[0], X_test.columns)

Denn das Entscheidungsdiagramm ist gegen "0" geneigt.

Anwendung der SHAP-Werte

Abgesehen von der Interpretierbarkeit und Erklärbarkeit des maschinellen Lernens kann der SHAP-Wert für Folgendes verwendet werden:

  1. Modell-Debugging. Durch die Untersuchung der SHAP-Werte können wir alle Verzerrungen oder Ausreißer in den Daten erkennen, die das Modell zu Fehlern verleiten könnten.
  2. Bedeutung der Funktion. Durch die Identifizierung und Entfernung von Merkmalen mit geringer Auswirkung kann ein optimiertes Modell erstellt werden.
  3. Erklärungen zur Verankerung. Wir können SHAP-Werte nutzen, um einzelne Vorhersagen zu erklären, indem wir die wesentlichen Merkmale hervorheben, die diese Vorhersage verursacht haben. Sie kann den Nutzern helfen, die Entscheidungen eines Modells zu verstehen und ihnen zu vertrauen.
  4. Modellzusammenfassungen. Es kann eine globale Zusammenfassung eines Modells in Form einer SHAP-Wert-Zusammenfassung liefern. Sie gibt einen Überblick über die wichtigsten Merkmale des gesamten Datensatzes.
  5. Vorurteile aufdecken. Die SHAP-Wertanalyse hilft dabei, festzustellen, ob bestimmte Merkmale bestimmte Gruppen unverhältnismäßig stark betreffen. Sie ermöglicht die Erkennung und Reduzierung von Diskriminierung im Modell.
  6. Fairness-Prüfung. Sie kann genutzt werden, um die Fairness und die ethischen Implikationen eines Modells zu bewerten.
  7. Regulatorische Zulassung. Die SHAP-Werte können helfen, die Genehmigung der Behörden zu erhalten, indem sie die Entscheidungen des Modells erklären.

Fazit

Wir haben die SHAP-Werte untersucht und wie wir sie nutzen können, um Modelle für maschinelles Lernen interpretierbar zu machen. Ein genaues Modell ist zwar wichtig, aber die Unternehmen müssen über die Genauigkeit hinausgehen und sich auf die Interpretierbarkeit und Transparenz konzentrieren, um das Vertrauen der Nutzer und der Regulierungsbehörden zu gewinnen.

Wenn du in der Lage bist zu erklären, warum ein Modell eine bestimmte Vorhersage getroffen hat, kannst du mögliche Verzerrungen beseitigen, Datenprobleme erkennen und die Entscheidungen des Modells rechtfertigen.

Wenn du neu im Bereich des maschinellen Lernens bist und dich für den Job fit machen willst, solltest du den Berufswunsch Machine Learning Scientist with Python in Betracht ziehen. Dieses Programm hilft dir dabei, die notwendigen Python-Kenntnisse zu erlangen, um ein/e Wissenschaftler/in für maschinelles Lernen zu werden und einen Job zu bekommen.

Verdiene eine Top-KI-Zertifizierung

Zeige, dass du KI effektiv und verantwortungsbewusst einsetzen kannst.

Photo of Abid Ali Awan
Author
Abid Ali Awan
LinkedIn
Twitter

Als zertifizierter Data Scientist ist es meine Leidenschaft, modernste Technologien zu nutzen, um innovative Machine Learning-Anwendungen zu entwickeln. Mit meinem fundierten Hintergrund in den Bereichen Spracherkennung, Datenanalyse und Reporting, MLOps, KI und NLP habe ich meine Fähigkeiten bei der Entwicklung intelligenter Systeme verfeinert, die wirklich etwas bewirken können. Neben meinem technischen Fachwissen bin ich auch ein geschickter Kommunikator mit dem Talent, komplexe Konzepte in eine klare und prägnante Sprache zu fassen. Das hat dazu geführt, dass ich ein gefragter Blogger zum Thema Datenwissenschaft geworden bin und meine Erkenntnisse und Erfahrungen mit einer wachsenden Gemeinschaft von Datenexperten teile. Zurzeit konzentriere ich mich auf die Erstellung und Bearbeitung von Inhalten und arbeite mit großen Sprachmodellen, um aussagekräftige und ansprechende Inhalte zu entwickeln, die sowohl Unternehmen als auch Privatpersonen helfen, das Beste aus ihren Daten zu machen.

Themen
Verwandt

Der Blog

Die 32 besten AWS-Interview-Fragen und Antworten für 2024

Ein kompletter Leitfaden zur Erkundung der grundlegenden, mittleren und fortgeschrittenen AWS-Interview-Fragen, zusammen mit Fragen, die auf realen Situationen basieren. Es deckt alle Bereiche ab und sorgt so für eine abgerundete Vorbereitungsstrategie.
Zoumana Keita 's photo

Zoumana Keita

15 Min.

See MoreSee More