Künstliche Intelligenz (KI) ist einer der wichtigsten Innovationstreiber bei Finanzdienstleistern. Allerdings sind viele Anwendungen sogenannte Blackbox-Modelle, bei denen die Bewertungen nicht nachvollzogen werden können. Das kann zu erheblichen Nutzungsrisiken führen, die inzwischen auch die Aufsichtsbehörden beschäftigen. Abhilfe schaffen Methoden der Explainable Artificial Intelligence (XAI), die auf unterschiedliche Arten die Erklärung von KI-Modellen möglich machen. Die Experten der PPI AG stehen Finanzinstituten bei der Einführung und Nutzung von XAI zur Seite.
Anwendungen aus der KI sind häufig Blackbox-Modelle. Der Grund: Sie führen derart komplexe Berechnungen durch, dass die ausgegebenen Resultate nur schwer oder gar nicht nachvollziehbar sind. Zwar lassen sich einzelne Rechenschritte beobachten und durch eine verständliche Formel darstellen. Die meist hohe Anzahl dieser Einzelberechnungen bringt das menschliche Gehirn jedoch schnell an seine Grenzen. Im Ergebnis entstehen dadurch neue Risiken, wenn Entscheidungen oder Empfehlungen der KI nicht plausibel zu begründen sind.
So ist die Diskriminierung von Personengruppen ein mögliches Phänomen beim Einsatz von KI-Modellen. Ohne die an sich nötigen Prüfprozesse kann eine solche Benachteiligung über einen langen Zeitraum unbemerkt auftreten: Die Folgen können nicht unerhebliche Reputationsschäden und Vertrauensverluste sein. Zudem ist eine hohe Nutzerakzeptanz ein wichtiger Faktor für eine langfristig erfolgreiche Modellverwendung. XAI hilft, die Bewertungsgrundlagen für den Anwender transparent zu machen.
Angesichts der absehbar wachsenden Bedeutung von KI im Geschäftsbetrieb der Banken ist es nur folgerichtig, dass sich auch die Aufsichtsbehörden mit der Thematik beschäftigen. Sie fordern ganz explizit eine Erklärbarkeit von KI-Entscheidungen. Bisher gibt es jedoch noch keine einheitlichen Standards, die Transparenzanforderungen variieren je nach Einsatzgebiet und Risikostufe. Bereits bestehende Forderungskataloge der Behörden ohne direkten KI-Bezug sind zwar auch weiterhin anwendbar. In den hohen Risikostufen ist aber von einer zukünftigen Anpassung auf XAI-Methodiken auszugehen.
Es existieren zwei Gruppen von XAI-Methoden: Ante-hoc- und Post-hoc. Der Einsatz von Ante-hoc-Modellen vermeidet den Einsatz komplexer Blackbox-Modelle von vornherein und verwendet stattdessen ein transparentes und ebenso performantes Glassbox-Modell. Ein bekanntes Beispiel dafür ist die Explainer-Boosting-Machine (EBM). In den meisten Anwendungsbeispielen dominieren aber Blackbox-Modelle, vor allem aufgrund ihrer Vorhersagegenauigkeit. In solchen Fällen sind Post-hoc-Methoden gefragt, die sich wieder in zwei unterschiedliche Ansätze einteilen lassen. Lokal erklärbare Methoden wie zum Beispiel Shapley Values lassen die Bestimmung der Einflussgrößen einzelner Variablen auf die Entscheidung eines Blackbox-Modells zu. Globale Methoden verwenden sogenannte Surrogate-Modelle wie etwa den Tepan-Algorithmus zur Nachahmung der Vorhersagen der Blackbox im Ganzen. Dadurch lassen sich Aussagen über das KI-Modellverhalten über den ganzen Parameterraum hinweg treffen.
Der Einsatz von XAI lohnt gleich mehrfach. Zum einen hilft XAI, die korrekte Funktion der in einem Finanzinstitut verwendeten KI-Modelle sicherzustellen. Ungewollte Diskriminierungen, also ein Bias, werden so vermieden. Banken, die bereits jetzt auf XAI setzen, greifen zudem absehbar den Anforderungen der Aufsicht vor und können nachhaltige Lösungen entwickeln.
XAI ist aber nicht nur Mittel zum Zweck, durch ihren Einsatz werden auch neue, eigene Anwendungsfälle denkbar. So sind Zeitreihenmodelle, beispielsweise zur Prognose der Nachfrage in der Zukunft, ein beliebter Einsatzbereich von KI. Mit XAI ist eine sinnvolle Interpretation der Ergebnisse eines solchen Algorithmus deutlich einfacher. Aussagen wie „Die Anzahl der Neuabschlüsse von Verbraucherdarlehen wird sinken, da im Schnitt die Zinsen für Darlehen bis 10.000 Euro gesunken sind und im eigenen Haus die Zinsen unverändert sind“, sind naturgemäß deutlich hilfreicher als die bloße Prognose einer sinkenden Zahl von Neuabschlüssen.
Im Methodenkoffer einer KI-Strategie im Finanzbereich sollte XAI auf keinen Fall fehlen. Vor dem ersten Einsatz ist eine Orientierung darüber hilfreich, was die unterschiedlichen Methoden heute wirklich schon leisten können und welche Vor- und Nachteile sie haben. Zudem sollten einige Fragen geklärt sein, so zum Beispiel „Soll eine Erklärung bei jeder Anwendung mitgeliefert werden? Wie zeitkritisch ist die Modellausführung? Reicht mir lokale Erklärbarkeit aus? Bei welchen Modellen sehe ich einen Mehrwert?“ Die Experten der PPI AG haben in zahlreichen KI-Projekten umfangreiche Erfahrungen gesammelt und helfen gerne bei allen Fragen rund um XAI.
Marc-Nicolas Glöckner
Senior Manager
+49 171 8614272
Marc-Nicolas.Gloeckner(at)ppi.de
Jan Eßer
Consultant
+49 151 40565685
jan.esser(at)ppi.de