Handlungsempfehlungen helfen Experten, schnell gute und konsistente Entscheidungen für fachliche Probleme zu treffen. Dabei werden die relevanten Entscheidungsmerkmale und deren Beziehungen untereinander visualisiert. Mittels erklärbarer künstlicher Intelligenz können Handlungsempfehlungen selbst für schwierige Problemstellungen generiert werden, die bisher Experten vorbehalten blieben.
Bei welchen Problemen Handlungsempfehlungen wie helfen, zeigen unsere Kollegen Tobias Goerke und Benjamin Wolters.
Entscheidungen über eine Leistung, die unmittelbare monetäre Konsequenzen mit sich bringen oder gar über den Fortbestand einer Vertragsbeziehung entscheiden, bleiben weiterhin menschlichen Experten überlassen. Ausnahmen sind nur möglich, wenn klare Regeln bekannt und diese gesetzlich abgesichert sind. Ein Beispiel ist die Ablehnung einer Kreditanfrage mit inakzeptabler Bonität des Kreditnehmers. Ist das Rating dagegen in Ordnung, dann wird die letztendliche Genehmigung des Kredits in der Regel ein Mensch übernehmen. Wobei seit einiger Zeit zunehmend auch Kredite in moderater Höhe und guter Bonität automatisiert freigegeben werden.
Anomalie oder bekannter Geschäftsfall
Wichtig ist die Unterscheidung zwischen einem sehr seltenen Geschäftsfall und Fällen, die in ähnlicher Form bereits entschieden wurden. Im folgenden Prozess betrachten wir den blauen Pfad. Hier werden seltene Leistungsanträge durch eine Anomalieerkennung direkt zur klassischen Prüfung aussortiert. Handelt es sich um keine Anomalie, dann wird ein Modell, basierend auf einer künstlichen Intelligenz bzw. maschinellem Lernen, den Geschäftsfall bewerten und zur klassischen Prüfung geben. Vor der Prüfung wird nun eine Handlungsempfehlung erstellt.
Empfehlungen für Anomalien
Für jeden Leistungsantrag wird zunächst eine Anomalieanalyse durchgeführt. Sollte der Einzelfall als Ausnahme identifiziert werden, besteht für das Modell ein erhöhtes Risiko zur Fehlklassifikation. In diesem Fall kommt Erklärbare Künstliche Intelligenz (XAI) zum Tragen und erklärt durch die sogenannte Counterfactual-Erklärung, welche Ausprägungen des Leistungsantrags eine Anomalie erzeugen und unter welchen Umständen ein Normalfall vorläge. Diese Informationen werden der klassischen Prüfung hinzugefügt, wodurch diese Prüfung daraufhin leichter fällt, da aufgeklärt wurde, aus welchem Grund die vorliegende Entscheidung besonders ist. Hierfür bedarf es keines KI-Experten, denn das Format der Erklärung ist an die Fachdomäne gebunden.
Empfehlungen in Routineentscheidungen
Im Fall keiner Anomalie wird ein KI-Modell zur Klassifikation von Freigabe oder Ablehnung eingesetzt. Für das Klassifikationsergebnis wird erneut eine XAI-Erklärung erstellt und der Antrag inkl. Erklärung zur klassischen Prüfung übergeben. Die Erklärung umfasst die Merkmale und deren Beziehung zueinander, die die historisch entschiedenen Fälle beinhalten. Somit werden die von einer KI erkannten Zusammenhänge transparent. Anstatt nun den gesamten Geschäftsfall zu überdenken, werden Menschen direkt zu Beginn auf die relevanten Merkmale aufmerksam gemacht, wodurch eine beschleunigte Bearbeitung möglich wird.
Warum ist Erklärbarkeit wichtig?
Die Handlungsempfehlungen ermöglichen Entscheiderinnen und Entscheidern, die Kontrolle über einen automatisierten Prozess zu wahren, und entfalten somit das gesamte Potenzial von Künstlicher Intelligenz. Denn bisher fehlte KI meist die Möglichkeit, sich selbst zu erklären. Somit wurde eine tatsächliche Prozessautomatisierung durch fehlendes Vertrauen und fehlende Transparenz verhindert - die KI stand sich in sensiblen Prozessen quasi selbst im Weg.
Das aktuell stark an Bedeutung gewinnende Forschungsgebiet Erklärbarer Künstliche Intelligenz oder XAI löst diese Herausforderung, indem es das Öffnen der Black-Box und das Extrahieren seiner Beweggründe ermöglicht. Hierdurch können Entscheidungsbegründungen in komplexen Ausnahmefällen durch menschliche Mithilfe validiert und im Regelfall effizient und vollständig automatisiert bearbeitet werden. So werden Unsicherheiten aufgelöst und KI-Entscheidungsprozesse mit maximalem Wirkungsgrad automatisiert.
Zusammenfassung
Der Prozess wird intelligent automatisiert, während das Risiko einer teuren Fehlentscheidung minimiert wird. Es wird also ein bisher nicht vorhanden geglaubter Kompromiss gefunden, der dem effizienten Einsatz von KI bislang fehlte. Hierfür wird auf eine menschliche Prüfung zurückgegriffen, die Unsicherheiten aufklären kann. Diese kommt jedoch nur in wenigen Ausnahmefällen zum Einsatz.
Handlungsempfehlungen beschleunigen somit Geschäftsprozesse und sorgen für mehr Konsistenz, ohne dabei Risiken wie Black-Box-Entscheidungen, Qualitätsmängel oder juristische Restriktionen einzugehen.
zurück zur Blogübersicht