Am 21. April hat die EU-Kommission einen Entwurf für eine Verordnung über ein europäisches Konzept für Künstliche Intelligenz vorgelegt. Das Ziel hierbei ist in Europa eine Basis für einen vertrauenswürdigen Umgang mit Künstlicher Intelligenz zu schaffen – was bedeutet dieser Entwurf für Ihre Anwendung von Künstlicher Intelligenz?
Europa als "global hub of excellence in AI" , das ist das langfristige Ziel der EU-Kommission. Hierbei wird auf einen sicheren, gesetzeskonformen und vor allem menschenrechtachtenden Einsatz von KI gezielt. Mit der vorgestellten Verordnung für Künstliche Intelligenz soll die Grundlage für einen vertrauenswürdigen Umgang mit KI-Systemen geschaffen und ein weltweites Vorbild etabliert werden. Innovationen, Investments und Entwicklungen im Bereich KI sollen in Europa unterstützt werden und eine Wettbewerbsposition mit weltweit hohen Standards sichern.
Für Unternehmen ändert sich nur, dass die ohnehin für verantwortungsvolle KI-Anwendungen benötigten Entwicklungsschritte je nach Anwendungsfall nun vorgeschrieben sind. Zu diesen Schritten gehört eine nachvollziehbare Modellbildung (MLOps), das Verstehen von Blackboxen und vor allem die ethische Bewertung des Anwendungsfalls in eine der folgenden Risikogruppen.
Wie werden Risiken bewertet?
Um die Weiterentwicklung von KI zu fördern und angemessene Regulatorik auch in der Zukunft zu gewähren, hat die EU-Kommission einen flexiblen, risikobasierten Ansatz gewählt. Jedes KI-System wird einer der vier Risikostufen zugeordnet - inakzeptables Risiko, hohes Risiko, begrenztes Risiko oder minimales Risiko. Die Grundlage dieser Bewertung ist das Gefahrenpotenzial bezogen auf Gesundheit, Sicherheit und Grundrechte einer Person.
Systeme mit unakzeptablem Risiko werden verboten, Hoch-Risiko-Systeme stark reguliert. Mit einem geringeren Risiko verbundene Systeme werden nur sehr schwach reguliert. Während Systeme mit minimalem Risiko nicht von der Regulation betroffen sind, müssen Systeme mit begrenztem Risiko den Einsatz von KI transparent machen. Beispielsweise im Fall eines Chatbots oder einer Telefonhotline muss die nutzende Person über den Einsatz von KI informiert werden und kann selbst entscheiden, ob sie das System nutzen möchte. Diese Entscheidung muss, ähnlich einem DSGVO-Opt-In, in der Steuerungsschicht von KI-Anwendungen, berücksichtigt sein (vgl. bpmn.ai Pattern - Data Protection & Compliance).
Systeme mit inakzeptablem Risiko
KI-System, die ein Risiko für die Sicherheit, das Leben oder die Grundrechte von Menschen darstellen, werden als mit einem nicht akzeptierbaren Risiko verbunden eingestuft. Diese umfassen auch Social Scoring oder Systeme, die das Verhalten von Menschen manipulieren. Dennoch existiert eine Liste von Ausnahmefällen, in denen biometrische Massenüberwachungsinstrumente durch Strafverfolgungsbehörden nach nationalem Recht zulässig sein können. Zu den möglichen Anwendungsszenarien gehören das Aufdecken von Kindesentführungen oder geplanten Terroranschlägen. Die internationale Vereinigung von Bürgerrechtsbewegungen European Digital Rights nimmt hier dazu Stellung.
Für Business-Anwendungen für Unternehmen mit einem intakten Werteverständnis sind die Details zu dieser Risikokategorie nicht weiter relevant – sie werden diese Anwendungsfälle ohnehin nicht betreiben.
Systeme mit hohem Risiko
Systeme mit einem hohen Risiko sind der Schwerpunkt des Entwurfs. Für diese werden Ansprüche an Transparenz und angemessene Information der nutzenden Person gestellt. Systeme werden anhand des Einsatzgebiets, den möglichen Auswirkungen und der Wahrscheinlichkeit, mit der diese auftreten, bewertet. Der Gesetzesentwurf umfasst eine Liste von Systemen mit hohem Risiko (Annex III, High-risk AI systems referred to in article 6 (2)). Unter anderem werden Systeme für die Vergabe von Krediten oder Bewerberauswahl als hoch riskant eingestuft, da diese einen signifikanten Einfluss auf das Leben von Einzelpersonen oder Gruppen haben. Diese Systeme müssen die folgenden Anforderungen erfüllen:
- Verwendung von Daten mit hoher Qualität
- Angemessene Dokumentation
- Transparenz für Nutzer:innen
- Menschliche Kontrolle
- Hoher Standard bezogen auf Robustheit, (Cyber-) Security und Accuracy
Kapitel 2 des Gesetzesentwurfs spezifiziert diese Anforderungen weiter. In Artikel 14 wird die menschliche Kontrolle des Systems beschrieben. Hiernach ist es verpflichtend, Methoden zur Überwachung entweder zu implementieren oder der nutzenden Person bereitzustellen. Dem:der Anwender:in soll die Entscheidung ermöglicht werden, ob der Output des KI-Systems genutzt werden soll oder doch vielmehr eine individuelle Entscheidung notwendig ist (vgl. bpmn.ai Pattern - Intervenability).
Eine Entscheidung setzt Verständnis über das KI-System und die Limits von diesem voraus. Wie kann solch eine Transparenz geschaffen werden? Wir haben gute Erfahrungen gemacht, indem ein Schwellwert eingeführt wurde für die Genauigkeit, mit der ein KI-System entscheidet (vgl. Intelligente Geschäftsprozesse). Ein anderer Ansatz, um hier die menschliche Kontrolle zu ermöglichen, ist der Einsatz von einfachen regelbasierten Verfahren oder Explainable AI (XAI). Hier werden die Entscheidungen des Systems beleuchtet. Aus der Perspektive des Providers solcher Systeme sind globale Perspektiven, wie bei den SHAP Values, von Interesse. Doch auch bezogen auf eine:n einzelne:n Nutzer:in können die Entscheidungen des KI-Systems durch lokale XAI-Methoden erklärt werden.
Überwachung durch KI oder Einschränkung der Innovation in Europa?
Nicht nur die Regeln zur biometrischen Massenüberwachung haben viele Diskussionen angeregt. Systeme, die das Verhalten oder Entscheidungen manipulieren, haben laut des Entwurfs ein inakzeptables Risiko. Ab wann wird Verhalten manipuliert? Ist bereits das Anzeigen von personalisierter Werbung oder die Beeinflussung von Wahlen durch politische Werbung eine Form der Manipulation? Hier ist der Entwurf sehr ungenau verfasst. Die Einteilung in feste Risikostufen wird durch den individuellen Einsatz von Systemen und den entsprechend variierenden Risiken erschwert.
Ein weiterer Kritikpunkt sind mögliche Diskriminierungen durch KI-Systeme aufgrund mangelnder Datenqualität. Das KI-System zur Bewerberauswahl durch Amazon, das aufgrund mangelnder Repräsentation von weiblichen Einstellungen Männer bevorzugte, ist nur ein Beispiel. Rückwirkend sind diese Fehler häufig leicht zu identifizieren. Um diese bereits früh im Lifecycle zu erkennen, sind spezielle Maßnahmen, wie beispielsweise Methoden des XAI, notwendig. Insbesondere entwickeln sich Systeme dieser Art oft inhaltlich weiter: Nicht durch autarkes Lernen, sondern wenn das Data Science-Team im Zuge der Entwicklung besser versteht, was möglich und was wünschenswert ist. "Das System", das es zu bewerten und zu regulieren gilt, ist folglich oft ein bewegliches Ziel.
Allgemein fordert die EU-Kommission einen hinterfragenden, kritischen und qualitativ hochwertigen Einsatz von KI-Systemen. Hierdurch wird einerseits ein hoher Standard in Europa und eine Vorbildrolle etabliert, andererseits birgt dies die Gefahr, Innovationen und Investitionen in KI zu hemmen. Der durch die EU-Kommission vorgelegte Entwurf wird durch den EU-Rat der Mitgliedstaaten und das Parlament geprüft, bevor das Gesetz erlassen werden kann. Es bleibt spannend, wie das finale Gesetz aussehen wird.
Über das Gesetz hinaus: Der Einsatz von KI erscheint im Entwurf notwendig und wird strategisch angestrebt. Auf der Ebene einzelner Projekte ist die Frage nach dem richtigen IT-Werkzeug aber immer wieder zu stellen - KI ist weder Allheilmitteln noch Selbstzweck.
Wenn Sie sich weiter rund um das Thema KI informieren möchten, dann empfehlen wir unser Seminar "KI für Führungskräfte". In diesem lernen Sie alle relevanten Vorgaben richtig zu bewerten und zu lösen - auch schon vor der Inkraftsetzung der Verordnung.
Lesen Sie auch:
XAI: KI Einsetzen und verstehen
Explainable AI oder XAI (eXplainable Artificial Intelligence) benennt einen Ansatz, der maschinelles Lernen systematisch erklärt und validiert. Leider ist nicht jede XAI-Methode geeignet, jeden Anwendungsfall zu erklären. Um das Anwenden von XAI zu erleichtern, haben wir den XAI-Recommender XAIR entwickelt.
zurück zur Blogübersicht