Inhalt

KI-Enquete
Sören Christian Reimer
»Vermummungsverbot« für Algorithmen

Expertin fordert Genauigkeit und Abkehr vom »Black-Box-Narrativ«

Für mehr Genauigkeit in der Debatte um KI-Transparenz hat sich Carla Hustedt von der Bertelsmann-Stiftung während eines Fachgespräches in der Enquete-Kommission zur Künstlichen Intelligenz (KI) ausgesprochen. Die Leiterin des Projekts "Ethik der Algorithmen" warb vergangene Woche zudem dafür, die Teilhabe-Relevanz eines algorithmischen Systems und nicht dessen technische Komplexität als Kriterium heranzuziehen, um Anforderungen an Kennzeichnung, Nachvollziehbarkeit und Überprüfbarkeit der Entscheidungsprozesse zu formulieren. Damit will Hustedt weg vom Black-Box-Narrativ, das sich rund um die Künstliche Intelligenz gebildet hat.

Als Black Box wird das Phänomen bezeichnet, dass Entscheidungen von Systemen, die etwa maschinell mit sogenannten neuralen Netzen lernen, grundsätzlich nicht nachvollziehbar sind. Wie eine KI-Bilderkennung nun unterscheidet, was Katze, was Hund und was Maus ist, bleibt erstmal unklar. Im Fall der Bilderkennung mag es für die meisten Menschen auch relativ egal sein, wie der Algorithmus genau funktioniert. Das ändert sich aber schlagartig, werden solch komplexe Systeme etwa eingesetzt, um Kreditwürdigkeit von Menschen zu prüfen oder die Rückfallwahrscheinlichkeit von Straftätern zu prognostizieren.

"Nicht jede Black Box muss geöffnet werden", sagte Hustedt. Die Kernfrage sei, ob die jeweiligen Systeme einen "signifikanten Einfluss auf die Teilhabe von Menschen an gesellschaftlich relevanten Gütern haben". Das gelte für die aktuell eingesetzten komplexen KI-Systeme meist nicht, wohl aber für weniger komplexe Softwareprogramme, betonte Hustedt.

Klärung der Ziele Neben der Genauigkeit mit Bezug auf die Frage, an welche algorithmischen Systeme Transparenzanforderungen gestellt werden, mahnte die Sachverständige, zu klären, wozu überhaupt Transparenz verlangt werden soll, und daraus abgeleitet, in welcher Form diese hergestellt werden könne. Transparenz sei kein Selbstzweck, sondern ein "wirkungsvoller Hebel". So könne durch Transparenz etwa Vertrauen und Akzeptanz für algorithmische Entscheidungsprozesse geschaffen werden. Transparenz sei aber auch eine "unverzichtbare Grundlage", um gegebenenfalls Rechtsverletzungen zu erkennen; Transparenz könne aber auch dazu dienen, den Nutzern die Wahl zwischen verschiedenen Systemen zu ermöglichen.

In der konkreten Umsetzung warb die Bertelsmann-Expertin für die Notwendigkeit verschiedener Arten von Transparenz: Kennzeichnung, Nachvollziehbarkeit und Überprüfbarkeit. Grundlegend sei die Erkennbarkeit. "Wir brauchen ein Vermummungsverbot für algorithmische Systeme", sagte Hustedt. Gerade wenn staatliche Akteure auf solche Systeme setzten, müssten auch "Funktionsweisen Ziele, Werteentscheidungen, erwartete Wirkung und Qualität der Systeme nachvollziehbar gemacht werden". Um negative Wirkungen bestimmter Systeme identifizieren zu können, benötige es Beschwerde- und Überprüfungsinstanzen.

Konkret empfahl Hustedt unter anderem, diese Transparenzanforderungen in staatliche Vergabestandards aufzunehmen. Staatlich beauftragte Software-Entwickler sollten so verpflichtet werden, die Überprüfung durch Dritte sowie die Schaffung von Nachvollziehbarkeit aktiv zu unterstützen. Zudem müssten Aufsichtsbehörden rechtlich und bei ihren Ressourcen gestärkt und zivilgesellschaftlicher Watchdog-Organisationen gefördert werden.scr

Aus Politik und Zeitgeschichte

© 2016 Deutscher Bundestag