Piwik Webtracking Image

KÜNSTLICHE INTELLIGENZ : »Kein Tsunami«

Die Politikwissenschaftlerin Isabella Hermann über die Gestaltung des Fortschritts

01.10.2018
2023-08-30T12:34:35.7200Z
6 Min

Frau Hermann, im Bundestag hat sich vergangene Woche die Enquete-Kommission zur "Künstlichen Intelligenz" konstituiert (siehe Seite 14). Das stellt sich als erstes natürlich die Frage: Was ist eigentlich "Künstliche Intelligenz", die gerade in aller Munde ist?

Das fragt sich eigentlich jeder. Ich habe da eine ganz pragmatische Definition: Künstliche Intelligenz (KI) ist seit den 1950er Jahren ein Forschungsfeld der Informatik. Damals wie heute ging es darum, Maschinen das tun zu lassen, was Menschen mit Intelligenz tun, also sinngemäß und zweckbestimmt zu agieren. Früher waren die Maschinen noch nicht so weit, der Mensch war haushoch überlegen. Das hat sich mittlerweile geändert. In manchen Nischen sind nun Maschinen überlegen: KI-gestützte Systeme können beispielsweise besser Schach oder Go spielen als Menschen. Dieser Fortschritt in der Entwicklung hat allerdings dazu geführt, dass sich die Diskussion über KI verschoben hat

Inwiefern?

Es geht inzwischen häufig um fast philosophisch aufgeladene Fragestellungen. Was ist Intelligenz? Darf man Maschinen überhaupt als intelligent bezeichnen? Wann spricht man Maschinen Kreativität oder Emotionen zu? Das betrifft dann eher menschliche Urängste und hat weniger mit konkreten KI-Anwendungen zu tun. Nun gibt es verschiedene Perspektiven auf KI, die alle ihre Berechtigung haben, aber als Politikwissenschaftlerin sehe ich, dass damit an den entscheidenden Problemen vorbei diskutiert wird. Die Diskussion müsste eigentlich darum gehen, was heute machbar ist und wie wir damit als Gesellschaft umgehen wollen.

Welche Rolle spielt dabei Verantwortung, ein Begriff, der im Mittelpunkt der von Ihnen koordinierten interdisziplinären Arbeitsgruppe steht?

Bei den Entwicklungen, bei denen es etwa um Leben und Tod geht, beispielsweise im Gesundheitswesen, beim autonomen Fahren oder bei militärischen Anwendungen, stellt sich die Frage, wann ich als Mensch in der Verantwortung bin, KI einzusetzen, und wann nicht. Beim Verkehr könnte es so sein, dass die Vorteile durch KI - weniger Verkehrstote, weniger Unfälle - so groß sein werden, dass es eigentlich unverantwortlich wäre, solche Systeme nicht einzusetzen. Der Mensch müsste dann Verantwortung abgeben, das ist die eine Seite. Auf der anderen Seite steht in unserem politischen Wertesystem der Mensch im Mittelpunkt und übernimmt eben die ethische und rechtliche Verantwortung für sein Tun. Diese beiden Seiten auszutarieren und zu versöhnen, ist die große Herausforderung.

Sie sprachen schon von Urängsten, es geht in der Debatte aber auch um ganz konkrete Sorgen wie beispielsweise wegfallende Arbeitsplätze. Ist dieser Diskurs zu angstgetrieben?

Der Diskurs ist hierzulande sehr risiko- und angstbehaftet. Es ist natürlich wichtig, über Probleme zu reden, aber mir fehlt die positive Ausrichtung. Letztlich haben wir da neue Technologien, die uns das Leben in vielerlei Hinsicht erleichtern und uns von Routineaufgaben befreien könnten. Wir brauchen aber eine Debatte in Gesellschaft und Politik, um klarzustellen, was wir wollen. Technologie ist ja kein Tsunami, der über uns hineinbricht, sondern kann und soll gestaltet werden.

Das wäre dann auch eine Aufgabe für die Enquete-Kommission?

Es ist ureigene Aufgabe der Politik, dafür zu sorgen, dass unsere Werte realisiert werden und Zukunft entsprechend gestaltet wird. Dazu gehört es, Minderheiten zu schützen und unfaire Diskriminierung zu vermeiden. Und im Feld der KI bestehen eben diese Gefahren durch Datenbias, also verzerrte Daten, oder diskriminierende Algorithmen.

Was meinen Sie damit?

Aktuell bedeutet KI vor allem maschinelles Lernen. Das hat die Sprünge in letzter Zeit ermöglicht. Die Maschinen und ihre Algorithmen lernen durch Daten. Die vorliegenden Daten sind praktisch die digitalisierten Erfahrungen der Menschen. Unsere Geschichte ist aber nicht fair verlaufen, Diskriminierung gab und gibt es gegenüber allen möglichen Menschen in einer Gesellschaft, gegenüber Minderheiten und Randgruppen. Das bildet sich auch in den Daten ab. Wenn ich die Maschinen also mit diesen Daten füttere, dann übertrage ich diese Ungerechtigkeit in die Zukunft.

Wo lässt sich so etwas konkret beobachten?

Das beste Beispiel ist das "Predictive Policing" in den USA. Dort kaufen Polizeibehörden bei Firmen Algorithmen ein und stellen dafür ihre Daten, quasi den digitalisierten Erfahrungsschatz der Polizei, zur Verfügung. Auf deren Basis werden dann Vorhersagen getroffen und Bewertungen vorgenommen. Das ist ein Problem, denn es geraten bisher nicht straffällig gewordene Bürger ins Blickfeld der Polizei, die zu einer Referenzgruppe gehören, die in der Vergangenheit vermeintlich kriminell war. Da werden etwa Wohnort, beruflicher Werdegang oder Kaufverhalten als Merkmale herangezogen oder ob Bekannte bereits straffällig geworden sind. Und interessanterweise trifft es vorwiegend Afroamerikaner. Jetzt könnte man meinen, dass das logisch sei, denn das sei ja die Gruppe, die am meisten Verbrechen begehe. Aber diese Vorhersagen beruhen auf Daten der Vergangenheit und diese bilden damit auch die erwiesenermaßen vorhandene rassistische Diskriminierung von Afroamerikanern durch Strafverfolgungsbehörden und die Justiz ab.

Programmierer müssten einen Algorithmus also nicht nur nach technischen Gesichtspunkten erstellen, sondern auch auf gesellschaftliche Probleme wie strukturellen Rassismus achten?

Das ist der Punkt. Und da kommt dann die Politik ins Spiel. Denn natürlich kann diese Verantwortung nicht den Programmierenden überlassen werden. Das gilt ja auch für andere Anwendungen etwa medizinische Diagnoseverfahren. Da geht es um Fragen, wie diagnostiziert wird und welche Therapievorschläge gemacht werden. Da gibt es ganz ähnliche Herausforderungen.

Muss es also eine Institution geben, die Algorithmen und Daten prüft? Immerhin geht es dabei auch um Geschäftsgeheimnisse.

Das ist eine der relevanten Fragen, die wir auch in unserer interdisziplinären Arbeitsgruppe diskutieren. Es gibt noch keine definitive Antwort, aber es gibt Möglichkeiten, Algorithmen zu prüfen, ohne sie komplett offenzulegen. Man könnte sich die Ergebnisse anschauen und prüfen, ob sie unfair beziehungsweise in einer Weise verzerrt sind, die wir als Gesellschaft nicht tragen wollen oder können. So etwas könnte ein externes Expertengremium durchführen. Aber es gibt auch in den Unternehmen selbst schon Ansätze, ihre Algorithmen auf solche Probleme hin zu untersuchen.

Die Entwicklung von KI wird von Konzernen angetrieben. Google, Facebook und Co. sind dabei. Ist da ein Primat der Politik oder ein Primat des gesellschaftlichen Diskurses realistisch?

Das ist ein großes Problem, vor allem weil diese Konzerne selbst politisch agieren. Hinter dem Pioniergeist des Silicon Valley steckt die Vorstellung, dass soziale Probleme einfach technisch gelöst werden könnten. Das klingt zunächst vielversprechend, ist aber im Grunde demokratiefeindlich und reichlich naiv. Diese utilitaristische technikbasierte Anschauung von bestimmten Konzernen, die glauben, mit Datenanalysen das Wohl der Gesellschaft bestimmen zu können, könnte demokratische Grundideen wie Minderheitenschutz oder Schutz vor Diskriminierung aushebeln. Darum ist die Politik sehr stark gefragt, wenn wir an einem Werteverständnis festhalten wollen, in dem der Mensch im Mittelpunkt steht. Dass die Politik dabei keine Möglichkeit hat, gestaltend einzugreifen, halte ich eher für eine Mär.

Woran denken Sie dabei?

Die Datenschutzgrundverordnung der EU - was auch immer man von ihr halten mag - zum Beispiel. Die hat großen Einfluss in diesem Bereich und legt fest, mit welchen Daten Konzerne wie und wozu umgehen können. Es ist also nicht so, dass die Politik keine Hebel hat, um zu gestalten. Es braucht nur Geduld, denn die Politik ist langsam. Aber dieses Jahr ist in Deutschland geradezu Aktionismus ausgebrochen mit vielen verschiedenen Kommissionen und Expertengremien zu KI. Dass die Politik aber durchaus Macht hat, zeigt auch ein Blick nach China, wo die neuen Technologien zur Überwachung und Kontrolle eingesetzt werden. Dort ist die Politik Antreiber und Bestimmer der Entwicklung. Das ist aber natürlich ein ganz anderes Gesellschaftmodell, das mit unseren Werten nicht übereinstimmt. Um dagegen zu bestehen und die Zukunft nach unseren Werten zu gestalten, brauchen wir vor allem auch die europäische Ebene.

Das Gespräch führte Sören Christian Reimer.

Zur Person: Isabella Hermann ist wissenschaftliche Koordinatorin der Interdisziplinären Arbeitsgruppe ,,Verantwortung: Maschinelles Lernen und Künstliche Intelligenz" der Berlin-Brandenburgischen Akademie der Wissenschaften ( http://www.bbaw.de/forschung/verantwort-maschinelles-lernen-und-kuenstliche-intelligenz ). Die interdisziplinäre Gruppe fragt nach der ethisch-juristischen Verantwortung durch maschinelles Lernen und künstliche Intelligenz im digitalen Zeitalter.