Piwik Webtracking Image

Künstliche Intelligenz : Was passiert in der Blackbox?

Algorithmen können Leben retten - und zerstören. Wie genau das passiert, wird noch erforscht

02.07.2018
2023-08-30T12:34:31.7200Z
7 Min

Maschinen können schon heute vieles besser als Menschen - und das ist durchaus Grund zur Hoffnung: Kürzlich zeigte eine Art Wettkampf zwischen Mensch und Maschine, den unter anderem Forscher der Uni Heidelberg gemeinsam mit US-amerikanischen Kollegen ausrichteten, dass Computer Hautkrebs besser erkennen können als Hautärzte. Während die Algorithmen 95 Prozent der gefährlichen Melanome auf Bildern erkannten, fanden die Dermatologen nur 86 Prozent.

Geschuldet ist das der Künstlichen Intelligenz (KI): Die modernen Algorithmen sind beeindruckend konsequente Mustererkenner. Dank dieser Fähigkeit fallen ihnen Korrelationen auf, die für Menschen kaum sichtbar oder auch nicht intuitiv sind. Das erwähnte System hatte zuvor 100.000 Bilder von kranken und gesunden Hautstellen gesehen und anhand dieser selbständig gelernt, woran man ein gefährliches Melanom erkennt. Anders als lernende Hautärzte bekam die lernende Künstliche Intelligenz also nicht gesagt, worauf sie achten soll oder was Merkmale für Hautkrebs sind, sondern erschloss sich das selbst aus den Bildern. Sie hatte lediglich die Information, auf welchen Bildern krankhafte Stellen zu sehen waren. Angesichts von jährlich mehr als 55.000 Todesfällen weltweit aufgrund von Hautkrebs könnte also die KI der Zukunft Leben retten: Früher diagnostizierter Krebs kann besser behandelt werden.

Manchmal nicht nachvollziehbar Doch dieses radikale Mustererkennen hat auch seine Schattenseiten, wie Experten wieder warnen. Nicht immer haben die Korrelationen, die den Algorithmen auffallen, einen kausalen Zusammenhang, und häufig sind deren Entscheidungen für Menschen nicht nachvollziehbar. Künstliche-Intelligenz-Systeme gelten als "Blackbox": Menschen geben Daten hinein, und hinten kommt eine Entscheidung heraus, doch der Prozess dazwischen läuft für Menschen unbeobachtbar ab. Auch wenn die Wissenschaft gerade an Verfahren arbeitet, diese Box durchsichtig zu machen und den Systemen jene Faktoren zu entlocken, auf deren Grundlage sie Entscheidungen treffen, steht die Forschung hier am Anfang. Maschinelle Entscheidungen sind kaum nachvollziehbar, und dieser Mechanismus kann dazu führen, dass die Entscheidungen nicht im Sinne der Gesellschaft sind.

Das zeigt ein berühmt gewordener Vorfall aus den USA, den die Journalistenvereinigung propublica 2017 aufgedeckt hat: In diesem Fall wurde die Wahrscheinlichkeit, nach der ein Straftäter rückfällig wird, per Computer berechnet. Das Ergebnis wirkt sich auf die Entscheidung eines Richters über dessen Haftzeit aus. Doch der dahinterliegende Algorithmus benachteiligte Schwarze systematisch. Ein Fehler im System? Die Verantwortlichen blieben in der Folge erschreckend sprachlos. Als Forscher den Fall versuchten nachzuvollziehen, kam die nächste Überraschung: die Hautfarbe oder der ethnische Hintergrund waren überhaupt nicht in den Daten hinterlegt. Die Künstliche Intelligenz hatte Korrelationen zwischen Wohnort, Lebensumständen und Hautfarbe gefunden. Solche selbstlernende Systeme können also Informationen berechnen, die ihnen nicht vorliegen.

Einbrüche vorhersagen Die musterbasierte Verdachtserkennung spielt auch eine Rolle beim so genannten Predictive Policing: In verschiedenen Bundesländern gibt es Pilotversuche mit vorhersagender Polizeiarbeit. Der Computer soll dabei die Erfahrung langjähriger Polizisten ersetzen, die ein "Bauchgefühl" dafür entwickeln, wo oft zugeschlagen wird. Die meisten Bundesländer nutzen die deutsche Software Precobs, die ein Familienunternehmen in Oberhausen entwickelt hat: das Institut für musterbasierte Prognosetechnik (IfmPt). Diese basiert auf der Annahme, dass professionelle Täter nach bestimmten Mustern vorgehen. Sie handeln planvoll, bevorzugen Gebiete, in denen sie nicht auffallen und die gute Fluchtmöglichkeiten bieten, sie haben es auf ganz bestimmte Beute abgesehen - und kommen wieder, wenn sie erfolgreich waren. "Near repeat" heißt das in der Fachsprache: Ein Täter sucht den Tatort ein zweites Mal auf. Diese Folgedelikte sagt der Computer auf Basis eines Mustererkennungs-Algorithmus voraus. Basis sind die Daten vergangener Einbrüche. Ist es sich zu 70 oder 80 Prozent sicher, schlägt das System Alarm - und die zuständigen Behörden entscheiden, ob sie eine Streife vorbeischicken.

Medien berichten allerdings immer wieder von Fällen, in denen eine solche Software angeschlagen hat, Polizisten vor Ort verstärkt Streife fuhren - und trotzdem eingebrochen wurde. Das mögen Einzelfälle sein, doch die Frage, ob die Einbrüche durch solche Maßnahmen generell zurückgehen, lässt sich kaum seriös beurteilen. Immer wieder hört man von Gebieten, in denen die Einbrüche rückläufig seien - und im Jahr darauf steigen sie wieder. Andere Bundesländer arbeiten mit eigenen Algorithmen. So hat das Landeskriminalamt Nordrhein-Westfalen eine eigene Software namens Skala entwickelt und untersucht, welche Daten diese noch treffsicherer werden lassen - beispielsweise psychosoziale Daten wie die Bildungshintergründe der Menschen eines Stadtteils oder deren Kaufkraft. Je nachdem, wie feingranular diese Daten aufgelöst werden, sind das persönliche Informationen, die, entsprechend miteinander verknüpft, nicht nur deanonymisiert werden können, sondern aus denen eine Künstliche Intelligenz auch unerwünschte Korrelationen erkennen könnte.

Über diese Theorielosigkeit der automatisierten Mustererkennung ärgert sich Katharina Zweig, Leiterin der Arbeitsgruppe Graphentheorie und Analyse komplexer Netzwerke an der Technischen Universität Kaiserslautern. Sie erklärt das am Beispiel der Schufa, die Kreditwürdigkeit anhand von Algorithmen berechnet. Der Bankmitarbeiter bekommt am Ende nur einen Wert und den Ratschlag, diesem oder jenem Kunden besser keinen Kredit zu geben. Was soll der Bankmitarbeiter demjenigen sagen, der keinen Kredit bekommt? "Du hast diesen Wert. Wieso, das weiß ich nicht, jedenfalls bekommst du keinen Kredit." Aus ihrer Sicht sollte man Betroffenen sagen können, aus welchen Gründen ihnen der Algorithmus diesen Wert zugewiesen hat. Nur wie, wenn das die Anwender eines Systems selbst nicht wissen können? Und was, wenn das System irrt?

Auch ihre Zunft hat Zweig dabei im Blick: "Das größte Problem: Wir als Informatiker sind nicht dafür ausgebildet zu modellieren." Modellieren bedeutet beispielsweise die Entscheidung, welche Daten als Trainingsdaten relevant sind. Ein umstrittenes Projekt, das die Schufa vor einiger Zeit gemeinsam mit dem Hasso-Plattner-Institut angekündigt hatte, aus Daten aus sozialen Netzwerken die Kreditwürdigkeit Einzelner vorhersagen zu können, beruht auf einem Modell: der Idee, dass diese Daten dafür geeignet sein könnten. Welcher Algorithmus darauf angewendet wird, werde im Zweifel danach entschieden, welcher das beste Ergebnis bringt: Welcher also die nicht Kreditwürdigen findet und nicht zu viele Kreditwürdige fälschlich aussortiert. Ein Algorithmus sucht dann Gemeinsamkeiten der Betroffenen anhand der Daten, die sie auf Facebook geteilt haben. Aber woher weiß man, dass das nicht zufällige Korrelationen sind? Und ist das dann seriös, Menschen auf dieser Grundlage einen Kredit zu verwehren? Das Projekt wurde nach öffentlichen Protesten eingestellt.

Wahrnehmung der Welt Nicht zuletzt kann diese radikale Mustererkennung und die Fähigkeit Künstlicher Intelligenz, Vorhersagen über uns Menschen zu treffen dazu führen, dass unsere Wahrnehmung der Welt beeinflusst wird - indem solche Systeme die Informationen filtern, die wir nutzen. Immer mehr Forscher warnen vor den Ranking-Algorithmen von Google und Facebook, die unterschiedlichen Nutzern verschiedene Ergebnisse anzeigen.

Facebook hat selbst in mehreren Studien gezeigt, dass nur winzige Veränderungen in diesem Algorithmus die Meinung der Nutzer zu den geteilten Inhalten anderer verändern. Auch die Wahlbeteiligung kann der Konzern laut einer eigenen Studie beeinflussen: Während der Kongresswahlen 2010 schickte Facebook 61 Millionen Nutzern eine Nachricht, die sie an die Wahl erinnerte und anzeigte, wie viele ihrer Freunde schon wählen waren. Jene Nutzer gingen signifikant häufiger wählen als die Kontrollgruppe ohne entsprechende Nachricht. Bei einem knappen Ausgang kann das auch wahlentscheidend sein, warnt die amerikanische Technik-Soziologin Zeynep Tufekci: "Facebook kann Wahlen beeinflussen - ohne dass wir das nachweisen können." Die Beeinflussung ist schließlich so subtil, dass sie weder für den Einzelnen noch für übergeordnete Stellen wie Gerichte oder Regulierungsbehörden nachvollziehbar ist.

Auch bei der Suchmaschine Google entscheidet eine komplexe Rechenvorschrift im Hintergrund, welcher Nutzer welche Ergebnisse angezeigt bekommt. Aktuelle Studien zeigen zwar, dass die Personalisierung der Suchergebnisse an sich geringer ist als gedacht, doch das "Autocomplete"-Tool, das direkt bei der Eingabe der Suchanfrage Vorschläge macht, was der Nutzer wohl suchen könnte, beeinflusst laut einer Studie der University of Oxford die Auswahl an Informationen, die Nutzer lesen. Der Algorithmus bewertet jene Internetseiten als relevanter, die häufig angeklickt werden. "Das führt dazu, dass die Bekannten immer bekannter werden, während die Unbekannten unbekannt bleiben", sagt Grant Blank von der University of Oxford. Und das nutze in Zeiten wie diesen vor allem dem Populismus.

Welche Faktoren ansonsten in die Ranking-Algorithmen von Google und Facebook einfließen und wie sie gewichtet sind, ist ein gut gehütetes Geheimnis. Bekannt ist bei Facebook der große Einfluss des "Like-Buttons", mit dem Nutzer Nachrichten mit "Gefällt mir" markieren können. Sie bekommen in der Folge immer mehr Nachrichten angezeigt, die solchen ähnlich sind und können so zum Eindruck gelangen, dass ihre Meinung die Vorherrschende im Netz sei - auch dann, wenn sie einer kleinen Minderheit angehören. Manche Forscher vermuten, dass dieser Effekt auch zu Trumps Sieg bei der US-Präsidentschaftswahl geführt haben könnte, was sich freilich nie nachweisen lassen wird. Bekannt ist allerdings, dass Trump und seine Unterstützer die Mechanismen perfekt auszunutzen wussten, die Nachrichten zu "trending" News werden lassen: unter anderem, wenn sie möglichst reißerisch und möglichst plakativ waren. Ob diese auch wahr waren, rückte für viele Unterstützer in den Hintergrund.

Kritik wird abgewehrt Google und Facebook erklären sich bei Kritik meist nicht zuständig - schließlich bewerteten sie Informationen nicht inhaltlich, so das häufige Argument, der Algorithmus berechne ganz objektiv, was relevant sei. Doch das Beispiel der US-Wahl zeigt, wie gefährlich das Argument ist, dass Algorithmen Nachrichten neutral nach Relevanz sortieren, und dass das der Gesellschaft dient.

Doch das Bewusstsein für die Ethik der Algorithmen wächst: Wie alle Technologien können sie für gute ebenso wie für negative Zwecke eingesetzt werden. Auf eine Grenze ist Google kürzlich gestoßen: Nach massiven Protesten der eigenen Mitarbeiter erklärte der Konzern, künftig nicht mehr in einem Drohnen-Projekt mit dem US-Verteidigungsministerium zusammenarbeiten zu wollen. Dafür waren Googles Algorithmen für militärische Überwachungssysteme genutzt worden: Aus Drohnenbildern lernten die Systeme zu erkennen, was sich am Boden abspielt. In der Konsequenz kann eine solche KI in Zukunft militärische Angriffe steuern. Künstliche Intelligenz kann Leben retten und sie kann töten. Es liegt an uns. Eva Wolfangel

Die Autorin arbeitet als Wissenschaftsjournalistin unter anderem zu Zukunftstechnologien, Virtueller Realität, Raumfahrt und Hirnforschung.