Jen Gennai und Katharina Zweig

KI – zum Wohle der Gesellschaft

Künstliche Intelligenz ist eine der prägenden Technologien unserer Zeit – und die Frage nach der Regulierung von KI ein viel diskutiertes Thema. Jen Gennai, Director Responsible Innovation bei Google, und Informatikprofessorin Katharina Zweig, Leiterin des Algorithm Accountability Lab an der RPTU Kaiserslautern-Landau, im Gespräch über künstliche Intelligenz und Ethik

8 Minuten Lesezeit

Frau Professorin Zweig, momentan wird ja viel über die Regulierung von künstlicher Intelligenz diskutiert. Einige Entwickler:innen warnen vor ihrer eigenen Erfindung – andere gehen sogar so weit, KI mit stark regulierten Technologien wie Gen- oder Nukleartechnik zu vergleichen. Ist das berechtigt?

Zweig: Meiner Ansicht nach ist es schwierig, über die Regulierung von KI an sich zu diskutieren – denn künstliche Intelligenz umfasst eine große Bandbreite an verschiedenen Anwendungen. Eine Kategorisierung macht es wahrscheinlich einfacher, darüber zu reden: Zum einen gibt es KI-Systeme, die eine faktische Entscheidung treffen, die auf anderem Weg belegt werden kann. Wenn Sie eine Bilderkennung haben, die Ihnen sagt, ob ein Bild einen Hund oder eine Katze zeigt, dann können wir dies mit Fotos der jeweiligen Tiere nachprüfen. Wir können also die Qualität des Systems messen, indem wir die faktische Antwort mit der Antwort der KI vergleichen. Und dann gibt es noch die Art von KI, über die in der Fachwelt – aber auch in den Medien – seit Monaten diskutiert wird: künstliche Intelligenz, mit der eine Bewertung vorgenommen wird. Da geht es um die Bewertung von Leistungen, eine Vorhersage von Risiken oder die Auswahl der richtigen Bewerber:innen. Wenn wir also über die Gefahren von KI sprechen wollen, dann gilt dies vor allem für solche Bewertungsfunktionen. Und die müssen auf jeden Fall reguliert werden.

Gennai: Ein Aspekt, der mir an der Analogie zur Nuklear- oder Gentechnik gefällt, ist die Tatsache, dass sich die Welt über die Regulierung dieser Technologien einig ist. Meiner Meinung nach geht es hier um die Frage, wie wir auch für diesen Bereich eine weltweite Einigung auf bestimmte Standards und Ziele erreichen können.

»Wir entwickeln KI auf der Grundlage ethischer Prinzipien – zum Nutzen der Gesellschaft«

Jen Gennai, Director Responsible AI bei Google

Google-Hauptstadtbüro in Berlin

Zur Diskussion über KI und Ethik trafen sich Jen Gennai und Prof. Katharina Zweig im Google-Hauptstadtbüro in Berlin.

Katharina Zweig und Jen Gennai

Halten Sie es für möglich, KI-Regeln festzulegen, die in der ganzen Welt anwendbar sind?

Gennai: In erster Linie ist KI zu wichtig, um sie nicht zu regulieren. Außerdem ist es wichtig, auch die Implementierung von KI zu regulieren – auf Grundlage einer Risikobewertung – und nicht nur die Technologie an sich. Dabei ist es sehr gut möglich festzulegen, was wir unter »gut« verstehen können. Wir haben bisher mit weltweiten Standard-Organisationen wie etwa der ISO (International Standard Organization) zusammengearbeitet und die Leitlinien der OECD sowie die UN-Menschenrechtscharta angewandt. Das sind weltweite Leitlinien, die Menschen und Unternehmen in die Pflicht nehmen und eine Roadmap liefern, wie eine erklärbare und verantwortungsvolle KI aussehen könnte. Ich werde jetzt sicherlich nicht so tun, als ob es eine weltweite Checkliste geben wird – beispielsweise unterscheidet sich die Bedeutung von Fairness von Land zu Land, von Sprache zu Sprache und von Kultur zu Kultur – aber ich denke, dass uns globale Standards schon gezeigt haben, dass wir uns auf einer Risikobasis bei einzelnen Anwendungen annähern können.

Zweig: Normalerweise bin ich Optimistin, aber in diesem Fall fällt es mir schwer, weil die Vorstellungen von Fairness so unterschiedlich sind. Wenn es zum Beispiel in einem Land rechtens ist, Frauen anders zu behandeln, warum sollte man dort daran interessiert sein zu untersuchen, ob sich ein KI-System auf Frauen anders auswirkt? Daher bin ich absolut nicht zuversichtlich, dass wir hier einen gemeinsamen Standard finden werden. Die politischen Vorstellungen darüber, was eine faire Gesellschaft ist, sind zu verschieden.

Wie kann Google als ein Unternehmen, das KI‑Produkte für die ganze Welt entwickelt, diesen unterschiedlichen Ansichten und Regulierungen gerecht werden?

Gennai: In vielerlei Hinsicht existieren bereits Regulierungen, die auch KI betreffen, insbesondere in Bereichen wie dem Datenschutz. Die DSGVO (Datenschutz-Grundverordnung), die ja ursprünglich ein europäisches Gesetz war, haben wir global übernommen. Sie ist für uns als globales Unternehmen zu unserem weltweiten Mindeststandard geworden. Wir haben die höchsten Standards zu unserem weltweiten Standard gemacht. Diesen Ansatz hat Google auch in anderen Bereichen angewandt.

Zweig: Aber lassen Sie uns noch einmal auf das Fairness-Beispiel zurückkommen. Da gibt es wahrscheinlich auch von Land zu Land verschiedene Ansichten und eben keinen »höchsten Standard«, der überall gilt.

Gennai: Da haben Sie recht. Das war und ist sicherlich eine unserer Herausforderungen, und wir haben versucht, sie dadurch zu meistern, dass wir klargemacht haben, welchen Standard wir für einen bestimmten Anwendungsfall zugrunde legen. Wir vermitteln also, woran wir Fairness bemessen, und sehen dann weiter. Auch deshalb bitten wir unsere Nutzerinnen und Nutzer, Fachleute und verschiedene Communities um Feedback: Wir wollen nicht nur transparent mit unseren Entscheidungen umgehen, sondern den Menschen auch die Möglichkeit geben, uns ihre Ansichten mitzuteilen oder uns zu korrigieren.

Jen Gennai

Jen Gennai ist Gründerin und Leiterin des Responsible Innovation Team bei Google, das die KI-Prinzipien des Unternehmens operationalisiert, um sicherzustellen, dass die Auswirkungen der Google-Produkte auf die Menschen und die Gesellschaft im Allgemeinen fair und ethisch vertretbar sind.

Wer entscheidet bei Google darüber, was fair ist?

Gennai: 2018 haben wir unsere sieben KI-Prinzipien eingeführt – das sind sieben wegweisende Regeln, die beschreiben, wie wir KI entwickeln. Außerdem haben wir vier Anwendungsbereiche festgelegt, für die wir KI weder einsetzen noch weiterentwickeln werden. Grundlage hierfür waren Umfragen bei unseren Nutzerinnen und Nutzern zu ihren Wünschen und Ängsten zur KI: Welche Aufgaben sie ihrer Meinung nach erfüllen sollte, welche Möglichkeiten sie bieten sollte, und wo Bedenken bestehen. Das aus diesen Antworten erstellte Grundgerüst haben wir internen und externen Fachleuten vor­gelegt, einer interdisziplinären Gruppe von Expertinnen und Experten aus dem technologischen, aber vor allem auch dem sozialwissenschaftlichen Bereich. Fachleute für Menschen- und Bürgerrechte und Ethik haben uns dabei unterstützt, unsere Liste einem Stresstest zu unterziehen und grundlegende Punkte herauszuarbeiten, die jetzt unsere sieben KI-Prinzipien darstellen: Wir setzen uns dafür ein, dass die Technologie einen Mehrwert für die Gesellschaft bringt; dass wir damit keine unfairen Tendenzen oder Vorurteile schaffen oder verstärken; und dass die von uns entwickelten Technologien sicher sind und sich in ausreichendem Umfang von Menschen steuern und kontrollieren lassen. Bei der Entwicklung orientieren wir uns an unseren Datenschutzprinzipien und den hohen Standards wissenschaftlicher Fachkompetenz. Außerdem stellen wir unsere Technologie anderen auf eine Art zur Verfügung, die mit diesen Prinzipien im Einklang ist. KI-Anwendungen, die wir nicht weiter verfolgen, sind Technologien, bei denen das Risiko besteht, dass sie überwiegend schädlich sind oder Menschenrechte verletzen. Wir entwickeln keine Waffen­technologie und außerdem auch keine Überwachungstechnologie, die gegen international akzeptierte Normen verstößt.

Frau Professorin Zweig, wie würden Sie die KI‑Prinzipien von Google ändern, wenn Sie die Möglichkeit dazu hätten?

Zweig: Das Problem mit abstrakten, ethischen Leitlinien ist, dass sie beim Programmieren nur schwer in etwas Konkretes übersetzt werden können. Die Leitlinien müssen in etwas Kodierbares und Messbares umgewandelt werden. Was bedeutet es, wenn – beispielsweise – ein Algorithmus, der Bewerber:innen auswählt, fair sein muss?

Jen Gennai und Katharina Zweig

»Wir müssen über neue Wege nachdenken, wie wir vertrauenswürdige Quellen identifizieren können«

Prof. Katharina Zweig, Informatikerin

Frau Gennai, nehmen wir mal an, ein Google‑Team arbeitet an der Entwicklung eines neuen KI-Produkts. Wie stellen Sie sicher, dass die KI-Prinzipien eingehalten werden? Und wie lassen sich diese Prinzipien konkret und umsetzbar machen?

Gennai: Hier verfolgen wir einen Ansatz mit vier grundlegenden Schritten: Wir sorgen dafür, dass alle im Unternehmen unsere KI-Prinzipien und die zugrunde liegenden ethischen Richtlinien kennen und verstehen. So ist von vornherein klar, dass es in der Verantwortung aller liegt, diese Prinzipien einzuhalten. Für den Einstieg bieten wir entsprechende Trainings an und stehen unseren Mitarbeiterinnen und Mitarbeitern zusammen mit unseren Partnern als zentrales Team von Fachleuten für Fragen zur Verfügung. Als Nächstes haben wir unsere Prozess- und Governance-Struktur: Neue Produkte werden auf ihre Einhaltung der KI-Prinzipien getestet. Kann das Produkt für unerwünschte Zwecke missbraucht werden? Gibt es Probleme mit der Fairness? Ist es erklärbar genug? Wir arbeiten dann mit den Produktteams zusammen, um herauszufinden, ob wir die Probleme beheben können. Als dritten Schritt haben wir auf der tech­nischen Seite Tools eingeführt, beispielsweise für Fairness und Interpretierbarkeit, die wir auch anderen kostenlos zur Verfügung stellen. Im vierten und letzten Schritt achten wir darauf, dass wir über den ganzen Produktlebenszyklus hinweg die richtigen Fachleute mit einbeziehen – sowohl intern als auch extern. Für kritische Anwendungsfälle haben wir ein auf Menschenrechte spezialisiertes Beratungsunternehmen verpflichtet, das die Auswirkungen unserer Technologie im Hinblick auf Menschenrechtsfragen testet und bewertet.

Katharina Zweig

Prof. Dr. Katharina Zweig leitet das Algorithm Accountability Lab an der RPTU Kaiserslautern-Landau und ist Sachverstän­dige in der Enquete-Kommission Künstliche Intelligenz des Deutschen Bundestags. Darüber hinaus beteiligt sie sich an der Diskussion über die gesellschaftlichen Auswirkungen von KI. Ihr neues Buch »Die KI war’s!« ist gerade erschienen.

Frau Professorin Zweig, Frau Gennai, viele Menschen befürchten, dass KI dazu verwendet werden könnte, Fehlinformation zu streuen. Wie können wir als Gesellschaft damit umgehen?

Zweig: Wir müssen über neue Wege nachdenken, wie wir ver­trauenswürdige Quellen iden­tifizieren können. Vielleicht ein System, das auf Vertrauen basiert, in dem Menschen sagen: Ich kenne diese Person, ich würde meine Hand für sie ins Feuer legen. Dieses Vertrauen könnte dann ebenso auf deren Texte und Fotos abfärben. Ich denke, dass wir in den nächsten Jahrzehnten Produkte und Plattformen brauchen, mit denen vertrauens­würdige, von Menschen gene­rierte Texte und Dokumente gekennzeichnet werden.

Gennai: Meine Aufgabe ist es, mir Gedanken über die Gefahren von KI zu machen. Jeden Tag versuchen mein Team und ich abzuschätzen, welche potenziellen Risiken und Schäden es gibt und wie wir sie minimieren können. Für mein Team und mich geht es darum: Wie beheben wir dieses Problem? Wie minimieren wir die Schäden? Wie entwickeln wir Tools, die anderen dabei helfen, die Schäden zu minimieren? Google hat kürzlich umfangreiche Neuerungen angekündigt, um dafür zu sorgen, dass durch generative KI geschaffene Fehlinformation aufgedeckt werden kann – so etwa die Einführung von Wasserzeichen und unsere neue Funktion »Informationen zu diesem Bild« in der Google Suche, die den Nutzerinnen und Nutzern hilft festzustellen, ob ein Bild vertrauenswürdig ist. Für mich sind diese Bedenken da – aber genauso auch die Möglichkeiten, sie auszuräumen.

Fotos: Felix Brüggemann

Ähnliche Artikel