Katharina Zweig

KI – zum Wohle der Gesellschaft

Künstliche Intelligenz ist eine der prägenden Technologien unserer Zeit – und die Frage nach der Regulierung von KI ein viel diskutiertes Thema. Prof. Katharina Zweig, Leiterin des Algorithm Accountability Lab an der RPTU Kaiserslautern-Landau im Gespräch über künstliche Intelligenz und Ethik

6 Minuten Lesezeit

Frau Professorin Zweig, es wird viel über die Regulierung von künstlicher Intelligenz diskutiert. Einige Entwickler:innen warnten vor ihrer eigenen Erfindung – andere gingen sogar so weit, KI mit stark regulierten Technologien wie Gen- oder Nukleartechnik zu vergleichen. Ist das berechtigt?

Meiner Ansicht nach ist es schwierig, über die Regulierung von KI an sich zu diskutieren – denn künstliche Intelligenz umfasst eine große Bandbreite an verschiedenen Anwendungen. Eine Kategorisierung macht es wahrscheinlich einfacher, darüber zu reden: Zum einen gibt es KI-Systeme, die eine faktische Entscheidung treffen, die auf anderem Weg belegt werden kann. Wenn Sie eine Bilderkennung haben, die Ihnen sagt, ob ein Bild einen Hund oder eine Katze zeigt, dann können wir dies mit Fotos der jeweiligen Tiere nachprüfen. Wir können also die Qualität des Systems messen, indem wir die faktische Antwort mit der Antwort der KI vergleichen. Und dann gibt es noch die Art von KI, über die in der Fachwelt – aber auch in den Medien – seit Monaten diskutiert wird: künstliche Intelligenz, mit der eine Bewertung vorgenommen wird. Da geht es um die Bewertung von Leistungen, eine Vorhersage von Risiken oder die Auswahl der richtigen Bewerber:innen. Wenn wir also über die Gefahren von KI sprechen wollen, dann gilt dies vor allem für solche Bewertungsfunktionen. Und die müssen auf jeden Fall reguliert werden.

Ist das mit dem KI-Gesetz der EU (AI Act) aus Ihrer Sicht in ausreichendem Maße geschehen?

Es kommt nun alles auf die Realisierung und praktische Auslegung des Gesetzes an. Ich bin gespannt darauf zu sehen, wie wir das in Deutschland umsetzen werden.

»Wir müssen über neue Wege nachdenken, wie wir vertrauenswürdige Quellen identifizieren können«

Prof. Katharina Zweig, Informatikerin

Google-Hauptstadtbüro in Berlin

Das Interview mit Professorin Katharina Zweig fand im Google-Büro in Berlin statt.

Gibt es Bereiche, in denen Sie von einer KI-Nutzung sogar gänzlich abraten würden?

Bei Gerichtsurteilen würde ich beispielsweise stark von einer KI-Nutzung abraten. Denn wenn Richter:innen Recht sprechen, dann interpretieren sie Gesetze und kreieren manchmal auch neues Recht. Das ist etwas, was die KI nicht kann. Ganz grundsätzlich kann sie keine Werturteile sprechen, basierend auf der Technologie, die wir heute für KI benutzen – das ist die Erkenntnis meiner Forschung in den letzten Jahren.

Google hat sieben KI-Grundsätze festgelegt, die beschreiben, wie das Unternehmen künstliche Intelligenz entwickelt. Dazu gehört unter anderem, dass Google sich für einen Mehrwert der Technologie in der Gesellschaft einsetzt. Das Unternehmen will sich auch dafür stark machen, keine unfairen Tendenzen oder Vorurteile zu schaffen oder zu verstärken.

Diese Grundsätze in der Praxis durchzusetzen, stelle ich mir sehr herausfordernd und schwierig vor.



Warum?

Lassen Sie uns beim Beispiel der Fairness bleiben, das Sie angesprochen haben. Nehmen wir an, in einem Land ist es rechtens, Frauen anders zu behandeln als Männer, warum sollte man dort daran interessiert sein zu untersuchen, ob sich ein KI-System auf Frauen anders – aus unserer Sicht möglicherweise unfair – auswirkt? Die politischen Vorstellungen darüber, was eine faire Gesellschaft ist, sind zu verschieden. Es gibt hier keinen höchsten Standard, der überall gilt und an dem wir alle uns orientieren können.

Katharina Zweig und Jen Gennai

Finden Sie es trotzdem richtig, dass Google sich eigene KI-Grundsätze gegeben hat?

Jedes Unternehmen, das Software entwickelt, benötigt ethische Grundsätze, die diese Entwicklung begleiten. Aber auch hier kommt es darauf an, wie genau diese in die Praxis umgesetzt werden – nur das zählt am Ende.

Während viel über Regulierung diskutiert wird, sind einige Expertinnen und Experten der Ansicht, dass wir in Europa KI eines Tages überregulieren könnten – und dadurch Entwicklungschancen verpassen. Wie stehen Sie dazu?

Da ist durchaus etwas dran. In Europa neigen wir dazu, jeder neuen Entwicklung gleich ein Regelkorsett überstülpen zu wollen. Und dann ziehen andere Länder – zumindest aus technologischer Sicht – schnell an uns vorbei. Deshalb müssen wir genau abwägen, welche Arten von künstlicher Intelligenz wir regulieren und wie wir – beispielsweise mithilfe des KI-Gesetzes der EU – Innovation und Schutz gegeneinander abwägen. Ich glaube, der große Mehrwert, den KI uns allen liefern kann, liegt zunächst darin, uns alltägliche Aufgaben abzunehmen. Machen Sie gerne Ihre Reisekostenabrechnung?

Nein, die mache ich überhaupt nicht gerne!

Sehen Sie – ich auch nicht. Eine KI wird aber schon sehr bald in der Lage sein, uns solche lästigen Verwaltungsaufgaben abzunehmen. Ich mag auch die Vorstellung, dass ich einen Text nicht mehr komplett lesen muss, sondern einer KI Fragen dazu stellen kann und vom System konkrete Antworten erhalte, sodass ich einen schnellen Überblick bekomme. Oder ich unterhalte mich mit jemandem, dessen Sprache ich nicht spreche, und eine künstliche Intelligenz übersetzt simultan. Das sind Anwendungen, die uns ganz neue Möglichkeiten bieten und die uns allen den Alltag erleichtern und unseren Horizont erweitern werden. Vor diesen Einsatzgebieten für künstliche Intelligenz muss aus meiner Sicht auch niemand Sorgen haben.

Die Vielzahl möglicher KI-Anwendungen, die Sie hier ansprechen, bereitet vielen Menschen trotzdem Sorgen. Viele haben das Gefühl, mit der rasanten technischen Entwicklung gar nicht mehr Schritt halten zu können. Wie geht es Ihnen als Expertin damit?

Das geht mir nicht anders. Ich habe mich bislang weniger mit bildgenerierender KI beschäftigt. Selbst als Expertin habe ich also keinen allumfassenden Überblick über das Thema. Für einen Laien ist das aus meiner Sicht nahezu unmöglich. Aber fürs Erste reicht es vielleicht auch, wenn ich einige Tools kenne, die meinen Alltag erleichtern. Im Austausch mit anderen lerne ich dann weitere Tools kennen.



Viele Menschen fürchten, dass KI dazu verwendet werden könnte, Fehlinformationen zu streuen. Wie können wir als Gesellschaft damit umgehen?

Wir müssen über neue Wege nachdenken, wie wir vertrauenswürdige Quellen identifizieren können. Vielleicht ein System, das auf Vertrauen basiert, in dem Menschen sagen: Ich kenne diese Person, ich würde meine Hand für sie ins Feuer legen. Dieses Vertrauen könnte dann ebenso auf deren Texte und Fotos abfärben. Ich denke, dass wir in den nächsten Jahrzehnten Produkte und Plattformen brauchen, mit denen vertrauens­würdige, von Menschen gene­rierte Texte und Dokumente gekennzeichnet werden. Dabei kann übrigens auch Google sehr gut helfen.

Wie kann das ganz konkret aussehen?

Das Unternehmen könnte seinen Nutzerinnen und Nutzern beispielsweise eine Möglichkeit bieten, ihre selbst erstellten Texte, Bilder oder Videos mit einer fälschungssicheren Signatur zu versehen. Das Ziel muss aus meiner Sicht darin bestehen, dass von Menschen gemachte Inhalte aus der Masse heraus­stechen. Und nicht die Inhalte, die von der künstlichen Intelligenz erstellt wurden. Ich halte es für dringend notwendig, dass es hier bald privatwirtschaftliche und auch staatliche Lösungen geben wird.

KI-Grundsätze von Google
Da es bislang keine weltweiten Standards für die Entwicklung künstlicher Intelligenz gibt, hat Google eigene Grundsätze festgelegt – und berichtet jährlich, wie es diese konkret anwendet. Mehr Informationen dazu hier.

Fotos: Felix Brüggemann

Ähnliche Artikel