Hoffnung und Sorge

Wie künstliche Intelligenz die Welt verändern wird? Das lässt sich derzeit nicht klar sagen, es gibt viele Perspektiven und Fragen. Wir haben einige von ihnen zusammengetragen

1. Wie machen wir KI gerecht?

2. Wie lange ist die menschliche Intelligenz der künstlichen noch überlegen?

3. Was müssen Politiker und Unternehmen tun?

4. Können Roboter fröhlich sein?

5. Wie reagieren wir, wenn Algorithmen zu Kollegen werden?

1. Wie machen wir KI gerecht?

Frau Viégas, wer bringt KI Moral und Fairness bei?

Es ist schwierig, diese Frage zu beantworten: Verschiedene Gesellschaften haben unterschiedliche Ansichten von Moral und Fairness. Angesichts der Vielfalt an Definitionen ist es unsere Herausforderung, diese Auffassungen klar zu formulieren und einander anzupassen. Das wird nicht einfach. Erst wenn wir einen Punkt erreichen, an dem wir uns klar mit Begriffen der Moral auseinandersetzen können, können wir sie in Mathematik übersetzen. Und das ist die Grundvoraussetzung, Machine-Learning-Systemen (ML) etwas beizubringen.

Können Algorithmen Vorurteile haben?

Digitale Voreingenommenheit entsteht üblicherweise durch Tendenzen im Datensatz, mit dem das Machine-Learning- System trainiert wird. Gibt es eine Unausgewogenheit in den Daten, wird sie sich auch in den Ergebnissen des Systems zeigen. Wenn etwa ein Datensatz mit Aussprachebeispielen auf männlichen Rednern basiert, wird ein Spracherkennungssystem, das auf diesen Daten basiert, sehr wahrscheinlich bei Männern besser funktionieren als bei Frauen. Ein solches System bezeichnen wir als voreingenommen zugunsten von Männern.

Wie können wir sicherstellen, dass digitale Entscheidungsfindung niemanden diskriminiert?

Zuerst sollten Sie Ihre Trainingsdaten überprüfen. Sind sie repräsentativ für alle Untergruppen von Benutzern oder Subjekten Ihres Systems? Wenn Sie zum Beispiel an einem Gesichtserkennungssystem arbeiten, überprüfen Sie, ob die Daten Beispiele aus allen Ethnien, Geschlechtern und Altersgruppen enthalten. Sobald Sie Ihr System trainiert haben, testen Sie es proaktiv auf Abweichungen und Fairness-Maßnahmen. Läuft Ihr System beispielsweise gleich gut für Menschen aller Hautfarben, Geschlechter und Altersgruppen?

Glauben Sie, dass KI Mode, Sprache und Kreativität normieren wird?

Ich glaube, dass Massenmedien wie Fernsehen und Radio Sprache und Kultur viel eher normieren als KI. In einer Fernsehserie bilden sie beispielsweise ab, wie Menschen in einer großen Stadt in den USA sprechen oder sich kleiden, und senden das in den Rest der Welt. Dabei verbreiten sie die kulturellen Normen und Standards von diesem Ort. Solange bei KI die Trainingsdaten repräsentativ für die kulturelle Vielfalt einer Gesellschaft sind, bleibt diese Vielfalt im Ergebnis erhalten. Zum Beispiel sollte ein effektives KI-System für den Unterricht von Kindern erkennen können, dass verschiedene Kinder jeweils auf unterschiedliche Weise besser lernen, und seinen pädagogischen Ansatz entsprechend anpassen.

Sie sagen über Ihre Arbeit, dass Sie KI »demokratisieren und humanisieren« möchten. Was bedeutet das?

Die Demokratisierung von KI meint, dass es für Menschen außerhalb von KI-verwandten Disziplinen wie Computerwissenschaften, Mathematik oder Ingenieurwissenschaften einfacher wird, mit der Technologie zu spielen und besser zu verstehen, wo ihre Möglichkeiten und Herausforderungen liegen. Die Humanisierung von KI bedeutet, dass wir sicherstellen, beim Entwickeln von KI-Systemen von den Bedürfnissen der Nutzer auszugehen.

Wie können Menschen und KI zusammenarbeiten?

Es gibt eine Reihe von Möglichkeiten, wie Menschen und KI zusammenarbeiten können. Manchmal, wenn ein Problem sehr klar definiert ist, können KI-Systeme automatisch im Hintergrund arbeiten. In anderen Fällen kann das KI-System menschliche Intelligenz verstärken – natürlich immer als Werkzeug, nicht als Ersatz. Nehmen wir zum Beispiel Ärzte, die versuchen, komplexe Krankheiten wie Krebs zu diagnostizieren. Ein KI-System, das auf eine große Menge medizinischer Daten trainiert ist, kann Muster und Ähnlichkeiten hervorheben, die für den Arzt nützlich sind.

2. Wie lange ist die menschliche Intelligenz der künstlichen noch überlegen?

»Forschern fällt es gar nicht so leicht zu sagen, was Intelligenz eigentlich ist. Es gibt viele widerstreitende Definitionen – vom perfekt an seine Lebensnische angepassten Pantoffeltierchen bis hin zur Annahme, dass höhere Denkfähigkeiten wie das Lösen von Problemen der eigentliche Kern von Intelligenz sind. Ein klassisches Beispiel für solch innovatives Denken ist die Erfindung des Rads: Über Jahrtausende tragen Menschen ihr Hab und Gut auf dem Rücken durch die Gegend, und dann erfindet jemand das Rad und baut einen Karren. Aus den alten Schablonen herauszutreten, durch innovatives Denken etwas auf neue Art und Weise zu sehen und damit ein Problem zu lösen, das Menschen lange beschäftigt hat – das ist eine Kernleistung eines intelligenten, selbstdenkenden Systems.

Wenn man in der öffentlichen Diskussion von künstlicher Intelligenz spricht, meint man oft einfach nur Algorithmen, die teilweise einfache Aufgaben erledigen. Bei unserer Forschungsarbeit etwa verwenden wir maschinelle Lernalgorithmen, um Krankheitshinweise in MRT-Daten zu finden. Unsere Hirnscans umfassen ja riesige Datenmengen, die anders als computergestützt gar nicht auszuwerten wären. Die Algorithmen sind zwar ausgefuchst, aber bedeutet dies gleich, dass unsere Computer intelligent mit diesen Daten umgehen? Oder sind sie vielleicht einfach nur schnell oder effizient? Meist sind es ja sehr triviale Dinge, die dieses Werkzeug uns abnimmt. Daraus entsteht noch lange kein innovatives Denken.

In vielen Situationen wird der Mensch besser, wenn er sich von Algorithmen unterstützen lässt.

John-Dylan Haynes Neurowissenschaftler

KI hat wirklich beeindruckende Ergebnisse geleistet, aber immer in sehr klar strukturierten Domänen. Sie können mithilfe sogenannter tiefer neuronaler Netze einem Computer zeigen, wie er Donkey Kong, Go, Schach oder Poker spielt. Aber in all diesen Fällen gibt es ein klar definiertes Setting mit bestimmten Regeln, die mathematisch gut zu beschreiben sind. In unserer Forschung, wenn wir versuchen, Computern beizubringen, in MRT-Bildern Krankheiten zu erkennen, sieht es etwas anders aus. Man erkennt etwas ganz Beeindruckendes: Es gibt Dinge, die ein Computer besonders gut ›sehen‹ kann – vor allem wenn etwas von den Erwartungen der Mediziner abweicht. Und es gibt andere Dinge, die ein Radiologe besser erkennt. Dieser hat sich über lange Jahre und mit Tausenden von Bildern darauf trainiert, pathologische Veränderungen in MRT-Bildern zu erkennen. Die besondere Fähigkeit des Menschen kommt vor allem dann zum Tragen, wenn etwas ganz Ungewöhnliches auftaucht und er eine neue Erklärung braucht. Man muss nämlich wissen, dass Gehirne sehr unterschiedlich aussehen und funktionieren können. Das schablonenhafte Denken von Algorithmen stößt dann bisweilen an seine Grenzen.

Menschen können im Gegensatz zur KI gerade in schlecht strukturierten Domänen erfolgreich sein. Man nennt das Ganze auch ›cognition in the wild‹. Nehmen Sie eine Aufgabe am Arbeitsplatz: Sie bekommen eine diffuse Anweisung, ein Problem zu lösen. Jetzt müssen Sie zunächst einmal verstehen, was eigentlich das Problem ist, wer die Beteiligten sind, wo deren Interessen liegen, und welche Handlungsmöglichkeiten es gibt und so weiter. Diese Vielschichtigkeit ist etwas, womit Menschen besonders gut umgehen können. Und ich glaube, dass sich KI in diesen schlecht strukturierten Bereichen auch mittelfristig schwertun wird.

Wenn wir in die Zukunft sehen, wird es Bereiche geben, in denen die KI vorne sein wird, und andere, in denen der Mensch besser ist. Gewinnen wird immer derjenige, der Mensch und Maschine optimal zusammenbringt. Denn in vielen Situationen wird der Mensch einfach besser, wenn er sich von Algorithmen unterstützen lässt.«

3. Was müssen Politiker und Unternehmen tun?

»KI und Machine Learning werden Wirtschaft und Wertschöpfung, Arbeitsbeziehungen und Arbeitsbedingungen grundlegend verändern. Dabei handelt es sich um eine rasante technologische Entwicklung, die aber von Menschen gemacht wird. Das heißt, man kann diese Entwicklung gestalten. Dafür braucht es kluge Regeln, und das möglichst bald.

Von Extremszenarien wie einer drohenden Massenarbeitslosigkeit halte ich nichts. Entscheidend ist, die Digitalisierung als neue Infrastruktur der Ökonomie zu betrachten. Insbesondere bei lernenden Systemen kommt es darauf an, wie und zu welchem Zweck sie genutzt werden. Geht es um höhere Profite durch mehr Effizienz, Macht und digitale Kontrolle? Oder um mehr Produktivität durch Innovationen und bessere Arbeitsbedingungen? Steuern wir auf fremdgesteuerte, digitale Fließbandarbeit zu – oder ermöglicht die Technologie eine neue Humanisierung der Arbeit? Entscheidend ist zunächst, wie die Ziele von KI definiert werden und wer sie definiert. Werden die Beschäftigten rechtzeitig beteiligt? Können sie mitbestimmen? Mögliche Zielkonflikte sollten schon bei der Entwicklung verhandelt werden. Zum Beispiel: Kann es sein, dass intelligente Systeme die Arbeit erleichtern, aber künftig weniger Beschäftigte dafür benötigt werden? Es braucht also auch eine frühzeitige Folgenabschätzung, um zu ermitteln, wie sich Jobs möglicherweise verändern und wie Mitarbeiterinnen und Mitarbeiter dafür weiterqualifiziert werden müssen.

Es ist die Aufgabe der Unternehmen und der Politik, Standards für KI in der Arbeitswelt zu entwickeln.

Oliver Suchy Deutscher Gewerkschaftsbund

Es ist die Aufgabe der Unternehmen und der Politik, solche Standards für KI in der Arbeitswelt zu entwickeln. Dazu gehören auch Daten-Transparenz, die Analyse neuer Belastungsprofile und der Schutz vor digitaler Überwachung. Vor allem sollte massiv in eine neue Kultur des Lernens investiert werden. Zum Beispiel mit einer staatlich geförderten Bildungsteilzeit, die eine Weiterbildung parallel zum Job erleichtert. Das wäre ein gutes Mittel dafür, das Versprechen für den persönlichen Aufstieg auch im Rahmen dieses tief greifenden Wandels zu erneuern.

Im Privaten macht intelligente Technik vielen Leuten Spaß, aber bei der Arbeit fühlen sich nicht wenige schon heute überfordert oder sogar ohnmächtig. Ohne Akzeptanz kann KI am Arbeitsplatz nicht gutgehen. Diese Akzeptanz gelingt nicht durch blumige Versprechen, sondern nur durch konkrete Schritte für einen gesellschaftlichen Konsens.«

4. Können Roboter fröhlich sein?

Herr Bendel, hat ein Roboter mit KI Gefühle oder einen eigenen Willen? Kennt er Bosheit?

Gefühle oder einen freien Willen hat eine Maschine nicht, und sie kennt keine Heimtücke. Man kann ihr mithilfe der Disziplin der Maschinenethik aber moralische Regeln beibringen, an die sie sich hält. Sie kann Gutes tun, ohne dass sie dieses versteht. Und Böses.

Wann darf man Verantwortung auf einen Roboter übertragen?

In der Maschinenethik bauen wir moralische Maschinen. Den Begriff der maschinellen Moral kann man so wie den der künstlichen Intelligenz verwenden. Mein Interesse gilt einer Stellvertretermoral in halboffenen Welten: Ein Haushaltsroboter kann in meiner Abwesenheit das tun, was ich auch tun würde, etwa nett zu Tieren sein. Diese Übertragung von Verantwortung ist meist unproblematisch. Anders sieht es aus, wenn es um autonome Maschinen geht, die in offenen Welten über Leben und Tod von Menschen entscheiden. Bei Fahrzeugen und Kampfrobotern habe ich Bedenken.

Könnten Roboter einen Krieg beginnen?

Theoretisch schon, aber warum sollten sie das tun? Wenn sie das tun, dann deshalb, weil wir es ihnen befohlen haben. Dass sie von selbst darauf kommen, ist eher unwahrscheinlich beziehungsweise kann vermieden werden. Wir arbeiten in der Maschinenethik nicht nur mit konkreten Regeln, sondern auch mit Metaregeln. Diese dienen dazu, die »Geisteshaltung« und den Erfindungsreichtum des Systems zu bestimmen und zu begrenzen.

Wie müssen wir mit KI umgehen, um von ihr zu profitieren?

Ich bin dafür, der Forschung freien Lauf zu lassen und allenfalls die Anwendung zu beschränken. Ich befürchte, dass in Europa die Innovation in diesem Bereich bald erstickt wird, auch indem man die Ethik instrumentalisiert. Man spielt mit den Ängsten, die hier seit jeher bestehen.

5. Wie reagieren wir, wenn Algorithmen zu Kollegen werden?

Frau Möslein, was müssen wir tun, um die Arbeitswelt von morgen zu gestalten?

Wir haben dazu in Deutschland eine tolle Forschungskultur. Wissenschaftler probieren gemeinsam mit mutigen Unternehmern schon jetzt neue Arbeitsformen aus – zum Beispiel, wie ein moderner Einzelhandel in der Innenstadt aussehen kann oder wie die Schadensregulierung einer Versicherung mithilfe von Algorithmen optimiert wird. Die digitale Transformation ist ja nicht vorgegeben, sondern ein Aufruf, die Arbeitswelt von morgen zu gestalten. Und Mitbestimmung hat in Deutschland eine lange Tradition, um die uns viele Nationen beneiden. Allerdings beobachten wir, dass neueste Technologien oftmals rein nach alter Produktivitätslogik eingesetzt werden. Das verhindert letztlich Innovation.

Weshalb?

Weil sich das Vorgehen vor allem auf den Ersatz menschlicher Arbeitskraft richtet.

Sie fordern mehr Mut zum Ausprobieren?

Ja. Die Produktivitätslogik hat viel Gutes gebracht, aber wir wenden sie so selbstverständlich an, dass wir es nicht mal mehr merken. Wir müssen aufpassen, dass wir nicht alles dem Effizienzgedanken unterwerfen. Produktivität und Innovation sind nicht unbedingt ein Gegensatzpaar. Ich würde immer die erste Priorität auf die Innovation legen und fragen: Wie kriege ich das, was sinnvoll und gewünscht ist, wertschöpfend hin? Dahinter steckt natürlich eine Wertefrage.

Was muss geschehen, damit alle in Ihrer Arbeit von KI-Anwendungen profitieren?

Es muss Teil jedes Jobs werden, darüber nachzudenken, was dieser Job eigentlich sein soll. Ich kenne gute Kollegen, die es sich zu ihrer Aufgabe gemacht haben, sich in ihrem Job immer wieder überflüssig zu machen. So erarbeiten sie sich den nächsten Job und gestalten Innovation. Wenn wir diese Logik in die Köpfe bekommen, verlieren wir auch die panische Angst, unsere Arbeit könnte uns weggenommen werden. Start-up-Gründer denken ständig darüber nach, was sie eigentlich tun wollen und was sinnstiftend ist. Das hat uns die Produktivitätslogik in etablierten Unternehmen ein Stück weit ausgetrieben, denn Nachdenken ist kein Bestandteil von Produktivität. Die aber bricht dann ein, wenn ich von einem Tag auf den anderen überlegen muss, wie ich Mitarbeiter qualifiziere, deren Jobs sich verändern – oder wegfallen.

Illustration: Nadine Redlich

Fotografie: Matthew Jason Warford, BCAN, Simone M. Neumann, Kai R. Joachim, FAU/Thomas Einberger

Nach oben