Recherche 30. Januar 2024, von Marius Schären

«Digital first, Bedenken second: Das ist keine gute Idee»

Technik

Am Zürcher Philosophiefestival stellte die Ethikerin Lea Chilian Fragen zum Umgang mit künstlicher Intelligenz. Dabei hat sie ein grosses Anliegen.

Der Werbespot «Robo-Lupf»

Am Philosophie-Festival in Zürich Ende Januar haben Sie Werbefilme ins Spiel gebracht. Warum?

Lea Chilian: Der von mir besprochene Spot «Robo-Lupf» spielt mit dem in Hollywood-Filmen gerne heraufbeschworenen Kampf von «Mensch-gegen-Maschine». In diesem Fall gewinnt der Schwingerkönig. Der Spot geht unter anderem spielerisch damit um, dass die Entwicklungen im Bereich Robotik und künstlicher Intelligenz (KI) von manchen Menschen als bedrohlich wahrgenommen werden. Und er weist in diesem Falle das Fehlverhalten von Robotern deutlich in die Schranken. Andere Spots spielen mit gesellschaftlichen Umbrüchen und den Veränderungen, die sich daraus für Einzelne und Viele ergeben.

Wie gross ist denn unser Vertrauen in Maschinen?

Menschen treten in Beziehung zu Technik, Robotern und KIs. Das hält unter anderem auch die Sozioinformatikern Katharina Zweig fest. Schon 1966 bei Eliza sei es so gewesen, dem ersten Chatbot überhaupt. Der sei sehr simpel gewesen, und doch hätten Menschen ihm ihr Innerstes anvertraut. Wir trauen der Technik und der KI enorm viel zu.

Das heisst, wir sind da ziemlich offen.

Wir trauen der Technik Gutes zu, einen Benefit. Denn das ist das Verständnis von Technik, das wir haben: Dass wir sie geschaffen haben, um uns zu unterstützen. Und wir neigen dazu, mit Technik, die wir häufig nutzen und die uns hilft, zu interagieren. Wir bauen emotionale Bindungen zu KIs auf.

Lea Chilian

Lea Chilian

Die Theologin ist Oberassistentin am Institut für Sozialethik des Ethik-Zentrums der Universität Zürich. Sie hat in Deutschland evangelische Theologie studiert und am Lehrstuhl für Systematische Theologie und Ethik der Ludwig-Maximilians-Universität München promoviert. Sie arbeitet an einem Projekt zur Hermeneutik des Ver- und Zutrauens. Weitere Forschungsschwerpunkte sind Medizin- und Care-Ethik, Umweltethik sowie ethischen Fragen kirchlicher Handlungsfelder.

Wie wird das gefördert?

Einige KIs sind darauf programmiert, auf menschliche Gefühlsäusserungen einzugehen. Sie scheinen Subjekte des Denkens, Fühlens und Handelns zu sein, wie der Theologe und Ethiker Thorsten Moos festhält. Moos entwickelt für die beobachtbaren Phänomene der Vertraulichkeit zwischen Mensch und KI den Begriff des digitalen Animismus. Animismus bezeichnet in der Ethnologie den Glauben an die Beseeltheit der Natur. Demnach ist Technik gemäss Moos für den Menschen «mehr als blosses Zeug mit lediglich funktionaler Bedeutung».

Inwiefern könnten Roboter denn verlässliche Partner des Menschen sein?

Roboter agieren auf der Grundlage von komplexen Programmierungen, von Algorithmen. Sie befolgen also Befehle und sind nicht in der Lage, sich über diese hinwegzusetzen. Wenn sie für das eingesetzt werden, wozu sie programmiert sind, sind sie eigentlich sehr verlässlich. Der unkalkulierbare Faktor ist also der Mensch.

Also haften doch immer wir selbst?

So einfach ist es nicht. Was, wenn der Roboter, der Würste sortieren soll, den Finger eines Menschen als Wurst identifiziert – wie im Spot «Robo-Lupf»? Wer ist dann verantwortlich für diesen Fehler und den daraus resultierenden Schaden? Der Roboter? Die Programmierenden? Der Konzern, der den Roboter hergestellt hat? Oder der Mensch, der die Maschine nutzt und keine ausreichenden Sicherungsmassnahmen getroffen hat? Die Frage der Handlungs- und Folgenverantwortung ist neben der Frage der Datensicherheit eine besonders prominente in der Technik- und KI-Ethik.

Aber wenn kein Fehler geschieht, gibt es auch Gutes durch KI?

Der Einbezug von Pflegerobotern stellt ein interessantes Anschauungsbeispiel für solche Perspektiven dar. Menschen mit Demenz-Erkrankungen fällt es erstaunlich leicht, mit ihnen zu interagieren. Und sie scheinen davon in ihrer Lebensqualität zu profitieren, selbst wenn der Kontakt zu Menschen bereits nur noch schwer möglich ist.

Wünschenswert und verantwortbar ist ein Verfahren, das ethische Fragestellungen systematisch und strukturiert in den Entwicklungsprozess technischer Systeme integriert.

Es falle uns leicht, der Technik zu trauen, sagen Sie. Was bringt das in Ihren Augen für Chancen und Risiken?

Chancen sehe ich bei Erleichterungen etwa bei körperlicher Arbeit, im Pflegenotstand, bei der Organisation von komplexen Prozessen und anderem mehr. Risiken sind meines Erachtens die Arbeitsplatzbedrohung oder Arbeitsplatzverlagerung, Entmenschlichung und Datensicherheit. Und es besteht die Gefahr der Destabilisierung von Demokratien durch Cyberkriegsführung und Manipulationen.

Technische Entwicklungen fortlaufend ethisch zu begleiten, erachten Sie als enorm wichtig. Wie soll das konkret passieren?

Wichtig ist, nicht nur zu reagieren, wenn bestimmte Entwicklungen bereits gemacht wurden, und sich dann zu fragen, ob man das so wollte und was da für Folgen haben könnte. Die Theologin und Ethikerin Frederike van Oorschot macht darauf aufmerksam, dass es sinnvoll ist, bereits die Prozesse der Entwicklung ethisch zu begleiten. Dafür braucht es ethisch geschulte Technikerinnen und technisch geschulte Ethiker.

Gibt es da ein positives Beispiel?

Medizinethik ist ein gutes Vorbild. Hier wurde viel erreicht, die aktuelle Forschung wird im interdisziplinären Zusammenspiel gestaltet. Dadurch können bereits in der Forschung ethische Fragen des Zusammenlebens, welche Formen der Interaktion tun uns gut – also Fragen des guten Lebens, wer soll was tun dürfen und müssen – thematisiert werden.

Welches Beispiel im Zusammenhang mit KI sehen Sie, das in eine richtige Richtung geht?

Grundsätzlich: «Digital first, Bedenken second»: Das ist keine gute Idee. Wünschenswert und verantwortbar ist ein Verfahren, das ethische Fragestellungen systematisch und strukturiert in den Entwicklungsprozess technischer Systeme integriert. Dass Sofwarefirmen mit Fachleuten der Psychologie zusammenarbeiten, um Anwendungen besser zu gestalten für die Kundschaft, ist das Eine. Fachleute der Ethik in Entwicklungsteams zu integrieren: Das ist das Andere. Ein KI-Gesetz, wie die EU es am 9. Dezember 2023 auf den Weg gebracht hat, um Risiken zu minimieren, ist ein wichtiger Teil staatlichen und gesellschaftlichen verantwortungsvollen Umgangs mit Entwicklungen.

Wäre denn der vermeintliche Benefit eines Moratoriums verantwortbar, wenn möglicherweise Entwicklungen verzögert würden, die Leben retten können?

Was wäre aus Ihrer Sicht ideal?

Wenn es üblich werden würde, dass ethische Beratung schon in den Entwicklungsprozessen herangezogen wird, und wenn das als Mehrwert erachtet würde, weil es uns zu einem besseren, solidarischen und verantworteten Leben in der Gesellschaft verhilft – das ist so ein stiller Traum. Also: Dass wir als Ethikerinnen und Ethiker es schaffen, unsere Anliegen als plausibel, hilfreich und nötig zu etablieren.

Wie stehen Sie zu Moratoriums-Forderungen bezüglich der Entwicklung im Bereich KI?

Die halte ich nicht für sinnvoll, umsetzbar und verantwortbar.

Warum nicht?

Ich glaube erstens nicht daran, dass sich alle an so eine Unterbrechung halten würden. Dann gäbe es womöglich Machtverschiebungen, die genau den entgegengesetzten Effekt von dem hätten, was wir uns von einem Moratorium erhoffen. Zweitens versprechen einige KI- und Technikentwicklungen uns grossen Mehrwert, der auch Leben retten wird, etwa in der Medizintechnik und Krankheitsbehandlung. Schon jetzt gibt es KIs, die bei der Krebserkennung und -behandlung eingesetzt werden. Wäre denn der vermeintliche Benefit eines Moratoriums verantwortbar, wenn möglicherweise Entwicklungen verzögert würden, die Leben retten können?

Also ist ein Moratorium auch einfach realitätsfern?

Es ist eine sehr künstliche Vorstellung zu glauben, wir könnten unser Denken, unser Entwickeln mal kurz unterbrechen. Unseren Wissensdurst den Strom abdrehen? Das ist ein sehr technisches Verständnis des menschlichen Denkens. Ich setze eher auf die Verquickung technischer und ethischer Zusammenarbeit.