Warum international über «Neurorights» diskutiert wird

Wissenschaft

Die Entwicklung der künstlichen Intelligenz hat Auswirkungen auch im heiklen Bereich der Neurotechnologie. Hier sind aus ethischer Sicht Regeln sehr dringend, sagt ein Fachmann.

Das Gedankenlesen fasziniert. Denn die Welt im eigenen Kopf scheint der letzte Zufluchtsort zu sein, der wirklich privat ist. Doch immer wieder gibt es Schlagzeilen aus dem Wissenschaftsjournalismus, die suggerieren, dass es demnächst möglich würde, Gedanken zu lesen.

So ging kürzlich die Nachricht in den Medien um, dass sich jetzt Gedanken entziffern liessen. Und gegen den Missbrauch würde das «Gedankenlesen» passwortgeschützt (hier ein Beitrag dazu auf watson.ch). Menschen, die wegen einer Krankheit oder eines Schlaganfalls nicht mehr sprechen konnten, hätten gelernt, sich allein über ihre Gedanken mitzuteilen.

Technik hilft Erkrankten

Das erfolgt mittels Gehirn-Computer-Schnittstelle (BCI für Brain-Computer-Interface). Die Technik hilft schon seit Jahren Erkrankten, gewisse Aktionen gedankengesteuert durchzuführen. Und ebenfalls schon länger sind nicht nur Forschungsanstalten, sondern auch finanzkräftige Unternehmen daran, die Technik in ihrem Sinn nutzbringend voranzutreiben.

Das sagte unter anderem anfangs 2019 Marcello Ienca im Gespräch mit «reformiert.». Damals war der Italiener als Bioethiker an der ETH Zürich tätig, heute ist er Professor für Ethik der Künstlichen Intelligenz (KI) und Neurowissenschaften an der Technischen Universität München. 

Von echtem Gedankenlesen sind wir noch weit entfernt.
Marcello Ienca, Professor für Ethik der Künstlichen Intelligenz (KI) und Neurowissenschaften

Zur aktuellen Entwicklung meint Ienca: «Von echtem Gedankenlesen sind wir noch weit entfernt. Heutige Gehirn-Computer-Schnittstellen können bestimmte Signale erkennen und in einfache Befehle übersetzen, etwa für Motorik oder Sprache.» Das sei zwar beeindruckend, aber kein direktes Auslesen von komplexen Gedanken oder innerem Erleben. 

Und ein «gedachtes Codewort» als Startsignal für eine Aktion der BCI sei eine interessante technische Sicherungsidee, aber sehr limitiert. «Zum einen kann ein solches Signal fehleranfällig sein und durch unbewusste Aktivierung ausgelöst werden. Zum anderen löst es nicht die tieferliegenden Fragen nach Datenschutz, Missbrauch und informierter Zustimmung.» Es ersetze also nicht die Notwendigkeit «robuster rechtlicher und organisatorischer Schutzmechanismen».

Denn Vorsicht geboten ist nach Iencas Ansicht grundsätzlich. «Schon die heute möglichen Signale erlauben Rückschlüsse auf Präferenzen oder mentale Zustände.» Bereits vor acht Jahren hat der Bioethiker daher zusammen mit Roberto Andorno, Rechtsprofessor an der Universität Zürich, im Fachblatt «Life Sciences, Society and Policy» vier neue Menschenrechte postuliert.

Neue Menschenrechte in Diskussion

In den vier vorgeschlagenen neuen Rechten geht es um geistige Privatsphäre, kognitive Freiheit, psychische Integrität und Kontinuität des Selbst. Die Vorschläge hätten in den vergangenen Jahren viel Resonanz gefunden, sagt Marcello Ienca. «Sie sind inzwischen auf internationaler Ebene diskutiert worden, unter anderem vom Europarat, den Vereinten Nationen – mit einer Unesco-Empfehlung – und in verschiedenen nationalen Gesetzgebungsprozessen wie etwa in Chile.» Ebenso habe sich in der Wissenschaft eine breite Debatte dazu entwickelt.

Dass die Diskussion über ethische Aspekte von Neurotechnologie vor allem im Zusammenhang mit KI breit und tief geführt wird, hat gewichtige Gründe. Das Zusammenwachsen von maschinellem Lernen und Neurotechnologie sei rasant, bestätigt der Bioethiker Ienca. «KI erlaubt leistungsfähigere Schnittstellen, verstärkt aber auch Risiken wie Intransparenz, Manipulation oder Bias, die vorurteilsbehaftete Darstellung. Aus ethischer Sicht sind vor allem Transparenz, Verantwortlichkeit und Schutz vor Missbrauch zentrale Leitplanken.»

Es braucht klare Regeln für Datenverarbeitung, unabhängige Überprüfungen und die Anerkennung von mentaler Selbstbestimmung als zu schützendes Gut.
Marcello Ienca, Professor für Ethik der Künstlichen Intelligenz (KI) und Neurowissenschaften

Der Fachmann sieht es am dringendsten, rechtliche und ethische Schutzmechanismen zu implementieren, bevor invasive Anwendungen der Kombination von künstlicher Intelligenz und Gehirn-Computer-Schnittstellen massenhaft verbreitet werden. «Dazu gehören klare Regeln für Datenverarbeitung, unabhängige Überprüfungen und die Anerkennung von mentaler Selbstbestimmung als zu schützendes Gut», fordert Marcello Ienca.

Geschehen müsste das seiner Ansicht nach auf mehreren Ebenen. Gesetzgeber und internationale Organisationen wie der Europarat und die UNO müssten verbindliche Rahmenwerke schaffen. Forschungseinrichtungen und Unternehmen seien gefordert, ethische Standards in ihre Projekte einzubauen. Und Aufsichtsbehörden sollten für unabhängige Prüfungen und die Durchsetzung bestehender Regeln sorgen. «Entscheidend ist das Zusammenspiel all dieser Akteure, um mentale Selbstbestimmung wirksam zu schützen», fasst Ienca zusammen.

Grosse Techfirmen gehen voran

Dass diesbezüglich nicht mehr Druck von politischer Seite gemacht wird, kann irritieren. Insbesondere, da einige Absichten von mächtigen Unternehmen längst bekannt sind. So hat Elon Musks Firma Neuralink von Tetraplegie Betroffenen einen Chip ins Gehirn implantiert. Damit sollen sie Computer, Prothesen oder Smartphones mit Gedanken steuern können. Oder Sam Altman, der Firmenchef von ChatGPT, investiert gemäss den «Financial Times» in das Unternehmen Merge Labs. Dieses betätigt sich im Bereich der Verschmelzung von Mensch und Maschine.

Mit Kolleginnen und Kollegen seines Fachs seien Ansätze entwickelt worden, sagt Ienca, wie «Geistiger Datenschutz-by-Design, Risikoanalysen und ethische Begleitforschung in neurotechnologische Projekte integriert werden können». Zurzeit würden dazu erste praktische Rahmenwerke in europäischen Forschungsprojekten umgesetzt. Die Frage bleibt, ob Unternehmen nicht schneller weitermachen, als ethisch breit abgestützte Richtlinien umgesetzt werden.