Recherche 16. Oktober 2023, von Marius Schären

Und wenn die Maschine doch falsch liegt?

Wissenschaft

Künftig werden Maschinen oder Computer immer häufiger wichtige Entscheide mitbestimmen. Dabei werden auch bei rechtlichen Fragen ethische Aspekte zentral.

Unterdessen steckt sie praktisch in jedem Handy: die Künstliche Intelligenz (KI), wie das maschinelle Lernen meist genannt wird. Sie wirkt längst in alltägliche Handlungen, sei es beim Fotografieren oder auch nur, wenn wir im Web etwas suchen. 

Der Einfluss dieser computergestützten Dienste geht aber zunehmend viel weiter. Ärztliche Diagnosestellung gestützt auf eine Software, Warenzustellung durch Drohnen oder Vermögensverwaltung mithilfe von KI: Wenn immer komplexere oder womöglich autonome Systeme eingesetzt werden, sind zunehmend auch Fehler und damit Schäden zu erwarten. Das könnte ein Pflegeroboter sein, der mit einem betagten Patienten zusammenstösst. Oder ein von einer Versicherung eingesetzter Chatbot, der eine falsche Information abgibt.

Tipps vom digitalen Zwilling

Die Professorin und Ärztin Claudia Witt ist an der Uni Zürich daran, in einem Projekt Zukunftsszenarien zu entwickeln. KI soll beispielsweise in Form von «digitalen Zwillingen» eingesetzt werden können. Das ist ein Computermodell, in dem möglichst viele individuelle Informationen von einem Menschen – wie etwa Blutdruck, Herzfrequenz – kombiniert werden mit digitalen Modellen von Körperfunktionen. Es kann so die zentralen Lebensfunktionen eines Menschen abbilden, Atmung, Kreislauf, Verdauung und Stoffwechsel.

Durch maschinelles Lernen soll der digitale Zwilling dann Vorhersagen machen und Empfehlungen geben können. Er könnte beispielsweise feststellen, dass wir den ganzen Tag im Büro sassen und deshalb Bewegung empfehlen – und zwar jene, die wir mögen und die uns persönlich gut tut, wie Claudia Witt erläutert. Oder es könnte eine Therapie am Zwilling getestet werden, um zu schauen, ob sie auch in echt sinnvoll ist.

Wo entschieden wird, gibt es Fehler – und wer trägt dann welche Verantwortung? «Aktuell verantworten immer Menschen Handlungen, die mit Hilfe von maschinellem Lernen erfolgen», sagt Christoph Ammon, beispielsweise eine verantwortliche Ärztin in medizinischen Belangen oder ein Hersteller via Haftpflicht für sein Produkt. Der Jurist beschäftigt sich am Institut für Strafrecht und Kriminologie der Uni Bern aber mit weitergehenden Szenarien. Denn künftig würden Systeme gebaut, die deutlich autonomer agieren können werden. Und dann würde es mit den heutigen Gesetzen kritisch. 

«Die Entscheidungs- und Handlungshoheit wird sich vom Menschen zur Maschine verschieben», hält Ammon fest. Das werde so weit gehen, dass der Mensch das technische System nicht mehr werde interpretieren können, weil es nicht mehr nachvollziehbar sein wird, oder bei selbstständig weiterlernenden Systemen. 

Mangelnde Urteilsfähigkeit 

Heute würde das rechtlich in unberührtes Gebiet fallen. Christoph Ammon sagt: «Diesen Maschinen mangelt es aktuell an einer Urteilsfähigkeit, also der Fähigkeit, die Konsequenzen des eigenen Handelns abschätzen zu können.» Deshalb müsse diese Entwicklung begleitet werden, ist der Jurist überzeugt. «Es gilt, mögliche Szenarien durchzudenken und zu überlegen, wie bei deren Verwirklichung juristisch eingegriffen werden kann.»

Wann und ob überhaupt KI oder physisch manifestierte Roboter zu Rechtssubjekten wie Menschen werden könnten und damit vielleicht auch sowas wie eine Roboterwürde erhalten müssten und damit einhergehende Schutzrechte, bleibt aktuell noch Science Fiction.
Christoph Ammon, Doktorand am Institut für Strafrecht und Kriminologie der Uni Bern

Aus diesem Gedanken heraus beschäftigt sich Ammon für seine Dissertation mit dem Thema der Künstlichen Intelligenz als Rechtsperson. Zurzeit gibt es juristisch gesehen natürliche Personen. Damit sind alle Menschen gemeint. Sie gelten ab Geburt als rechtsfähig. Juristische Personen (wie etwa Unternehmen) dagegen sind rechtliche Konstrukte mit einem bestimmten Zweck. 

Funktionale Rechtsperson 

Ammon regt an, für KI die «funktionale Rechtsperson» einzuführen. Doch ihm ist klar, dass das Zukunftsmusik ist. «Wann und ob überhaupt KI oder physisch manifestierte Roboter zu Rechtssubjekten wie Menschen werden könnten und damit vielleicht auch sowas wie eine Roboterwürde erhalten müssten und damit einhergehende Schutzrechte, bleibt aktuell noch Science Fiction.» 

In Christapor Yacoubians Dissertation geht es um ähnliche Fragen. Der Jurist an der Uni Basel will herausfinden, ob unser geltendes Recht angesichts der digitalen Entwicklungen bei Haftungsfragen an seine Grenzen stösst und ob der Gesetzgeber intervenieren muss. «Werden im digitalen Zeitalter anstelle der menschlichen Akteure Roboter oder Softwareagenten eingesetzt, ist zu überlegen, ob die sogenannte Hilfspersonenhaftung nicht auch sinngemäss auf die digitalen Akteure angewandt werden müsste», gibt er zu bedenken. 

Wie weit reicht das Bestehende? 

Die Frage nach der Verantwortung wird aber seit jeher immer wieder diskutiert – gerade in Anbetracht neuer technischer Entwicklungen. Dabei zeigt sich, dass nicht wegen jeder technische Neuerung gesetzliche Anpassungen nötig sind. «Unsere Rechtsordnung ist technikneutral. Bevor also neue Gesetze verabschiedet werden, sollte man eingehend prüfen, ob sich nicht bereits das geltende Recht auf die neuartigen Gegebenheiten adaptieren liesse», findet Yacoubian.

Gerade auch im Hinblick auf die gesellschaftlichen Auswirkungen von KI sind die Fragen oft vielschichtig und betreffen vorerst ethische Fragen, die nun auch vermehrt mit rechtlichen Mitteln begleitet werden sollten.
Christoph Ammon, Doktorand am Institut für Strafrecht und Kriminologie der Uni Bern

Der Berner Doktorand Christoph Ammon weist auf einen weiteren Grundsatz hin. Bei all den rechtsphilosophischen und rechtstheoretischen Fragen würden oft ethische Überlegungen den eigentlichen Kern der Frage bilden, hält er fest. «Gerade auch im Hinblick auf die gesellschaftlichen Auswirkungen von KI sind die Fragen oft vielschichtig und betreffen vorerst ethische Fragen, die nun auch vermehrt mit rechtlichen Mitteln begleitet werden sollten.» 

Strafrechtliche Umsetzung unklar 

Wie konkret schliesslich eine funktionale Rechtsperson bei einer Verurteilung bestraft würde, kann der Rechtsgelehrte noch nicht sagen. Da müsse man grundlegend andere Fragen stellen, sagt er. «Für eine strafrechtliche Verurteilung eines Menschen müssen wir immer einen persönlichen Schuldvorwurf machen können.» Wie aber strafrechtliche Verantwortung ohne Schuldvorwurf zu rechtfertigen sei, werde schon länger diskutiert. Eine Antwort gibt es noch nicht.