In der Industrie gibt es sie seit den 1960er Jahren: Roboter, die den Menschen bei der Arbeit untertstützen und einen Teil der Produktion übernehmen. Oft sind es fix installierte Schwenkarme, die hinter einem Schutzgitter ihre vorgesehenen Abläufe wiederholen.Knickarme der heutigen Generation lassen sich quasi von Hand programmieren: mit sanftem Druck macht der bedienende Arbeiter mit ihm die gewünschte Bewegung.
Die vielen feinen Gelenke reagieren schnell und fliessend, es fühlt sich an, als ob man einem Kleinkind, das selber essen will, die Hand mit dem Löffel zum Mund führt. Überhaupt bekommt die Maschine in der Interaktion beinah etwas Menschliches.
Wachsende Angst. Je mehr die Maschinen den Menschen ähneln, desto grösser wird das Interesse an ihnen. Aber auch die Angst. Was wenn sie den Menschen nicht mehr nur assistieren und sie unterstützen, sondern autonom entscheiden und uns plötzlich dominieren oder gar zerstören?
Sicher ist: weder macht es Sinn, sämtliche digitalen Möglichkeiten kritiklos anzuwenden, noch sie pauschal abzulehnen. Und wer heute noch glaubt, von der rasant fortschreitenden Technisierung und Digitaliserung einigermassen unbehelligt zu bleiben, verkennt die Realität.
Mit Informationen gefüttert. Wir leben längst in einer von Informationstechnologie dominierten Welt: Computer, Smartphones, Sensoren und unzählige Messgeräte bestimmen den Alltag. Autonome Haushaltgeräte, digitale Orientierungshilfen, Drohnen, selbstfahrende Autos und Bewachungsroboter sind im Einsatz. «Obwohl die digitale Entwicklung seit Jahrzehnten läuft, hat die öffentliche Wahrnehmung dieses Wandels erst in den vergangenen zwei Jahren so richtig eingesetzt», sagt Markus Christen, Ethiker an der Universität Zürich.
Kritische Fragen zur Digitalisierung werden in der Öffentlichkeit verstärkt diskutiert, sagt Christen. «Maschinen, die mit uns interagieren sollen, sind auf Informationen über die Welt angewiesen. Wenn dereinst ein Haushaltsroboter uns bedienen soll, müsste dieser uns konstant messen, damit er beispielsweise einen Sprachbefehl aufnehmen kann.» Die Maschine wisse ja nicht im Voraus, wann ihr Besitzer reden wolle.
Der autonome Algorithmus. Ethiker Christen sieht im zunehmenden Gebrauch von künstlicher Intelligenz ein Risiko, weil der Mensch Schritt für Schritt Entscheidungskompetenz abgibt. «Oft ist selbst den Entwicklern nicht klar, wie der Algorithmus zur gewünschten Lösung kommt. Das ist ein Problem, wenn Systeme Entscheidungen fällen, die Menschen in substanzieller Weise betreffen, wir aber nicht nachvollziehen können, warum so entschieden wurde.»
Gabriel Gruener ist Professor für Robotik an der Berner Fachhochschule. Mit seinem Team arbeitet er im «roboticsLab» an Robotern für die Industrie. Der Begriff Robotik werde im allgemeinen Sprachgebrauch sehr vielfältig interpretiert, meint er. «Einige meinen damit einen Knickarm, wie er in der Industrie eingesetzt wird. Andere humanoide Roboter mit Beinen und Kopf. Auch ein Softwareprogramm in einem Computer wird oft als Roboter bezeichnet.»
Ungelöste Energiezufuhr. Doch für den Wissenschaftler ist klar: «Ein Roboter hat neben der elektronischen Intelligenz auch mechanische Komponenten, um mit seiner Umgebung zu interagieren. Ein Softwareprogramm allein gehört also nicht dazu.» Und wie definiert er den Begriff Künstliche Intelligenz? «Dabei versucht man den komplexen menschlichen Geist nachzubauen. Wenn also ein Computer selbstständig Verknüpfungen herstellt und eigene Schlussfolgerungen zieht, spricht man von Künstlicher Intelligenz.»
Besonders geforscht wird derzeit an kollaborativen Robotern, die in der Industrie, der Landwirtschaft, in der Pflege oder im Haushalt eingesetzt werden könnten. Humanoide Roboter seien natürlich auch ein grosses Thema, sagt Gruener, aber ungelöst sei das Problem der Energiezufuhr. «Noch gibt es keine genügend potenten Akkus, um so viel Gewicht und Elektronik lang genug am Laufen zu halten.
Wem nützt ein Roboter, der zehn Minuten aktiv ist und dann mehrere Stunden aufgeladen werden muss?» Dennoch ist Gruener zuversichtlich. «Ich werde noch einige technologische Entwicklungssprünge erleben. Etwa das selbstfahrende, möglicherweise sogar das fliegende Auto. Technisch ist heute schon vieles möglich. Es fehlen jedoch die rechtlichen Grundlagen.»
Ein Roboter ist kein Ding. Dass ein dringender Gesetzgebungsbedarf bestehe, findet auch Susanne Beck, Rechtsprofessorin an der Universität in Hannover. «Wir müssen sowohl die ethischen, moralischen, aber eben auch die rechtlichen Fragen, die sich durch die neuen technologischen Möglichkeiten ergeben, in der Gesellschaft diskutieren. Pauschalurteile bringen nichts, wir müssen über viele einzelne Fragen entscheiden», meint die Juristin und mahnt zur Eile.
«Nach aktuellem Recht sind Roboter immer noch eine Sache, obwohl einige bereits eigene Entscheidungen treffen. Wir brauchen eine Rechtssicherheit, was die Verantwortung und Haftung angeht. Die Entwicklung ist rasant. Die Gesellschaft sollte nicht allzu sehr hinterher hinken.» katharina kilchenmann