aus Die Presse, Wien, 08. 7.2015 | 18:11
Woher sollen Roboter wissen, was gut ist und was böse?
Die ersten Testfahrten autonomer Automobile und Kriegsgeräte machen die Beantwortung einer Frage dringlich, die Science-Fiction-Autor Isaac Asimov vor über siebzig Jahren formuliert hat: Wie bringt man Ethik in Maschinen?
von Jürgen Langenbach
In seiner Kurzgeschichte „Runaround“, in der Science-Fiction-Autor Isaac Asimov 1942 einen verrückt gewordenen Roboter imaginierte, formulierte er die „Grundregeln des Roboterdienstes“: 1. Ein Roboter darf keinen Menschen verletzen oder, durch Unterlassung, zu Schaden kommen lassen. 2. Ein Roboter muss Befehlen von Menschen gehorchen, es sei denn, das würde mit Regel 1 kollidieren. 3. Ein Roboter muss seine eigene Existenz schützen, solange das nicht mit Regel 1 oder 2 kollidiert.
Asimov war ein weitsichtiger Mann, „Runaround“ spielt im Jahr 2015: Seit Mai fahren in der Wüste Nevadas autonome Lkw von Daimler herum, vielleicht begegnen sie bald den fahrerlosen Pkw von Google. Da werden sie schon auch einmal in Kollisionsgefahr geraten und entscheiden müssen: Wer weicht dann wie aus, möglicherweise zum Schaden von Dritten, die auch auf der Straße oder an ihrem Rand unterwegs sind? Solche Fragen waren dem US-Pentagon wichtig genug, um mit dem Thinktank Brookings Institution eine Tagung über Driverless Cars abzuhalten, aus Deutschland bzw. für Siemens war Karl-Josef Kuhn dabei, er formulierte die Frage dahingehend, wie man Roboter für Situationen rüsten kann, in denen „zwischen zwei Übeln gewählt werden muss“ (Nature 523, S.25).
Qual der Wahl: Das Wohl erzwingen?
Dann reicht Asimovs Regelwerk nicht hin, selbst in scheinbar schlichten Fragen: Man stelle sich einen Roboter vor, der Kranke und Alte betreut und sie zu festen Zeiten daran erinnert, ihre Medikamente einzunehmen. Wenn die Kranken und Alten sie aber nicht nehmen wollen? Dann ist ihre Gesundheit in Gefahr. Erzwingen kann der Roboter aber auch nichts, sonst wäre die Autonomie der Klienten außer Kraft gesetzt.
Das Ehepaar Anderson – sie Philosophin, er Computerforscher – hat die Situation durchgespielt und versucht, einen Spielzeugroboter – Nao – auf die Aufgabe vorzubereiten: Es hat ähnlich gelagerte Dilemmata bzw. ihre Lösungen aus Moralratgebern zusammengesucht, Nao sollte sie studieren und auf diesem Weg zum „Ethical Intelligent Agent“ werden: Die Entscheidungen trifft dann er, sie sind ihm nicht einprogrammiert.
„Das Letzte, was man haben möchte, wäre ein Roboter, den man auf eine Militärmission schickt und der in der Mitte des Geschehens ausarbeitet, welchen ethischen Regeln er folgen soll“, widerspricht Ronald Arkin, der im Auftrag des US-Militärs daran arbeitet, Kampfroboter mit einem Ethical Governor auszustatten, der für die Einhaltung des Kriegsrechts sorgt, etwa dafür, dass ein vollautomatischer Panzer, der auf feindliche Ziele hält, dann nicht abdrückt, wenn ihm ein Lazarett in die Kameraaugen gerät.
Dann entscheidet der Algorithmus, ganz sachlich und emotionslos, Arkin hält das für besser als Entscheidungen von Menschen, die auch von Emotionen getrieben sind, viele stimmen ihm dabei zu.
Aber diese Entscheidung – legitimes Ziel oder nicht – ist einfach, härter wird es bei Alan Winfield (Bristol). Der hat Roboter in der Größe von Hockey-Pucks programmiert. Die einen heißen H-Robots – nach human – und fahren auf einer Oberfläche herum, in der Löcher sind, die sie verschlingen können. Davor sollen A-Robots – nach Asimov – sie bewahren. Sie tun das auch zuverlässig, solange sie mit einem H-Robot zu tun haben: Sie eilen zwischen ihn und das Loch.
Aber schon, wenn es zwei H-Robots sind, wird die Sache schwierig: Manche A-Robots beeilen sich dann so, dass sie beide retten, andere bleiben gelähmt wie Buridans Esel. Und wenn nun noch der eine H-Robot ein Kind ist und der andere ein alter Mann, gar einer mit Erfahrung, die für das Überleben aller wichtig ist? Dann ist die künstliche Intelligenz endgültig überfordert. Aber die natürliche ist es auch: Wie würden Sie entscheiden?
Nota. - Hier geht es überall nur um soziale Nützlichkeit und nicht um Moral. Es wird dem Computer einprogrammiert, sich dem Wohl der Menschheit verpflichtet zu fühlen: dies ist der Maßstab, vor dem er seine Entscheidungen idealiter zu rechtfertigen hätte. Das kann im idealen Fall durch sachliches Vergleichen von Messdaten geschehen. Moralisch ist eine Wahl aber dann, wenn ich sie vor mir selber rechtfertigen muss - und nicht vor einem gedachten Abstraktum. Und das ist keine sachliche und keine Verstandesentscheidung, die durch das Abwägen von Gründen zu treffen wäre.
Es ist, trivial gesprochen, eine Gewissensentscheidung, durch die ich bestimme, was ich von mir selber halten will - nein: die davon bestimmt wird, was ich von mir selber halte. Und sowas kann der Computer nicht, weil er niemanden kennt, den er für "sich-selber" halten könnte; er kennt ja nicht einmal den Ingenieur, der ihn programmiert hat.
JE
Keine Kommentare:
Kommentar veröffentlichen