aus Telepolis, 27. Januar 2019
Das Moralmenü
Moralische Maschinen mit einer Stellvertretermoral
Die Maschinenethik bringt moralische und unmoralische Maschinen
hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind
bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist
das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine
eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies
auch tun würde. Die Vorteile und Nachteile werden in diesem Beitrag
diskutiert.
Ansätze in der Maschinenethik
Die Maschinenethik ist nicht nur eine reflektierende, sondern auch
eine gestaltende Disziplin (Wallach und Allen 2009; Anderson und
Anderson 2011). Sie bringt moralische und unmoralische Maschinen hervor,
als Konzepte, Simulationen oder Prototypen (Anderson und Anderson 2011;
Pereira und Saptawijaya 2016; Bendel 2016c; Bendel 2018b), künftig
vielleicht verstärkt in Form von Produkten. Die maschinelle Moral ist
überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie
Regeln. Die Maschine ist damit zu bestimmten Aktionen in der Lage, zu
anderen nicht (Bendel 2018b). "Maschinelle Moral" ist wie "moralische
Maschine" ein Terminus technicus, so wie auch "künstliche Intelligenz".
Wenig verfolgt wird der Ansatz, dass die Maschine selbst die Moral
weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert,
mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael
Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO
nach eigenen Angaben mit Methoden des Machine Learning moralisch
erweitert. Er passt sich automatisch an die jeweilige Situation im
Pflegebereich an (Anderson et al. 2017). Die Andersons, Pioniere der
Maschinenethik und Herausgeber des Klassikers "Machine Ethics" (Anderson
und Anderson 2011), stellen ihre Implementierung im Mai 2019 in
Deutschland vor, beim Berliner Kolloquium über Pflegeroboter.
Ein Ansatz, der ebenfalls Flexibilität verheißt, ist das Moralmenü
(kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine
eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse,
seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese
agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail.
Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine
gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen
festzulegen. Ideal ist, wenn er keine Programmierkenntnisse braucht,
sondern in einfacher und zielführender Weise eingreifen kann. Natürlich
lässt sich das Moralmenü mit Machine Learning kombinieren.
Der Verfasser hat von 2013 bis 2018 an der Hochschule für Wirtschaft
FHNW vier Artefakte der Maschinenethik entwickelt (Bendel 2016a, 2017;
Bendel et al. 2017). Für eines von ihnen, den tierfreundlichen
Saugroboter LADYBIRD, hat er ein Moralmenü konzipiert, das noch nicht
implementiert wurde. Zudem ist ein anderes für einen Sprachassistenten
in der Art von Google Duplex entstanden, der telefonisch mehr oder
weniger selbstständig Reservierungen und Bestellungen vornehmen kann. Im
vorliegenden Beitrag präsentiert der Verfasser die Idee des Moralmenüs
und die zwei konkreten Konzepte, für zwei unterschiedliche Maschinen
bzw. Systeme. Dann diskutiert er Vor- und Nachteile und präsentiert
Verbesserungsmöglichkeiten.
Die Idee des Moralmenüs
Die Idee des Moralmenüs ist, dass ein Besitzer oder Benutzer über
dieses eine Maschine - etwa einen Haushaltsroboter - so anpassen kann,
dass sie seinen moralischen Vorstellungen und Überzeugungen weitgehend
entspricht. Es entsteht eine Stellvertretermaschine mit einer im Detail
ausgearbeiteten Stellvertretermoral. Die Maschine tut das, was der
Mensch auch tun würde, in seiner Abwesenheit und ohne seine Steuerung.
Man muss sich, um das Moralmenü bedienen zu können, darüber im Klaren
sein, welche Wertmaßstäbe man hat und welchen Verhaltensregeln man
folgt. Vorausgesetzt wird zudem, dass man will, dass diese moralischen
Vorstellungen und Überzeugungen in der eigenen Abwesenheit
durchschlagen.
Pereira und Saptawijaya haben im Kontext der Maschinenethik eine
virtuelle Simulation entwickelt, in der ein Roboter eine Prinzessin
retten soll. Zur Erreichung des Ziels kann man unterschiedliche Wege mit
unterschiedlichen moralischen Implikationen wählen (Pereira und
Saptawijaya 2016). Ansonsten existieren kaum Ansätze, um die Moral im
Betrieb zu beeinflussen, außer eben von (Anderson et al. 2017).
Grundsätzlich geht es bei der Maschinenethik um autonome oder
teilautonome Maschinen, etwa um Softwareroboter wie Chatbots, Social
Bots, Softwareagenten und virtuelle Assistenten oder um Hardwareroboter
wie selbstständig fahrende Autos, Kampfflugzeuge und Serviceroboter. Aus
normalen Maschinen werden moralische - sie werden sozusagen
moralisiert. Dieses Moralisieren erfolgt entweder durch den Forscher,
Erfinder, Hersteller, Entwickler etc., sodass das Moralmenü eine
zusätzliche Option für eine moralische Maschine darstellt, oder
vollständig durch das Moralmenü, sodass erst dieses aus einer neutralen
eine moralische Maschine macht. Auch das Moralmenü wird wiederum vom
Forscher, Erfinder, Hersteller etc. stammen, außer man gestaltet es
völlig offen, was noch zu thematisieren ist. Insofern kann man es im
Bereich des Ethics by Design (Dignum 2018) verorten, wobei der
Unterschied zu üblichen Anwendungen eben die Alternativen sind, die
gewährt werden.
Das Moralmenü sollte so gestaltet sein, dass die eigene Moral in
unterschiedlichen Aspekten und in möglichst weitem Umfang abgebildet
werden kann. Dabei muss es zu den jeweiligen Funktionen der Maschine
passen. Es sollte leicht bedienbar sein, denn wenn z.B.
Programmierkenntnisse oder Kenntnisse einer Beschreibungssprache
gefordert werden, um ein Massenprodukt auf Spur zu bringen, wird das
eine zu hohe Hürde und die Akzeptanz gering sein, selbst wenn
Autorenwerkzeuge zur Verfügung stehen. Es sollten, um dem Namen und der
Idee gerecht zu werden, moralische Fragen im Mittelpunkt sein, nicht
pädagogische oder psychologische. Natürlich können diese aber im
Moralmenü ein Stück weit berücksichtigt werden (man kennt bei
Smartphones pädagogische Funktionen, die einen warnen, wenn man die
Musik aufdreht).
In den beiden Konzepten, die der Verfasser 2018 entwickelt hat und
die visuelle und textuelle Elemente enthalten, werden virtuelle
Schieberegler benutzt, so wie sie bei Smartphones und Tablets üblich
sind; man aktiviert oder deaktiviert damit die Funktionen. Links davon
wird beschrieben, was der Fall ist, wenn der Regler nach rechts
geschoben und farblich geändert, also aktiviert wird. Es wird nicht
thematisiert, was mögliche Voreinstellungen sind. Möglich wäre, dass
alle Regler am Anfang nach links geschoben sind, aber auch eine Mischung
ist denkbar.
Das Zusammenspiel zwischen Moralmenü und Maschine bzw. System wird in
den Konzepten nicht erörtert und soll hier ebenso wenig eine Rolle
spielen. Auch die Umsetzung der moralischen Maschinen selbst steht nicht
im Vordergrund. Es kann um ganz unterschiedliche Komponenten gehen, um
Hard- und Software, um Bewegungs- oder Sprachfunktionen. Auch der Erwerb
der Anwendung ist nicht relevant - diese kann mit dem Produkt
mitgeliefert oder in einem App Store bezogen werden. Als Endgerät kann
das Smartphone, ein Tablet, ein in das Gerät verbauter Touchscreen oder
ein externes, spezielles Display dienen.
Das LADYBIRD-Projekt
LADYBIRD wurde bereits im Jahre 2014 im Rahmen einer Designstudie der
Maschinenethik beschrieben. Eine solche Designstudie enthält visuelle
und textuelle Elemente und benennt die Grundfunktionen einer moralischen
Maschine (Bendel 2017). Die damalige Idee war, eine moralische Maschine
zu schaffen, genauer einen tierfreundlichen Saugroboter. Damit war
neben der Maschinenethik die Tierethik tangiert, zudem die
Tier-Maschine-Interaktion (Bendel 2014, 2016b) bzw. die
Tier-Computer-Interaktion (Mancini 2011).
Insbesondere sollten beim Betrieb Marienkäfer und andere Insekten
verschont werden, die sich auf dem Boden befinden - von daher der Name.
In der Folge entstand ein annotierter Entscheidungsbaum, der die
konkreten Abklärungen und Optionen der Maschine beschrieb und - in den
Annotationen an den Knoten - moralische Begründungen und Annahmen
enthielt (Bendel 2018a). Die wichtigste Funktion war, dass der
Saugroboter ein Insekt identifizierte und dann seine Arbeit einstellte,
bis das Tier verschwunden war oder der Besitzer ihn wieder anstellte.
2017 wurde LADYBIRD an der Hochschule für Wirtschaft als Prototyp
entwickelt (Bendel 2017). Die Maschine war in der Lage, rote Flecken und
Objekte auf dem Boden zu erkennen, daraufhin die Arbeit einzustellen
und den Benutzer zu informieren. Sie konzentrierte sich also auf
Marienkäfer. Der genannte Entscheidungsbaum wurde teilweise verwendet.
Eine zentrale Rolle spielte ein Farbsensor (Hueber 2013). Nicht zum
Einsatz kam ein Bewegungsmelder, und auch Bild- und Mustererkennung
konnte das Team nicht berücksichtigen. Dies soll in einem Folgeprojekt
nachgeholt werden.
Abb. 1 zeigt das Moralmenü für LADYBIRD. Dieses wurde in einem
Grundlagenbeitrag zur Maschinenethik abgedruckt (Bendel 2018b) und dort
kurz erklärt - die Idee eines Moralmenüs wurde skizziert, aber nicht
detailliert erläutert. Es ist zudem bei den Designstudien auf maschinenethik.net zu finden, neben ROBOCAR, CLEANINGFISH und einigen anderen.
Nach der Ursprungsidee erkennt und verschont LADYBIRD Marienkäfer und
andere Insekten. Das Menü beginnt mit der Möglichkeit, Ungeziefer wie
Kakerlaken töten zu lassen. Dazu müsste die Maschine Marienkäfer von
Ungeziefer unterscheiden können. Ungezieferbefall ist bei Behausungen
ein Problem und macht diese u.U. unbewohnbar. Allerdings ist ein
Staubsauger eingeschränkt hilfreich bei der Bekämpfung. Der Benutzer
würde sich aktiv dafür entscheiden, dass die Maschine tötet - freilich
würde sie das eh tun, wenn sie nicht moralisiert wäre. Mit dem zweiten
Schieberegler kann der Benutzer das Töten von Spinnen anordnen. Vor
diesen Tieren fürchten sich viele Menschen - sie sind aber in unseren
Breitengraden in der Regel unschädlich und überdies nützlich, selbst in
der Wohnung.
Mit der nächsten Option wird der Saugroboter zum Spielzeug. Man
könnte weiter verfeinern, etwa zwischen Katze und Hund unterscheiden,
denn jedes Tier versteht etwas anderes unter einem geglückten Spiel.
Letztlich soll zu einem guten Leben größerer Tiere beigetragen werden.
Dies ist auch der Sinn der nächsten Option. Es ist ein Belohnungssystem,
in das der Benutzer nicht aktiv eingreifen kann, und das hier recht
willkürlich gewählt wurde. Wenn LADYBIRD erfolgreich ist in seiner
Grundidee, wird Geld des Benutzers überwiesen an eine
Tierrechtsorganisation. Das Wohl des Besitzers, das er Tieren angedeihen
lässt, verdoppelt sich. Man könnte genauso andere Organisationen
vorsehen.
Der nächste Punkt betrifft den Datentransfer. Moderne
Staubsaugerroboter können Daten zu Größe und Beschaffenheit von
Behausungen, zum Inventar und zu den Bewohnern generieren und verbreiten
(Ram 2017). Staubsaugerhersteller oder Dritte, etwa Datenfirmen, mögen
ein Interesse daran haben. Auch für Polizei und Geheimdienst können
wertvolle Angaben entstehen. Der Benutzer kann die Weitergabe von Daten
verhindern, was im Zusammenhang mit Privacy by Design (Schaar 2010) und
mit dem Verhältnis von Robotern und Privatsphäre (Calo 2011) gesehen
werden kann.
Ebenfalls auf die Datenerhebung bezieht sich die nächste
Entscheidung. Staubsaugerroboter haben einen besonderen Blickwinkel. Sie
sind unten am Boden und nehmen den Raum vor ihnen auf, manchmal auch
über ihnen (was mit Kameras erfolgen kann, aber nicht muss). Sie können
dadurch persönliche Daten generieren, die die Intim- und Privatsphäre
tangieren, wie es beim Upskirting überhaupt der Fall ist. Ist der Regler
nach rechts geschoben, wird die Maschine zum diskreten Beobachter.
Die letzte Option macht den Staubsaugerroboter zum lernenden System,
zu einer moralischen Maschine, die Erfahrungen sammelt und Regeln
anpasst. Das Dazulernen bei moralischen Maschinen kann mit Risiken
verbunden sein - darauf wird der Benutzer explizit hingewiesen.
Allerdings mögen diese in einer Umgebung wie dem Haushalt ausgesprochen
begrenzt sein. Es ist möglich, die Folgen in einem Infokasten zu
skizzieren, so wie zu allen Schieberpositionen weiterführende
Informationen sinnvoll sind.
Es ist wichtig, nochmals darauf hinzuweisen, dass es bei dem Konzept
ums Prinzip geht. Man kann jede Option kritisieren und detaillieren. Es
soll die Idee vorgestellt, nicht die Umsetzung vorweggenommen werden.
Einem Moralmenü als Produkt bzw. Bestandteil eines Produkts mag ein
langer Weg vorausgehen. Im Grunde handelt es sich übrigens um ein
hybrides System. Es gibt eine Voreinstellung, an der nichts geändert
werden kann und die das Verschonen von Marienkäfern zur Folge und damit
moralische Implikationen hat. Andere Einstellungen können angepasst
werden.
Google Duplex
Im Jahre 2018 wurde Google Duplex präsentiert, das auf Google
Assistant basiert, einem virtuellen Assistenten, der u.a. auf
Smartphones eingesetzt wird (Rawes 2018). Die Idee ist, mit einer
High-End-Technologie normale Telefone auf der ganzen Welt anzuwählen und
private Aufgaben zu automatisieren. So kann Google Duplex etwa in
Restaurants oder Frisörsalons anrufen und Tische reservieren bzw.
Termine vereinbaren (Dwoskin 2018). Die Daten und der anzurufende
Teilnehmer müssen vorher vom Benutzer genannt werden - den Rest erledigt
das System. Die Stimme klang bei den Präsentationen von Google sehr
lebensecht, das Sprechen überhaupt, weil Pausen, Ähs und Mmhs vorkommen,
wie bei echten Menschen. In der Imperfektion könnte der Schlüssel zur
Perfektion liegen.
Google Duplex sah sich alsbald intensiven Diskussionen, nicht zuletzt
aus ethischer Sicht, ausgesetzt (Wong 2018). So wurde bemängelt, dass
die Maschine nicht offenlegte, dass sie eine Maschine war. Das ganze
Gespräch konnte als Täuschung gegenüber dem Angerufenen aufgefasst
werden. Kritisch wurde überdies gesehen, dass ein sozialer Akt durch
eine automatisierte Aktion substituiert wurde. Google besserte bald
nach; Duplex verrät nun am Anfang des Dialogs, was es ist. Es kam nicht
zuletzt die Frage auf, ob die Gesprächssituationen echt waren oder
gestellt bzw. bearbeitet wurden (Lindner 2018).
Das MOME für virtuelle Assistenten (Abb. 2) wurde 2018 in einem
Artikel über künstliche Stimmen abgedruckt (Bendel 2018c). Es wurde
nicht weiter erklärt und diente vor allem als Illustration. In dem
Artikel ging es um die synthetischen Stimmen sowohl von Software- als
auch von Hardwarerobotern. Das MOME ist zudem bei den Designstudien auf maschinenethik.net zu finden.
Die erste Einstellung zielt auf die Offenlegung der maschinellen
Existenz. Als das MOME entwickelt wurde, war Google in dieser Hinsicht
noch nicht so weit. Beim GOODBOT, einem moralischen Chatbot, den der
Verfasser 2013 mit seinem Team entwickelte, war die Transparenz fest im
System verankert (Bendel 2016a). Hier hat der Benutzer nun die Wahl. Die
zweite Option reguliert Stimme und Sprechen. Wenn der virtuelle
Assistent wie eine Maschine spricht, weiß der Benutzer dadurch, selbst
wenn er die Offenlegung nicht mitbekommen oder vergessen hat, worum es
sich handelt. Auch bei Pepper wurde eine robotische Sprechweise
umgesetzt, während man bei Alexa im Gegenteil eine möglichst menschliche
Sprechweise anstrebt, sie etwa flüstern lässt (Myers 2017).
Bei der Option zu den Komplimenten wird das Verhalten der Maschine in
Bezug auf einen bestimmten Aspekt reguliert. Komplimente führen zu
emotionalen Veränderungen und Bindungen. Ob man diese bei Systemen
fördern soll, ist wiederum umstritten und kommt auf den Kontext an. Die
Begrenzung der Gesprächszeit hängt mit der Fairness mit Blick auf den
Wert der Lebenszeit zusammen - im Prinzip könnte die Maschine versuchen,
den Gesprächspartner ein Leben lang an der Strippe zu halten. Sie
verbraucht dabei keine Lebenszeit, der Mensch aber schon. Natürlich wird
jeder von uns nach einer Weile aufhängen.
Das Datengebot war bereits im anderen Moralmenü fixiert. In diesem
Zusammenhang können wieder persönliche Daten anfallen, die schützenswert
sind. So könnten Dritte daran interessiert sein, welche Gewohnheiten
man als Verbraucher hat oder wann ein Prominenter in welchem Restaurant
zu Abend isst. Die nächste Option erscheint ebenfalls vertraut. Nun
orientiert sich das Selbstlernen aber am Benutzer, was beinhaltet, dass
man dessen Eingaben auswertet und verbindet, ja vielleicht sogar seine
Gespräche mithört und sein Verhalten am Handy analysiert. Auf das Risiko
dieser Aktivierung wird wiederum hingewiesen. Auch der letzte Punkt ist
vom anderen MOME her bekannt. Wiederum wird das Risiko angeführt.
Vorteile eines Moralmenüs
Bisher liegt das Moralmenü in seinen Varianten lediglich als Konzept
vor. Dennoch können schon erste Einschätzungen gegeben werden. Im
Folgenden werden die Vorteile des MOME aufgeführt und grundsätzlich und
in seinen beiden Konkretisierungen diskutiert.
Das Moralmenü macht dem Besitzer oder Benutzer bewusst, dass bei
einem Vorgang, sei er noch so gewöhnlich und alltäglich, moralische
Entscheidungen getroffen werden und diese auf Maschinen transferiert
werden können. Dabei werden sie beim Namen genannt bzw. beschrieben.
Auch eine Bewertung kann mitschwingen. Beim LADYBIRD-MOME wird sich der
Benutzer beim Anschauen der Optionen und beim Verschieben der Regler
bewusst, was er in welcher Weise zum Wohl oder Leid von Tieren
beeinflussen kann. Das MOME für virtuelle Assistenten wie Google Duplex
macht ihm klar, dass in einer Gesprächssituation ebenso moralische
Fragen entstehen und eine Automatisierung bestimmte Auswirkungen hat.
Diese sind z.T. schwer einzuschätzen, zumal der Gesprächspartner
womöglich unbekannt ist.
Das MOME erlaubt die Übertragung der persönlichen Einstellungen.
Normale Maschinen kennen gar keine Moral; zumindest ist diese in ihnen
nicht explizit gestaltet. Moralische Maschinen werden meist so gestaltet
sein, wie es der Hersteller oder Entwickler wünscht oder der Markt es
verlangt. Mit dem MOME ist Individualisierung in der Automatisierung
möglich, übrigens auch ein Anspruch der Industrie 4.0 (Reinheimer 2017).
Die beiden Konzepte ähneln sich teilweise, insofern sie eben die Moral
des Benutzers abbilden. Sie unterscheiden sich zugleich deutlich. In dem
einen Fall wird LADYBIRD dazu gebracht, sich in einer bestimmten Weise
gegenüber Insekten und anderen Tieren zu verhalten, in dem anderen Fall
der virtuelle Assistent an die eigene Person angepasst, um dann selbst
als Quasiperson aufzutreten. Die Stellvertretermaschine wird sozusagen
zur Stellvertreterperson.
Mit der Übertragung hängt zusammen, dass die Moral des Benutzers
ernstgenommen wird. Diese ist von Bedeutung, sie verändert die
Funktionen des Geräts und hat Auswirkungen auf Menschen und Tiere. Das
ist psychologisch relevant, insofern das Selbstbewusstsein gestärkt
wird, und philosophisch, insofern die Moral ins Zentrum von Reflexionen
und Aktionen rückt. Wie das LADYBIRD-MOME zeigt, handelt es sich um
Entscheidungen existenzieller Art, zumindest aus der Perspektive von
Tieren. Der Benutzer kann die Tötung von Ungeziefer oder Spinnen
veranlassen. Das Verwenden des MOME für virtuelle Assistenten wie Google
Duplex kann das Verhältnis zwischen Kunde und Geschäft beeinflussen und
den menschlichen Gesprächspartner verändern.
Mit der Zeit werden, wenn die Idee sich verbreitet und grundsätzlich
überzeugt, immer mehr Moralmenüs entwickelt und können immer mehr Regeln
identifiziert werden, die bei vielen Maschinen sinnvoll und zielführend
sind. So wie es im E-Learning sogenannte Learning Objects gibt, mit
denen man Texte und Tests zusammenstellen kann (Boyle 2003), könnte es
Moral Objects geben. Man wählt sie aus einer Übersicht oder einer
Datenbank für das jeweilige Moralmenü aus. Bereits bei den beiden
vorgestellten Konzepten sind Überschneidungen vorhanden, nämlich in
Bezug auf die Datenweitergabe und das Selbstlernen. Solche
Überschneidungen könnte man in Metakonzepte aufnehmen, die man bei der
Entwicklung aller Moralmenüs anwenden könnte, oder eben in die erwähnten
Übersichten und Datenbanken, im Sinne einer Modularisierung, einer
Analyse und Synthese der Moral.
Generell kann in diesem Zusammenhang das Vorhandensein einer
Manipulationsmöglichkeit als Vorteil gewertet werden. Der Maschinenethik
geht es um die Erforschung und Entwicklung moralischer Maschinen, und
ein Moralmenü ist ein Beitrag sowohl zur Disziplin als auch für die
Praxis. Beide MOMEs sind bloß beispielhaft ausgeführt, über die Optionen
kann man sich streiten, und auch darüber, ob es nicht passendere oder
wichtigere gibt. Die MOMEs sind kein Endresultat, sondern ein
Anfangspunkt, für Diskussionen in der Disziplin und für Realisierungen
in der Praxis. Sie sind Bestandteil einer iterativen Forschung und
Entwicklung.
Bisher wurde angenommen, dass ein einzelner Besitzer oder Benutzer
seine Moral auf die Maschine überträgt. Es kann sich indes genauso um
einen Haushalt handeln, in dem mehrere Personen leben. Bei bestimmten
Maschinen kann jeder seine Moral transferieren. Eine interessante
Begleiterscheinung ist, dass man womöglich die Einstellungen der anderen
Mitglieder, ob der Familie oder der WG, erfährt. Beim virtuellen
Assistenten kann bei der Dateneingabe auch die Moral der Maschine
justiert werden. So wird diese den Ansprüchen des jeweiligen Benutzers
(nicht unbedingt des Besitzers) gerecht. Beim Saugroboter ist dies
offensichtlich problematisch, weil er ja in Abwesenheit ohne direkte
Aufsicht seine Arbeit verrichten soll.
Die Liste ließe sich fortsetzen. Man kann das Moralmenü für eine
interessante Erfindung halten, die vielleicht nicht reüssiert, die aber
verwandte Innovationen nach sich zieht.
Nachteile eines Moralmenüs
Im Folgenden werden die Nachteile des Moralmenüs aufgeführt und grundsätzlich und in seinen beiden Konkretisierungen diskutiert.
Moralische Haltungen können komplex sein. Die Schieberegler führen zu
einer gewissen Vereinfachung. Es wird nur die Möglichkeit offeriert,
eine Funktion zu deaktivieren und zu aktivieren. Damit werden zunächst
vorgegebene Regeln gestärkt und die je nach Situation unterschiedlichen
Folgen ausgeblendet. Im Extremfall kommt es zu Verfälschungen, etwa weil
man eigentlich eine Position hat, die in der Mitte liegt. Beide
Konzepte sehen eine Möglichkeit vor, der Simplifizierung und der
Dominanz der Regeln zu begegnen. So führt die Selbstlernfähigkeit
potenziell zu neuen Regeln und zu Anpassungen des Systems. Damit
verbunden sind allerdings gewisse Risiken, auf die ebenfalls hingewiesen
wird. Man könnte die Regler in manchen Fällen für drei Positionen
vorsehen oder fließende Übergänge ermöglichen.
Mit einer moralischen Maschine wird grundsätzlich Verantwortung in
Bezug auf spezifische Entscheidungen abgegeben. Dabei kann die Maschine
selbst vermutlich gar keine tragen, höchstens in dem Sinne, dass sie
eine Aufgabe erledigt (eine rudimentäre Form der Primärverantwortung).
Kaum möglich bzw. sinnvoll ist es, eine Sekundärverantwortung
anzunehmen, die Maschine zu rügen und zu tadeln (Bendel 2018b). Der
Mensch könnte sich seiner Verantwortung entwöhnen. Er könnte durch das
MOME in der Vorstellung gestärkt werden, alles in seiner Macht Stehende
getan zu haben und sich daher außerhalb der Verantwortung sehen.
Die beiden Konzepte sind in dieser Frage unterschiedlich zu bewerten.
LADYBIRD ist im Haushalt unterwegs, der zu einer Person oder einer
Gruppe gehört. Die Situation ist wenig komplex. Ein virtueller Assistent
wie Google Duplex richtet sich dagegen nach außen und kann mehr Schaden
anrichten. So kann er Menschen vor den Kopf stoßen oder
Falschreservierungen vornehmen, wodurch sich Haftungsfragen stellen. Das
MOME soll aber auch genau dem entgegenwirken, wobei die Möglichkeiten
beim vorliegenden Konzept längst noch nicht ausgeschöpft sind.
Wenn der Benutzer zu schädigenden Handlungen und bösen Taten neigt,
erlaubt es ihm das MOME, das Schlechte mit Hilfe maschineller Mittel zu
verbreiten und verstärken, es vorhanden sein zu lassen selbst in seiner
Abwesenheit. Die Freiheit, die das MOME erlaubt, kann missbraucht bzw.
ausgenutzt werden. In diesem Sinne sind feste Vorgaben eine verlässliche
Alternative und verhindern zumindest das Schlimmste (sofern sie nicht
selbst das Schlimmste enthalten). Diese Problematik wird vor allem beim
LADYBIRD-MOME offenbar. Der Saugroboter sollte nach dem ursprünglichen
Plan in der Lage sein, nicht allein Marienkäfer, sondern auch andere
Insekten zu verschonen (Bendel 2017).
Dadurch wäre er eine grundsätzlich
tierfreundliche (eigentlich insektenfreundliche) Maschine geworden,
zugleich eine, die über den Kopf des Benutzers hinweg entscheidet (der
sie allerdings nicht kaufen muss). Das MOME erlaubt es dagegen,
bestimmte Lebewesen töten zu lassen. Auch das Menü für virtuelle
Assistenten zeigt Möglichkeiten des Missbrauchs. So ist die Option,
keine Komplimente zu machen, als Schutz vor emotionalen Bindungen
gemeint, doch kann ein Gespräch ohne Komplimente selbst emotionslos und
kalt wirken.
Die bereits thematisierte Bewusstwerdung von Wertvorstellungen und
Verhaltensregeln hat eine Schattenseite. Das MOME könnte zum Resultat
haben, dass sich die individuelle Moral ins Negative verändert. Das Böse
wird nicht nur von der Maschine fortgeführt, sondern macht sich im
Benutzer breit. Die Maschine wird zum schlechten Vorbild des Menschen.
Die Beschreibung und Einordnung der Wirklichkeit schafft eine neue
Wirklichkeit. Die Moralmenüs zeigen dem Benutzer auf, was er bzw. die
Maschine bisher getan und gelassen hat, und geben ihm die Möglichkeit,
seine Handlungen über die Maschine zu vervielfältigen. Sie zeigen ihm
auch auf, was er in Zukunft denken und tun könnte. Er könnte bestimmte
Tiere töten lassen, an die er vorher keinen Gedanken verschwendet hat,
oder selbst Komplimente im Gespräch aussparen, in der Meinung, damit wie
die Maschine Probleme zu vermeiden.
Durch das Moralmenü werden letztlich doch Optionen vom Hersteller
oder Entwickler festgelegt. Damit kann die eigene Moral in einigen
Fällen vollständig, in vielen Fällen bloß unvollständig abgebildet
werden. Es fragt sich zudem, nach welchen Kriterien die Optionen
überhaupt entwickelt werden. Dafür muss sich allerdings die
Maschinenethik nicht zwangsläufig zuständig fühlen (Bendel 2018b). Eine
philosophische Disziplin ist daran interessiert, Werte zu untersuchen,
nicht vorzugeben.
Die Maschinenethik, die mit KI und Robotik
zusammenarbeitet, ist vor allem daran interessiert, einer Maschine Werte
einzupflanzen, welche auch immer. Die beiden Konzepte haben
ausschnitthaft Möglichkeiten im Moralischen gezeigt. Man könnte weiter
in die Tiefe gehen, könnte mehr Optionen gewähren. Damit würde es
allerdings anspruchsvoller, unübersichtlicher und
bedienungsunfreundlicher. Besonders an LADYBIRD ist, dass es eine feste
Vorgabe gibt, die nicht geändert werden kann, eben das Verschonen von
Marienkäfern.
Ein MOME hat zu ganz unterschiedlichen Anforderungen zu passen. Es
muss, mit anderen Worten, für jede Maschine individuell entwickelt
werden, zumindest für jeden Typ. Dabei sind unterschiedliche Ziele und
Ebenen zu berücksichtigen. Bereits angeklungen ist, dass sich mit der
Zeit, im Zuge der Entwicklung vieler MOMEs, Metakonzepte ergeben
könnten. Die beiden Konzepte zeigen, dass bei moralischen Maschinen (wie
bei normalen Maschinen) ganz unterschiedliche Ziele und Ebenen
existieren. So treten Maschinen auf, die Akte oder Aktionen ausführen,
und Maschinen, die Dialoge führen, mithin Sprechakte. Zum Teil können
diese Ebenen zusammenwirken. So ist es bei humanoiden Robotern üblich
und sinnvoll, Mimik, Gestik und Sprache aufeinander abzustimmen.
Auch im Abschnitt der Nachteile wurde bisher angenommen, dass ein
einzelner Besitzer oder Benutzer seine Moral der Maschine leiht. Es ist
gleichermaßen ein Haushalt mit unterschiedlichen Persönlichkeiten
denkbar. Bei bestimmten Maschinen kann jedes Mitglied seine Moral
transferieren.
Beim virtuellen Assistenten kann bei der Dateneingabe die
Moral der Maschine eingestellt werden.
Ein bereits angesprochenes
Problem könnte sein, dass Verantwortungs- und Haftungsfragen entstehen,
nun allerdings schwer lösbare, da Besitzer und Benutzer nicht mehr (oder
nicht unbedingt) identisch sind. Beim Saugroboter ist die jeweilige
Änderung offensichtlich problematisch, weil er ja in Abwesenheit ohne
direkte Aufsicht seine Arbeit verrichten soll. Es kann zu Streit
zwischen den Haushaltsmitgliedern kommen. Dass jeder seinen eigenen
Saugroboter hat, ist ebenso wenig zweckmäßig, wobei die Industrie nichts
dagegen haben dürfte.
Auch diese Liste ließe sich fortführen. Man mag etwa behaupten, dass
es sich um marginale Probleme handelt, die mit einem enormen Aufwand
angegangen werden.
Weitere Ansätze
Ein Moralmenü kann die Moral des Besitzers oder Benutzers auf ein
Gerät oder einen Roboter übertragen. Dabei ergeben sich Vor- und
Nachteile auf verschiedenen Ebenen. Das Moralmenü unterstützt den
Approach, die Moral des Benutzers zu stärken, wie immer diese beschaffen
ist. Dabei kann die Moral auch im negativen Sinne durch die Maschine
verbreitet und in der Person verändert werden. Dem entgegen stehen
könnten hybride Maschinen, wie im Grunde LADYBIRD eine ist.
Wie am Anfang angeklungen ist, könnte man das Moralmenü allerdings
genauso völlig offen gestalten. Der Benutzer müsste ihm gegenüber seine
Vorlieben formulieren, die das System dann übernimmt. Dafür müsste es
eine einfach bedienbare Benutzeroberfläche oder - an anderer Stelle
erwähnt - eine einfache Programmier- oder Beschreibungssprache geben.
Eine Beschreibungssprache, die sich für die Moral im Geschriebenen und
Gesprochenen sowie das moralisch adäquate Anzeigen von Bildern, Videos
und Animationen und das Abspielen von Klängen anbieten würde, könnte in
Anlehnung an XML, HTML, SSML etc. MOML heißen (Morality Markup
Language). Selbst anspruchslose Programmier- und Beschreibungssprachen
könnten aber einzelne Personen überfordern. Zudem würde man die
Maschinen selbst überfordern, denn eine Vielfalt der Einstellungen
müsste erst einmal technisch umgesetzt werden können.
Etliche weitere Ansätze sind denkbar. So könnte die Maschine den
Benutzer psychologische und ethische Tests absolvieren lassen und auf
dieser Grundlage sich selbst anpassen. Daneben sind Interviews möglich,
oder der Benutzer macht der Maschine vor, was er gemeinhin tun würde,
dient also als Referenzperson, was auch bei autonomen Autos diskutiert
wurde (Bendel 2016c). Der vorliegende Beitrag beansprucht nicht, die
beste Lösung gefunden zu haben. Aber es wurde hoffentlich ein
bedenkenswerter Beitrag für die Maschinenethik und womöglich für die
Praxis geleistet.
Nota. - Der elementare Fehler in dem ganzen Ansatz ist... nein, nicht erst, dass er soziale Klugheit für Moralität hält - das ist nur abgeleitet. Zugrunde liegt vielmehr die Auffassung, als sei Moralität so etwas wie Verstand. Nämlich so etwas wie Logik: das Höhere begründet das Untere, das Allgemeine das Beson- dere, das Prinzip seine Ableitungen, der Zweck das Mittel. Moralisches Handeln bestünde im Zuordnen einzelner Fälle zu einer je anzuwendenden Norm.
Das ist immernoch besser, als würde unter Moral eine Summe einzelner Fälle verstanden und bestünde in einer Art empirisch auszumachenden gemeinsamen Nenners. Aber weniger falsch ist es nicht.
Moral kommt von lat. mos, mores - Sitte, Gebräuche. Das griechische ethos bedeutet dasselbe; Ethologie heißt daher die Verhaltenskunde bei Mensch und Tier.
Historisch waren sie der Ursprung dessen, was man heute unter Sittlichkeit versteht; sie bestimmen, was sich gehört und was sich nicht gehört. Dass ein Unterschied, gar ein Gegensatz entstehen kann zwischen dem, was sich in einer historisch gewachsenen Gemeinschaft gehört, und dem, ich für meine höchstper- sönliche Pflicht erkenne, ist eine verhältnismäßig junge Erkenntnis, und sie beruht auf einer Erfahrung, die erst in komplexen modernen, nämlich bürgerlichen Gesellschaften so allgemein wurde, dass sie einen be- sonderen Namen nötig machte. Antigone war ein Einzelfall und als solche tragisch. Der Konflikt zwischen gesellschaftlichen Normen und dem, was mir mein Gewissen gebietet, ist schon eine banale bürgerlich Standardsituation. Weil nämlich das eigenverantwortliche, autonome Subjekt zur selbstverständlichen Existenzbedingung geworden ist: Es muss selber entscheiden.
Die Sprache unterscheidet noch immer nur zwischen positiven herrschenden Moralen und einer proble- matischen Moralität. Die Verwirrung ist daher groß. Es kann ja vorkommen und tut es oft genug, dass der ganz außermoralische Blick auf meinen Vorteil mir rät, dem Gebot der herrschenden Moral zu folgen und die Stimme meines Gewissens zu überhören.
Wer oder was ist aber mein Gewissen? Es ist das Bild, das ich mir von mir selbst gemacht habe und um dessentwillen ich mich achte. Der Autor sagt es selbst: Die Maschine kann sich nicht verantworten - näm- lich nicht vor sich.
Nun kann ich keinen Andern achten, wenn ich mich selbst nicht achte - und auf einmal verkehren sich die Seiten: Moralität wird zur Bedingung sozialer Klugheit. Und letztere muss der Maschine einprogrammiert werden, weil sie diese Bedingung selber nicht hat.
*
Das spielt in obigem Text freilich alles gar keine Rolle. Lesen Sie nochmal nach: Vor Gewissensentschei- dungen stellt er seine Maschinen nirgendwo. Es geht überall nur um Nützlichkeitserwägungen in mehr oder weniger allgemeiner Hinsicht. So dass er mit seinem Ding problemlos durchgehen könnte, wenn er nur... bescheiden genug wäre, von Moral nicht zu reden.
Aber er tut es ganz ungeniert, und mit ihm Kreti und Plethi. Es passt, aber das ist keine Rechtfertigung, per- fekt in eine Zeit, wo es neben Fakten noch alternative Fakten gibt und keiner es so genau nimmt; aber ein jeder sieht, wo er bleibt.
JE
Keine Kommentare:
Kommentar veröffentlichen