Donnerstag, 14. März 2019

Maschinelle Moral?

aus Telepolis, 27. Januar 2019

Das Moralmenü 
Moralische Maschinen mit einer Stellvertretermoral

 


Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in diesem Beitrag diskutiert. 

Ansätze in der Maschinenethik 

Die Maschinenethik ist nicht nur eine reflektierende, sondern auch eine gestaltende Disziplin (Wallach und Allen 2009; Anderson und Anderson 2011). Sie bringt moralische und unmoralische Maschinen hervor, als Konzepte, Simulationen oder Prototypen (Anderson und Anderson 2011; Pereira und Saptawijaya 2016; Bendel 2016c; Bendel 2018b), künftig vielleicht verstärkt in Form von Produkten. Die maschinelle Moral ist überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie Regeln. Die Maschine ist damit zu bestimmten Aktionen in der Lage, zu anderen nicht (Bendel 2018b). "Maschinelle Moral" ist wie "moralische Maschine" ein Terminus technicus, so wie auch "künstliche Intelligenz".
 
Wenig verfolgt wird der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO nach eigenen Angaben mit Methoden des Machine Learning moralisch erweitert. Er passt sich automatisch an die jeweilige Situation im Pflegebereich an (Anderson et al. 2017). Die Andersons, Pioniere der Maschinenethik und Herausgeber des Klassikers "Machine Ethics" (Anderson und Anderson 2011), stellen ihre Implementierung im Mai 2019 in Deutschland vor, beim Berliner Kolloquium über Pflegeroboter.
 
Ein Ansatz, der ebenfalls Flexibilität verheißt, ist das Moralmenü (kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse, seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail. Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen festzulegen. Ideal ist, wenn er keine Programmierkenntnisse braucht, sondern in einfacher und zielführender Weise eingreifen kann. Natürlich lässt sich das Moralmenü mit Machine Learning kombinieren.


 
Der Verfasser hat von 2013 bis 2018 an der Hochschule für Wirtschaft FHNW vier Artefakte der Maschinenethik entwickelt (Bendel 2016a, 2017; Bendel et al. 2017). Für eines von ihnen, den tierfreundlichen Saugroboter LADYBIRD, hat er ein Moralmenü konzipiert, das noch nicht implementiert wurde. Zudem ist ein anderes für einen Sprachassistenten in der Art von Google Duplex entstanden, der telefonisch mehr oder weniger selbstständig Reservierungen und Bestellungen vornehmen kann. Im vorliegenden Beitrag präsentiert der Verfasser die Idee des Moralmenüs und die zwei konkreten Konzepte, für zwei unterschiedliche Maschinen bzw. Systeme. Dann diskutiert er Vor- und Nachteile und präsentiert Verbesserungsmöglichkeiten. 

Die Idee des Moralmenüs
 
Die Idee des Moralmenüs ist, dass ein Besitzer oder Benutzer über dieses eine Maschine - etwa einen Haushaltsroboter - so anpassen kann, dass sie seinen moralischen Vorstellungen und Überzeugungen weitgehend entspricht. Es entsteht eine Stellvertretermaschine mit einer im Detail ausgearbeiteten Stellvertretermoral. Die Maschine tut das, was der Mensch auch tun würde, in seiner Abwesenheit und ohne seine Steuerung. Man muss sich, um das Moralmenü bedienen zu können, darüber im Klaren sein, welche Wertmaßstäbe man hat und welchen Verhaltensregeln man folgt. Vorausgesetzt wird zudem, dass man will, dass diese moralischen Vorstellungen und Überzeugungen in der eigenen Abwesenheit durchschlagen.

Pereira und Saptawijaya haben im Kontext der Maschinenethik eine virtuelle Simulation entwickelt, in der ein Roboter eine Prinzessin retten soll. Zur Erreichung des Ziels kann man unterschiedliche Wege mit unterschiedlichen moralischen Implikationen wählen (Pereira und Saptawijaya 2016). Ansonsten existieren kaum Ansätze, um die Moral im Betrieb zu beeinflussen, außer eben von (Anderson et al. 2017).

Grundsätzlich geht es bei der Maschinenethik um autonome oder teilautonome Maschinen, etwa um Softwareroboter wie Chatbots, Social Bots, Softwareagenten und virtuelle Assistenten oder um Hardwareroboter wie selbstständig fahrende Autos, Kampfflugzeuge und Serviceroboter. Aus normalen Maschinen werden moralische - sie werden sozusagen moralisiert. Dieses Moralisieren erfolgt entweder durch den Forscher, Erfinder, Hersteller, Entwickler etc., sodass das Moralmenü eine zusätzliche Option für eine moralische Maschine darstellt, oder vollständig durch das Moralmenü, sodass erst dieses aus einer neutralen eine moralische Maschine macht. Auch das Moralmenü wird wiederum vom Forscher, Erfinder, Hersteller etc. stammen, außer man gestaltet es völlig offen, was noch zu thematisieren ist. Insofern kann man es im Bereich des Ethics by Design (Dignum 2018) verorten, wobei der Unterschied zu üblichen Anwendungen eben die Alternativen sind, die gewährt werden. 

Das Moralmenü sollte so gestaltet sein, dass die eigene Moral in unterschiedlichen Aspekten und in möglichst weitem Umfang abgebildet werden kann. Dabei muss es zu den jeweiligen Funktionen der Maschine passen. Es sollte leicht bedienbar sein, denn wenn z.B. Programmierkenntnisse oder Kenntnisse einer Beschreibungssprache gefordert werden, um ein Massenprodukt auf Spur zu bringen, wird das eine zu hohe Hürde und die Akzeptanz gering sein, selbst wenn Autorenwerkzeuge zur Verfügung stehen. Es sollten, um dem Namen und der Idee gerecht zu werden, moralische Fragen im Mittelpunkt sein, nicht pädagogische oder psychologische. Natürlich können diese aber im Moralmenü ein Stück weit berücksichtigt werden (man kennt bei Smartphones pädagogische Funktionen, die einen warnen, wenn man die Musik aufdreht).

In den beiden Konzepten, die der Verfasser 2018 entwickelt hat und die visuelle und textuelle Elemente enthalten, werden virtuelle Schieberegler benutzt, so wie sie bei Smartphones und Tablets üblich sind; man aktiviert oder deaktiviert damit die Funktionen. Links davon wird beschrieben, was der Fall ist, wenn der Regler nach rechts geschoben und farblich geändert, also aktiviert wird. Es wird nicht thematisiert, was mögliche Voreinstellungen sind. Möglich wäre, dass alle Regler am Anfang nach links geschoben sind, aber auch eine Mischung ist denkbar.

Das Zusammenspiel zwischen Moralmenü und Maschine bzw. System wird in den Konzepten nicht erörtert und soll hier ebenso wenig eine Rolle spielen. Auch die Umsetzung der moralischen Maschinen selbst steht nicht im Vordergrund. Es kann um ganz unterschiedliche Komponenten gehen, um Hard- und Software, um Bewegungs- oder Sprachfunktionen. Auch der Erwerb der Anwendung ist nicht relevant - diese kann mit dem Produkt mitgeliefert oder in einem App Store bezogen werden. Als Endgerät kann das Smartphone, ein Tablet, ein in das Gerät verbauter Touchscreen oder ein externes, spezielles Display dienen. 

Das LADYBIRD-Projekt
 
LADYBIRD wurde bereits im Jahre 2014 im Rahmen einer Designstudie der Maschinenethik beschrieben. Eine solche Designstudie enthält visuelle und textuelle Elemente und benennt die Grundfunktionen einer moralischen Maschine (Bendel 2017). Die damalige Idee war, eine moralische Maschine zu schaffen, genauer einen tierfreundlichen Saugroboter. Damit war neben der Maschinenethik die Tierethik tangiert, zudem die Tier-Maschine-Interaktion (Bendel 2014, 2016b) bzw. die Tier-Computer-Interaktion (Mancini 2011).
 
Insbesondere sollten beim Betrieb Marienkäfer und andere Insekten verschont werden, die sich auf dem Boden befinden - von daher der Name. In der Folge entstand ein annotierter Entscheidungsbaum, der die konkreten Abklärungen und Optionen der Maschine beschrieb und - in den Annotationen an den Knoten - moralische Begründungen und Annahmen enthielt (Bendel 2018a). Die wichtigste Funktion war, dass der Saugroboter ein Insekt identifizierte und dann seine Arbeit einstellte, bis das Tier verschwunden war oder der Besitzer ihn wieder anstellte.
 
2017 wurde LADYBIRD an der Hochschule für Wirtschaft als Prototyp entwickelt (Bendel 2017). Die Maschine war in der Lage, rote Flecken und Objekte auf dem Boden zu erkennen, daraufhin die Arbeit einzustellen und den Benutzer zu informieren. Sie konzentrierte sich also auf Marienkäfer. Der genannte Entscheidungsbaum wurde teilweise verwendet. Eine zentrale Rolle spielte ein Farbsensor (Hueber 2013). Nicht zum Einsatz kam ein Bewegungsmelder, und auch Bild- und Mustererkennung konnte das Team nicht berücksichtigen. Dies soll in einem Folgeprojekt nachgeholt werden.
 
Abb. 1 zeigt das Moralmenü für LADYBIRD. Dieses wurde in einem Grundlagenbeitrag zur Maschinenethik abgedruckt (Bendel 2018b) und dort kurz erklärt - die Idee eines Moralmenüs wurde skizziert, aber nicht detailliert erläutert. Es ist zudem bei den Designstudien auf maschinenethik.net zu finden, neben ROBOCAR, CLEANINGFISH und einigen anderen.





Abb. 1: MOME für LADYBIRD (Bendel 2018b)
Nach der Ursprungsidee erkennt und verschont LADYBIRD Marienkäfer und andere Insekten. Das Menü beginnt mit der Möglichkeit, Ungeziefer wie Kakerlaken töten zu lassen. Dazu müsste die Maschine Marienkäfer von Ungeziefer unterscheiden können. Ungezieferbefall ist bei Behausungen ein Problem und macht diese u.U. unbewohnbar. Allerdings ist ein Staubsauger eingeschränkt hilfreich bei der Bekämpfung. Der Benutzer würde sich aktiv dafür entscheiden, dass die Maschine tötet - freilich würde sie das eh tun, wenn sie nicht moralisiert wäre. Mit dem zweiten Schieberegler kann der Benutzer das Töten von Spinnen anordnen. Vor diesen Tieren fürchten sich viele Menschen - sie sind aber in unseren Breitengraden in der Regel unschädlich und überdies nützlich, selbst in der Wohnung.  

Mit der nächsten Option wird der Saugroboter zum Spielzeug. Man könnte weiter verfeinern, etwa zwischen Katze und Hund unterscheiden, denn jedes Tier versteht etwas anderes unter einem geglückten Spiel. Letztlich soll zu einem guten Leben größerer Tiere beigetragen werden. Dies ist auch der Sinn der nächsten Option. Es ist ein Belohnungssystem, in das der Benutzer nicht aktiv eingreifen kann, und das hier recht willkürlich gewählt wurde. Wenn LADYBIRD erfolgreich ist in seiner Grundidee, wird Geld des Benutzers überwiesen an eine Tierrechtsorganisation. Das Wohl des Besitzers, das er Tieren angedeihen lässt, verdoppelt sich. Man könnte genauso andere Organisationen vorsehen.
 
Der nächste Punkt betrifft den Datentransfer. Moderne Staubsaugerroboter können Daten zu Größe und Beschaffenheit von Behausungen, zum Inventar und zu den Bewohnern generieren und verbreiten (Ram 2017). Staubsaugerhersteller oder Dritte, etwa Datenfirmen, mögen ein Interesse daran haben. Auch für Polizei und Geheimdienst können wertvolle Angaben entstehen. Der Benutzer kann die Weitergabe von Daten verhindern, was im Zusammenhang mit Privacy by Design (Schaar 2010) und mit dem Verhältnis von Robotern und Privatsphäre (Calo 2011) gesehen werden kann.
 
Ebenfalls auf die Datenerhebung bezieht sich die nächste Entscheidung. Staubsaugerroboter haben einen besonderen Blickwinkel. Sie sind unten am Boden und nehmen den Raum vor ihnen auf, manchmal auch über ihnen (was mit Kameras erfolgen kann, aber nicht muss). Sie können dadurch persönliche Daten generieren, die die Intim- und Privatsphäre tangieren, wie es beim Upskirting überhaupt der Fall ist. Ist der Regler nach rechts geschoben, wird die Maschine zum diskreten Beobachter.
 
Die letzte Option macht den Staubsaugerroboter zum lernenden System, zu einer moralischen Maschine, die Erfahrungen sammelt und Regeln anpasst. Das Dazulernen bei moralischen Maschinen kann mit Risiken verbunden sein - darauf wird der Benutzer explizit hingewiesen. Allerdings mögen diese in einer Umgebung wie dem Haushalt ausgesprochen begrenzt sein. Es ist möglich, die Folgen in einem Infokasten zu skizzieren, so wie zu allen Schieberpositionen weiterführende Informationen sinnvoll sind.
 
Es ist wichtig, nochmals darauf hinzuweisen, dass es bei dem Konzept ums Prinzip geht. Man kann jede Option kritisieren und detaillieren. Es soll die Idee vorgestellt, nicht die Umsetzung vorweggenommen werden. Einem Moralmenü als Produkt bzw. Bestandteil eines Produkts mag ein langer Weg vorausgehen. Im Grunde handelt es sich übrigens um ein hybrides System. Es gibt eine Voreinstellung, an der nichts geändert werden kann und die das Verschonen von Marienkäfern zur Folge und damit moralische Implikationen hat. Andere Einstellungen können angepasst werden. 

Google Duplex
 
Im Jahre 2018 wurde Google Duplex präsentiert, das auf Google Assistant basiert, einem virtuellen Assistenten, der u.a. auf Smartphones eingesetzt wird (Rawes 2018). Die Idee ist, mit einer High-End-Technologie normale Telefone auf der ganzen Welt anzuwählen und private Aufgaben zu automatisieren. So kann Google Duplex etwa in Restaurants oder Frisörsalons anrufen und Tische reservieren bzw. Termine vereinbaren (Dwoskin 2018). Die Daten und der anzurufende Teilnehmer müssen vorher vom Benutzer genannt werden - den Rest erledigt das System. Die Stimme klang bei den Präsentationen von Google sehr lebensecht, das Sprechen überhaupt, weil Pausen, Ähs und Mmhs vorkommen, wie bei echten Menschen. In der Imperfektion könnte der Schlüssel zur Perfektion liegen. 

Google Duplex sah sich alsbald intensiven Diskussionen, nicht zuletzt aus ethischer Sicht, ausgesetzt (Wong 2018). So wurde bemängelt, dass die Maschine nicht offenlegte, dass sie eine Maschine war. Das ganze Gespräch konnte als Täuschung gegenüber dem Angerufenen aufgefasst werden. Kritisch wurde überdies gesehen, dass ein sozialer Akt durch eine automatisierte Aktion substituiert wurde. Google besserte bald nach; Duplex verrät nun am Anfang des Dialogs, was es ist. Es kam nicht zuletzt die Frage auf, ob die Gesprächssituationen echt waren oder gestellt bzw. bearbeitet wurden (Lindner 2018).



Abb. 2: MOME für virtuelle Assistenten (Bendel 2018c)
Das MOME für virtuelle Assistenten (Abb. 2) wurde 2018 in einem Artikel über künstliche Stimmen abgedruckt (Bendel 2018c). Es wurde nicht weiter erklärt und diente vor allem als Illustration. In dem Artikel ging es um die synthetischen Stimmen sowohl von Software- als auch von Hardwarerobotern. Das MOME ist zudem bei den Designstudien auf maschinenethik.net zu finden.  

Die erste Einstellung zielt auf die Offenlegung der maschinellen Existenz. Als das MOME entwickelt wurde, war Google in dieser Hinsicht noch nicht so weit. Beim GOODBOT, einem moralischen Chatbot, den der Verfasser 2013 mit seinem Team entwickelte, war die Transparenz fest im System verankert (Bendel 2016a). Hier hat der Benutzer nun die Wahl. Die zweite Option reguliert Stimme und Sprechen. Wenn der virtuelle Assistent wie eine Maschine spricht, weiß der Benutzer dadurch, selbst wenn er die Offenlegung nicht mitbekommen oder vergessen hat, worum es sich handelt. Auch bei Pepper wurde eine robotische Sprechweise umgesetzt, während man bei Alexa im Gegenteil eine möglichst menschliche Sprechweise anstrebt, sie etwa flüstern lässt (Myers 2017).
 
Bei der Option zu den Komplimenten wird das Verhalten der Maschine in Bezug auf einen bestimmten Aspekt reguliert. Komplimente führen zu emotionalen Veränderungen und Bindungen. Ob man diese bei Systemen fördern soll, ist wiederum umstritten und kommt auf den Kontext an. Die Begrenzung der Gesprächszeit hängt mit der Fairness mit Blick auf den Wert der Lebenszeit zusammen - im Prinzip könnte die Maschine versuchen, den Gesprächspartner ein Leben lang an der Strippe zu halten. Sie verbraucht dabei keine Lebenszeit, der Mensch aber schon. Natürlich wird jeder von uns nach einer Weile aufhängen.
 
Das Datengebot war bereits im anderen Moralmenü fixiert. In diesem Zusammenhang können wieder persönliche Daten anfallen, die schützenswert sind. So könnten Dritte daran interessiert sein, welche Gewohnheiten man als Verbraucher hat oder wann ein Prominenter in welchem Restaurant zu Abend isst. Die nächste Option erscheint ebenfalls vertraut. Nun orientiert sich das Selbstlernen aber am Benutzer, was beinhaltet, dass man dessen Eingaben auswertet und verbindet, ja vielleicht sogar seine Gespräche mithört und sein Verhalten am Handy analysiert. Auf das Risiko dieser Aktivierung wird wiederum hingewiesen. Auch der letzte Punkt ist vom anderen MOME her bekannt. Wiederum wird das Risiko angeführt. 

Vorteile eines Moralmenüs 

Bisher liegt das Moralmenü in seinen Varianten lediglich als Konzept vor. Dennoch können schon erste Einschätzungen gegeben werden. Im Folgenden werden die Vorteile des MOME aufgeführt und grundsätzlich und in seinen beiden Konkretisierungen diskutiert.
 
Das Moralmenü macht dem Besitzer oder Benutzer bewusst, dass bei einem Vorgang, sei er noch so gewöhnlich und alltäglich, moralische Entscheidungen getroffen werden und diese auf Maschinen transferiert werden können. Dabei werden sie beim Namen genannt bzw. beschrieben. Auch eine Bewertung kann mitschwingen. Beim LADYBIRD-MOME wird sich der Benutzer beim Anschauen der Optionen und beim Verschieben der Regler bewusst, was er in welcher Weise zum Wohl oder Leid von Tieren beeinflussen kann. Das MOME für virtuelle Assistenten wie Google Duplex macht ihm klar, dass in einer Gesprächssituation ebenso moralische Fragen entstehen und eine Automatisierung bestimmte Auswirkungen hat. Diese sind z.T. schwer einzuschätzen, zumal der Gesprächspartner womöglich unbekannt ist.
 
Das MOME erlaubt die Übertragung der persönlichen Einstellungen. Normale Maschinen kennen gar keine Moral; zumindest ist diese in ihnen nicht explizit gestaltet. Moralische Maschinen werden meist so gestaltet sein, wie es der Hersteller oder Entwickler wünscht oder der Markt es verlangt. Mit dem MOME ist Individualisierung in der Automatisierung möglich, übrigens auch ein Anspruch der Industrie 4.0 (Reinheimer 2017). Die beiden Konzepte ähneln sich teilweise, insofern sie eben die Moral des Benutzers abbilden. Sie unterscheiden sich zugleich deutlich. In dem einen Fall wird LADYBIRD dazu gebracht, sich in einer bestimmten Weise gegenüber Insekten und anderen Tieren zu verhalten, in dem anderen Fall der virtuelle Assistent an die eigene Person angepasst, um dann selbst als Quasiperson aufzutreten. Die Stellvertretermaschine wird sozusagen zur Stellvertreterperson.
 
Mit der Übertragung hängt zusammen, dass die Moral des Benutzers ernstgenommen wird. Diese ist von Bedeutung, sie verändert die Funktionen des Geräts und hat Auswirkungen auf Menschen und Tiere. Das ist psychologisch relevant, insofern das Selbstbewusstsein gestärkt wird, und philosophisch, insofern die Moral ins Zentrum von Reflexionen und Aktionen rückt. Wie das LADYBIRD-MOME zeigt, handelt es sich um Entscheidungen existenzieller Art, zumindest aus der Perspektive von Tieren. Der Benutzer kann die Tötung von Ungeziefer oder Spinnen veranlassen. Das Verwenden des MOME für virtuelle Assistenten wie Google Duplex kann das Verhältnis zwischen Kunde und Geschäft beeinflussen und den menschlichen Gesprächspartner verändern.
 
Mit der Zeit werden, wenn die Idee sich verbreitet und grundsätzlich überzeugt, immer mehr Moralmenüs entwickelt und können immer mehr Regeln identifiziert werden, die bei vielen Maschinen sinnvoll und zielführend sind. So wie es im E-Learning sogenannte Learning Objects gibt, mit denen man Texte und Tests zusammenstellen kann (Boyle 2003), könnte es Moral Objects geben. Man wählt sie aus einer Übersicht oder einer Datenbank für das jeweilige Moralmenü aus. Bereits bei den beiden vorgestellten Konzepten sind Überschneidungen vorhanden, nämlich in Bezug auf die Datenweitergabe und das Selbstlernen. Solche Überschneidungen könnte man in Metakonzepte aufnehmen, die man bei der Entwicklung aller Moralmenüs anwenden könnte, oder eben in die erwähnten Übersichten und Datenbanken, im Sinne einer Modularisierung, einer Analyse und Synthese der Moral.
 
Generell kann in diesem Zusammenhang das Vorhandensein einer Manipulationsmöglichkeit als Vorteil gewertet werden. Der Maschinenethik geht es um die Erforschung und Entwicklung moralischer Maschinen, und ein Moralmenü ist ein Beitrag sowohl zur Disziplin als auch für die Praxis. Beide MOMEs sind bloß beispielhaft ausgeführt, über die Optionen kann man sich streiten, und auch darüber, ob es nicht passendere oder wichtigere gibt. Die MOMEs sind kein Endresultat, sondern ein Anfangspunkt, für Diskussionen in der Disziplin und für Realisierungen in der Praxis. Sie sind Bestandteil einer iterativen Forschung und Entwicklung.
 
Bisher wurde angenommen, dass ein einzelner Besitzer oder Benutzer seine Moral auf die Maschine überträgt. Es kann sich indes genauso um einen Haushalt handeln, in dem mehrere Personen leben. Bei bestimmten Maschinen kann jeder seine Moral transferieren. Eine interessante Begleiterscheinung ist, dass man womöglich die Einstellungen der anderen Mitglieder, ob der Familie oder der WG, erfährt. Beim virtuellen Assistenten kann bei der Dateneingabe auch die Moral der Maschine justiert werden. So wird diese den Ansprüchen des jeweiligen Benutzers (nicht unbedingt des Besitzers) gerecht. Beim Saugroboter ist dies offensichtlich problematisch, weil er ja in Abwesenheit ohne direkte Aufsicht seine Arbeit verrichten soll.
 
Die Liste ließe sich fortsetzen. Man kann das Moralmenü für eine interessante Erfindung halten, die vielleicht nicht reüssiert, die aber verwandte Innovationen nach sich zieht. 

Nachteile eines Moralmenüs 

Im Folgenden werden die Nachteile des Moralmenüs aufgeführt und grundsätzlich und in seinen beiden Konkretisierungen diskutiert.
 
Moralische Haltungen können komplex sein. Die Schieberegler führen zu einer gewissen Vereinfachung. Es wird nur die Möglichkeit offeriert, eine Funktion zu deaktivieren und zu aktivieren. Damit werden zunächst vorgegebene Regeln gestärkt und die je nach Situation unterschiedlichen Folgen ausgeblendet. Im Extremfall kommt es zu Verfälschungen, etwa weil man eigentlich eine Position hat, die in der Mitte liegt. Beide Konzepte sehen eine Möglichkeit vor, der Simplifizierung und der Dominanz der Regeln zu begegnen. So führt die Selbstlernfähigkeit potenziell zu neuen Regeln und zu Anpassungen des Systems. Damit verbunden sind allerdings gewisse Risiken, auf die ebenfalls hingewiesen wird. Man könnte die Regler in manchen Fällen für drei Positionen vorsehen oder fließende Übergänge ermöglichen.
 
Mit einer moralischen Maschine wird grundsätzlich Verantwortung in Bezug auf spezifische Entscheidungen abgegeben. Dabei kann die Maschine selbst vermutlich gar keine tragen, höchstens in dem Sinne, dass sie eine Aufgabe erledigt (eine rudimentäre Form der Primärverantwortung). 

Kaum möglich bzw. sinnvoll ist es, eine Sekundärverantwortung anzunehmen, die Maschine zu rügen und zu tadeln (Bendel 2018b). Der Mensch könnte sich seiner Verantwortung entwöhnen. Er könnte durch das MOME in der Vorstellung gestärkt werden, alles in seiner Macht Stehende getan zu haben und sich daher außerhalb der Verantwortung sehen.
 
Die beiden Konzepte sind in dieser Frage unterschiedlich zu bewerten. LADYBIRD ist im Haushalt unterwegs, der zu einer Person oder einer Gruppe gehört. Die Situation ist wenig komplex. Ein virtueller Assistent wie Google Duplex richtet sich dagegen nach außen und kann mehr Schaden anrichten. So kann er Menschen vor den Kopf stoßen oder Falschreservierungen vornehmen, wodurch sich Haftungsfragen stellen. Das MOME soll aber auch genau dem entgegenwirken, wobei die Möglichkeiten beim vorliegenden Konzept längst noch nicht ausgeschöpft sind.
 
Wenn der Benutzer zu schädigenden Handlungen und bösen Taten neigt, erlaubt es ihm das MOME, das Schlechte mit Hilfe maschineller Mittel zu verbreiten und verstärken, es vorhanden sein zu lassen selbst in seiner Abwesenheit. Die Freiheit, die das MOME erlaubt, kann missbraucht bzw. ausgenutzt werden. In diesem Sinne sind feste Vorgaben eine verlässliche Alternative und verhindern zumindest das Schlimmste (sofern sie nicht selbst das Schlimmste enthalten). Diese Problematik wird vor allem beim LADYBIRD-MOME offenbar. Der Saugroboter sollte nach dem ursprünglichen Plan in der Lage sein, nicht allein Marienkäfer, sondern auch andere Insekten zu verschonen (Bendel 2017). 

Dadurch wäre er eine grundsätzlich tierfreundliche (eigentlich insektenfreundliche) Maschine geworden, zugleich eine, die über den Kopf des Benutzers hinweg entscheidet (der sie allerdings nicht kaufen muss). Das MOME erlaubt es dagegen, bestimmte Lebewesen töten zu lassen. Auch das Menü für virtuelle Assistenten zeigt Möglichkeiten des Missbrauchs. So ist die Option, keine Komplimente zu machen, als Schutz vor emotionalen Bindungen gemeint, doch kann ein Gespräch ohne Komplimente selbst emotionslos und kalt wirken.
 
Die bereits thematisierte Bewusstwerdung von Wertvorstellungen und Verhaltensregeln hat eine Schattenseite. Das MOME könnte zum Resultat haben, dass sich die individuelle Moral ins Negative verändert. Das Böse wird nicht nur von der Maschine fortgeführt, sondern macht sich im Benutzer breit. Die Maschine wird zum schlechten Vorbild des Menschen. Die Beschreibung und Einordnung der Wirklichkeit schafft eine neue Wirklichkeit. Die Moralmenüs zeigen dem Benutzer auf, was er bzw. die Maschine bisher getan und gelassen hat, und geben ihm die Möglichkeit, seine Handlungen über die Maschine zu vervielfältigen. Sie zeigen ihm auch auf, was er in Zukunft denken und tun könnte. Er könnte bestimmte Tiere töten lassen, an die er vorher keinen Gedanken verschwendet hat, oder selbst Komplimente im Gespräch aussparen, in der Meinung, damit wie die Maschine Probleme zu vermeiden.
 
Durch das Moralmenü werden letztlich doch Optionen vom Hersteller oder Entwickler festgelegt. Damit kann die eigene Moral in einigen Fällen vollständig, in vielen Fällen bloß unvollständig abgebildet werden. Es fragt sich zudem, nach welchen Kriterien die Optionen überhaupt entwickelt werden. Dafür muss sich allerdings die Maschinenethik nicht zwangsläufig zuständig fühlen (Bendel 2018b). Eine philosophische Disziplin ist daran interessiert, Werte zu untersuchen, nicht vorzugeben. 

Die Maschinenethik, die mit KI und Robotik zusammenarbeitet, ist vor allem daran interessiert, einer Maschine Werte einzupflanzen, welche auch immer. Die beiden Konzepte haben ausschnitthaft Möglichkeiten im Moralischen gezeigt. Man könnte weiter in die Tiefe gehen, könnte mehr Optionen gewähren. Damit würde es allerdings anspruchsvoller, unübersichtlicher und bedienungsunfreundlicher. Besonders an LADYBIRD ist, dass es eine feste Vorgabe gibt, die nicht geändert werden kann, eben das Verschonen von Marienkäfern.
 
Ein MOME hat zu ganz unterschiedlichen Anforderungen zu passen. Es muss, mit anderen Worten, für jede Maschine individuell entwickelt werden, zumindest für jeden Typ. Dabei sind unterschiedliche Ziele und Ebenen zu berücksichtigen. Bereits angeklungen ist, dass sich mit der Zeit, im Zuge der Entwicklung vieler MOMEs, Metakonzepte ergeben könnten. Die beiden Konzepte zeigen, dass bei moralischen Maschinen (wie bei normalen Maschinen) ganz unterschiedliche Ziele und Ebenen existieren. So treten Maschinen auf, die Akte oder Aktionen ausführen, und Maschinen, die Dialoge führen, mithin Sprechakte. Zum Teil können diese Ebenen zusammenwirken. So ist es bei humanoiden Robotern üblich und sinnvoll, Mimik, Gestik und Sprache aufeinander abzustimmen.
 
Auch im Abschnitt der Nachteile wurde bisher angenommen, dass ein einzelner Besitzer oder Benutzer seine Moral der Maschine leiht. Es ist gleichermaßen ein Haushalt mit unterschiedlichen Persönlichkeiten denkbar. Bei bestimmten Maschinen kann jedes Mitglied seine Moral transferieren. 
 

Beim virtuellen Assistenten kann bei der Dateneingabe die Moral der Maschine eingestellt werden. 
Ein bereits angesprochenes Problem könnte sein, dass Verantwortungs- und Haftungsfragen entstehen, nun allerdings schwer lösbare, da Besitzer und Benutzer nicht mehr (oder nicht unbedingt) identisch sind. Beim Saugroboter ist die jeweilige Änderung offensichtlich problematisch, weil er ja in Abwesenheit ohne direkte Aufsicht seine Arbeit verrichten soll. Es kann zu Streit zwischen den Haushaltsmitgliedern kommen. Dass jeder seinen eigenen Saugroboter hat, ist ebenso wenig zweckmäßig, wobei die Industrie nichts dagegen haben dürfte.
 
Auch diese Liste ließe sich fortführen. Man mag etwa behaupten, dass es sich um marginale Probleme handelt, die mit einem enormen Aufwand angegangen werden.
 
Weitere Ansätze

Ein Moralmenü kann die Moral des Besitzers oder Benutzers auf ein Gerät oder einen Roboter übertragen. Dabei ergeben sich Vor- und Nachteile auf verschiedenen Ebenen. Das Moralmenü unterstützt den Approach, die Moral des Benutzers zu stärken, wie immer diese beschaffen ist. Dabei kann die Moral auch im negativen Sinne durch die Maschine verbreitet und in der Person verändert werden. Dem entgegen stehen könnten hybride Maschinen, wie im Grunde LADYBIRD eine ist.
 
Wie am Anfang angeklungen ist, könnte man das Moralmenü allerdings genauso völlig offen gestalten. Der Benutzer müsste ihm gegenüber seine Vorlieben formulieren, die das System dann übernimmt. Dafür müsste es eine einfach bedienbare Benutzeroberfläche oder - an anderer Stelle erwähnt - eine einfache Programmier- oder Beschreibungssprache geben. Eine Beschreibungssprache, die sich für die Moral im Geschriebenen und Gesprochenen sowie das moralisch adäquate Anzeigen von Bildern, Videos und Animationen und das Abspielen von Klängen anbieten würde, könnte in Anlehnung an XML, HTML, SSML etc. MOML heißen (Morality Markup Language). Selbst anspruchslose Programmier- und Beschreibungssprachen könnten aber einzelne Personen überfordern. Zudem würde man die Maschinen selbst überfordern, denn eine Vielfalt der Einstellungen müsste erst einmal technisch umgesetzt werden können.

Etliche weitere Ansätze sind denkbar. So könnte die Maschine den Benutzer psychologische und ethische Tests absolvieren lassen und auf dieser Grundlage sich selbst anpassen. Daneben sind Interviews möglich, oder der Benutzer macht der Maschine vor, was er gemeinhin tun würde, dient also als Referenzperson, was auch bei autonomen Autos diskutiert wurde (Bendel 2016c). Der vorliegende Beitrag beansprucht nicht, die beste Lösung gefunden zu haben. Aber es wurde hoffentlich ein bedenkenswerter Beitrag für die Maschinenethik und womöglich für die Praxis geleistet.




Nota. - Der elementare Fehler in dem ganzen Ansatz ist... nein, nicht erst, dass er soziale Klugheit für Moralität hält - das ist nur abgeleitet. Zugrunde liegt vielmehr die Auffassung, als sei Moralität so etwas wie Verstand. Nämlich so etwas wie Logik: das Höhere begründet das Untere, das Allgemeine das Beson- dere, das Prinzip seine Ableitungen, der Zweck das Mittel. Moralisches Handeln bestünde im Zuordnen einzelner Fälle zu einer je anzuwendenden Norm. 

Das ist immernoch besser, als würde unter Moral eine Summe einzelner Fälle verstanden und bestünde in einer Art empirisch auszumachenden gemeinsamen Nenners. Aber weniger falsch ist es nicht.

Moral kommt von lat. mos, mores - Sitte, Gebräuche. Das griechische ethos bedeutet dasselbe; Ethologie heißt daher die Verhaltenskunde bei Mensch und Tier. 

Historisch waren sie der Ursprung dessen, was man heute unter Sittlichkeit versteht; sie bestimmen, was sich gehört und was sich nicht gehört. Dass ein Unterschied, gar ein Gegensatz entstehen kann zwischen dem, was sich in einer historisch gewachsenen Gemeinschaft gehört, und dem, ich für meine höchstper- sönliche Pflicht erkenne, ist eine verhältnismäßig junge Erkenntnis, und sie beruht auf einer Erfahrung, die erst in komplexen modernen, nämlich bürgerlichen Gesellschaften so allgemein wurde, dass sie einen be- sonderen Namen nötig machte. Antigone war ein Einzelfall und als solche tragisch. Der Konflikt zwischen gesellschaftlichen Normen und dem, was mir mein Gewissen gebietet, ist schon eine banale bürgerlich Standardsituation. Weil nämlich das eigenverantwortliche, autonome Subjekt zur selbstverständlichen Existenzbedingung geworden ist: Es muss selber entscheiden.

Die Sprache unterscheidet noch immer nur zwischen positiven herrschenden Moralen und einer proble- matischen Moralität. Die Verwirrung ist daher groß. Es kann ja vorkommen und tut es oft genug, dass der ganz außermoralische Blick auf meinen Vorteil mir rät, dem Gebot der herrschenden Moral zu folgen und die Stimme meines Gewissens zu überhören. 

Wer oder was ist aber mein Gewissen? Es ist das Bild, das ich mir von mir selbst gemacht habe und um dessentwillen ich mich achte. Der Autor sagt es selbst: Die Maschine kann sich nicht verantworten - näm- lich nicht vor sich. 

Nun kann ich keinen Andern achten, wenn ich mich selbst nicht achte - und auf einmal verkehren sich die Seiten: Moralität wird zur Bedingung sozialer Klugheit. Und letztere muss der Maschine einprogrammiert werden, weil sie diese Bedingung selber nicht hat.

*

Das spielt in obigem Text freilich alles gar keine Rolle. Lesen Sie nochmal nach: Vor Gewissensentschei- dungen stellt er seine Maschinen nirgendwo. Es geht überall nur um Nützlichkeitserwägungen in mehr oder weniger allgemeiner Hinsicht. So dass er mit seinem Ding problemlos durchgehen könnte, wenn er nur... bescheiden genug wäre, von Moral nicht zu reden.

Aber er tut es ganz ungeniert, und mit ihm Kreti und Plethi. Es passt, aber das ist keine Rechtfertigung, per- fekt in eine Zeit, wo es neben Fakten noch alternative Fakten gibt und keiner es so genau nimmt; aber ein jeder sieht, wo er bleibt.
JE

Keine Kommentare:

Kommentar veröffentlichen