Dienstag, 19. März 2019

Mathematik durchdringt den Alltag.

Mathematiker Martin Grötschel.
aus Die Presse, Wien,

Wie Mathematik unseren Alltag zusammenhält
In modernen Gesellschaften basiert fast alles auf Berechnungen, sagt der Mathematiker Martin Grötschel. Obwohl man überall auf mathematische Probleme trifft, sind sich die wenigsten der Bedeutung dieser Disziplin bewusst. 




Die Presse: Obwohl sie für viele der Inbegriff des trockenen Schulstoffs ist, scheint es Ihnen ein wichtiges Anliegen zu sein, die Mathematik einer breiten Öffentlichkeit näherzubringen. Sie halten viele Vorträge für Laien, kommenden Montag auch an der ÖAW in Wien – was ist Ihre Motivation?

Martin Grötschel: Der Grund ist eigentlich, dass die Mathematik eine völlig unterbewertete Wissenschaft ist, die hauptsächlich im Verborgenen arbeitet. Über Mathematik wird relativ selten berichtet, und wenn, dann häufig über völlig irrelevante Dinge, wie die Entdeckung der nächsten größten Primzahl oder dergleichen. Aber die wirklich wichtigen Entwicklungen bringen es nicht in die Öffentlichkeit.

Woran scheitert es?

Einerseits natürlich daran, dass die Spitzenforschung in der Mathematik einfach nicht darstellbar ist. Das sind hoch spezialisierte Gebiete mit eigener Sprache. Andererseits werden aber auch viele Anwendungen in der Regel einfach dem Computer oder der Informatik zugeschrieben. Dabei stecken dahinter meistens mathematische Berechnungen. Hier möchte ich ansetzen und anhand von Beispielen aus meinem eigenen Arbeitsbereich erklären, wo man im täglichen Leben der Mathematik begegnet, ohne es zu merken. Und da gibt es zahllose Beispiele: Ob man den Strom anschaltet, im Internet surft oder einfach ein Joghurt aus dem Supermarktregal nimmt, es gibt heute praktisch keinen Teil des modernen Lebens, an dem Mathematik nicht einen gewissen Anteil hat.

Die Mathematik im Joghurt müssten Sie mir schon genauer erläutern . . .

Nun, um es in den großen Supermärkten zu verkaufen, muss man ja ganze Flotten von Transportfahrzeugen durch die Gegend schicken, deren Routen planen, die Verpackungsgrößen und den Materialeinsatz optimieren, fahrerlose Bediengeräte für Hochregallager steuern – das wird heutzutage alles mit mathematischen Methoden erledigt. Ohne sie würden all diese Prozesse nicht die gleiche Effizienz aufweisen, und die Güter wären längst nicht so preiswert.

Es geht also hauptsächlich um die Logistik im Einzelhandel?

Nein, die Mathematik hat fast überall ihre Finger im Spiel. Beispielsweise in der industriellen Landwirtschaft, wo vom Weltraum aus über Satelliten die großen Maschinen gesteuert werden, der richtige Zeitpunkt zum Düngen oder der Reifegrad der Ernte bestimmt wird. Oder in der Fischzucht, wenn mit linearer Optimierung die ideale Zusammensetzung des Futters berechnet wird. Oder in Navigationssystemen – ohne die richtige Mathematik dahinter würde es viel zu lang dauern, eine optimale Route anzuzeigen. Ganz zu schweigen von großen Konzernen, die sogenanntes Enterprise Requirement Planning betreiben, also die gesamten Lieferketten für die Produktion vorausplanen. Das sind dann Optimierungsprobleme mit Hunderten Millionen Variablen, die wir heute zum Teil auch noch nicht lösen können. Aber wir arbeiten daran, diese Dinge in die Nähe der Lösbarkeit zu bringen.

Werden sich solche mathematischen Probleme nicht bald mit selbstlernenden Algorithmen, künstlicher Intelligenz und Big Data lösen lassen?

Bestimmt nicht. Momentan wird mit der künstlichen Intelligenz ein unglaublicher Hype betrieben, weil manche damit wirtschaftliche Erfolge verbuchen. Die tun dann so, als könne man alles in der Welt damit lösen. Das ist natürlich bei Weitem nicht der Fall. Denn künstliche Intelligenz produziert lediglich Korrelationen, die Mathematik als Wissenschaft sucht aber nach Kausalitäten. Außerdem hängen die Fähigkeiten der künstlichen Intelligenz sehr stark von der Qualität der Daten ab, nicht allein von deren Menge. Big Data mag Amazon dabei helfen, Vorschläge für bestimmte Produkte zu machen, die einen interessieren könnten. Aber wenn es um Fragestellungen geht, die für unser Leben wirklich relevant sind, etwa in der Medizin, braucht es eine Qualitätskontrolle der Daten – da sind wir dann wieder bei einem sehr schwierig zu lösenden Problem.

Der Mensch bleibt also auch hier unersetzlich?

Genau so ist es. Natürlich haben Lernalgorithmen einige beeindruckende Leistungen vollbracht, sie sind besser als jeder Mensch in Spielen wie Go oder Schach. Aber letztlich zeigt das doch nur, dass diese Spiele nicht so intellektuell sind, wie wir dachten.

Wo sehen Sie in der näheren Zukunft das größte Potenzial für die Mathematik?

Im technischen oder betriebswirtschaftlichen Bereich leistet die Mathematik jetzt schon sehr viel, in anderen Bereichen wie der Biologie kann sie aber sicherlich noch viel beitragen, etwa zur Modellierung biologischer Prozesse. In der Chemie wird sie zwar häufig eingesetzt, aber auch hier ist noch viel Luft nach oben. Praktisch Neuland ist für Mathematiker aber der Bereich der Geisteswissenschaften, hier werden zurzeit die sogenannten Digital Humanities entwickelt, auch ich beschäftige mich damit. Das ist sehr spannend, denn man weiß noch gar nicht, ob die Mathematik hier überhaupt einmal nützlich sein wird.

Martin Grötschel (Jahrgang 1948) ist Präsident der Berlin-Brandenburgischen Akademie der Wissenschaften. Grötschel gilt als einer der renommiertesten Mathematiker für den Bereich der kombinatorischen Optimierung. Am Montag, 18. März, um 18 Uhr hält er einen Vortrag im Festsaal der Österreichischen Akademie der Wissenschaften, nähere Informationen unter www.oeaw.ac.at.


Nota. - Wo von der Verwissenschaftlichung der Welt die Rede ist, ist in allererster Hinsicht die Mathematik gemeint, die in jeden Lebensbereich eingedrungen ist. 

Das macht deutlich, wie man jenes Wort nicht verstehen darf: nämlich nicht so, als ob wir alle Mathema- tiker geworden wären und den ganzen Tag Berechnungen anstellten. Es sind vielmehr die Produkte einer hochtechnisierten Industrie, die auf mathematischen Abstraktionen beruhen, bei denen neunundneunzig von hundert Zeitgenossen schwindelig würde, die die 'Wissenschaftlichkeit' unseres Lebens ausmachen. Der Normalgebildete hat gar kein eigenes Urteil, ihm blcibt nur ein hoffendes Vertrauen.

Die Wissenschaft ist eine Instanz aus eigenem Rechtsgrund geworden, die keinerlei höheren Kontrolle unterliegt (allerdings auch nicht gegen willkürliche Eingriffe politischer Machthaber gefeit ist). In ihrer Realität ist diese Instanz aber Betrieb nicht anders als 'die Wirtschaft', und dass sie Mittel hat oder auch nur sucht, sich selbst zu kontrollieren, ist so zweifelhaft wie bei jener,
JE

Sonntag, 17. März 2019

Null ist nicht nichts.

aus spektrum.de, 17.03.2019

Freistetters Formelwelt:
Ohne das Nichts ist alles nix.
Aber die Mathematik braucht ein ganz spezielles Nichts, das man sorgfältig definieren muss.

von Florian Freistetter

Man könnte meinen, nichts wäre einfacher als das Nichts. Nichts ist, wenn nichts da ist. Aber auf die Idee, dass man dieses Nichts auch mathematisch einsetzen kann, sind die Menschen erst erstaunlich spät gekommen. In moderner Formulierung sieht das Nichts so aus:


Definition des Nichts

In normale Sprache übersetzt bedeutet diese Formel: »Es existiert eine Menge, die keine Elemente enthält.« Diese Aussage erscheint uns heute höchst trivial. Aber sie ist das, was der Definition der Zahl Null zu Grunde liegt.

In den alten Hochkulturen von Babylonien, Griechenland und Rom gab es keine Null; auf jeden Fall nicht als eigenständige Zahl. Die wurde erst nötig, als vor etwa 2000 Jahren in Indien ein Stellenwertsystem entwickelt wurde. Also ein System, bei dem es darauf ankommt, wo in einer Zahl eine Ziffer zu finden ist. Bei der Zahl 303 steht die erste 3 ja für »drei mal hundert« und die zweite 3 für »drei mal eins«. Nur die Null zwischen den beiden unterscheidet diese Zahl von der 33, bei der die erste 3 etwas ganz anderes bedeutet, nämlich »drei mal zehn«.


Der älteste bisher bekannte Beleg für die Verwendung der Null als Ziffer stammt aus dem so genannten Bakshali-Manuskript, einer Sammlung mathematischer Texte aus dem 3. Jahrhundert n. Chr., das in Paki- stan gefunden wurde. Bis die Null dann auch in Europa Verbreitung fand, dauerte es bis ins 12. Jahrhundert. Die indischen Ziffern kamen über die islamischen Mathematiker bis zu uns, und selbst dann wurde die Null von vielen Gelehrten nicht für voll genommen. Manche betrachteten sie nur als »Zeichen«, aber nicht als vollwertige Zahl. Erst ab dem 17. Jahrhundert wurde die Null so gut wie überall so verwendet, wie wir das heute tun.

Die Null regelt den Mengen-Verkehr

Abgesehen davon, dass eine Zahl wie die Null nötig ist, um bestimmte Rechnungen durchführen zu können, ist sie vor allem dann von Bedeutung, wenn es darum geht, die Regeln für so genannte algebra- ische Strukturen aufzustellen. Dabei geht es um die Art und Weise, wie Mengen miteinander verknüpft werden können. Das können sehr komplexe Operationen sein, aber auch vertraute Tätigkeiten wie die Grundrechenarten.

Will man zum Beispiel mathematisch exakt definieren, was es bedeutet, zwei Zahlen zu addieren, dann kommt man dabei nicht ohne die Null aus. Sie ist in diesem Zusammenhang das »neutrale Element», also die Zahl, die bei der Addition eine andere Zahl nicht verändert.

Heftcover Spektrum der Wissenschaft Digitalpaket: Schrift und Sprache 
Das könnte Sie auch interessieren:  

Die oben angegebene Formel geht noch eine Ebene tiefer und beschreibt das so genannte Leermengen- axiom, das aus der Zermelo-Fraenkel-Mengenlehre stammt. Diese bildet die Grundlage, auf der so gut wie alle anderen Bereiche der Mathematik aufbauen. Dort wird die Existenz einer »leeren Menge« beschrieben und gefordert, die gleichzeitig auch die einzige Menge mit einer Mächtigkeit gleich null ist. Als Mächtig- keit beziehungsweise Kardinalität nennt man die Anzahl der Elemente, die in einer Menge enthalten sind. Die Menge aller bisher erschienenen Formelwelt-Kolumnen etwa hat 145 Elemente, also eine Mächtigkeit von 145. Man kann das Konzept auch auf unendliche Mengen erweitern, was Georg Cantor im 19. Jahr- hundert tat.

Es gibt jedoch nur eine einzige Menge mit der Kardinalität von null, und das ist die leere Menge. Die Zahl Null selbst ist aber nichts anderes als die Anzahl der Elemente einer leeren Menge, also deren Kardinalität. Im Gegensatz zu anderen Mengen ist die leere Menge durch ihre Kardinalität auch eindeutig bestimmt. Eine Menge mit der Kardinalität von null kann nur die leere Menge sein, eine andere Möglichkeit gibt es nicht.

Heute kommen wir ohne Null definitiv nicht mehr aus. In der Mathematik ebenso wenig wie im alltäg- lichen Leben. Sie ist definitiv mehr als nichts!


Nota. - Wie konnte dem Autor so ein Schnitzer unterlaufen?! Null ist eine Zahl, und eine Zahl ist nicht nichts, sondern - eine Zahl. Man kann damit operieren, das kann man mit nichts (Nichts) nicht.

Daher muss man sie auch nicht vorstellen können; man rechnet damit, das reicht. Auch das Nichts kann man sich nicht vorstellen: Was soll das sein, eine leere Menge? Doch anders als mit der Null, kann man mit ihm auch nicht (denkend) operieren! NULL IST NICHT  NICHTS.

Und das Nichts der Philosophen - so sie an eins (?!) glauben - ist auf jeden Falle etwas anderes als die leere Menge der Mathematiker.
JE

Freitag, 15. März 2019

Getreidekost und Aussprache.

Ein [f] in Lautschrift
aus spektrum.de,14.03.2019

Das »f« - eine Innovation der Jungsteinzeit?
Seit die Menschen von der Landwirtschaft leben, gehen ihnen offenbar bestimmte Laute leichter von den Lippen als vorher. Ist das »f« nur ein paar Jahrtausende alt?

von Jan Dönges

Hat die Erfindung der Landwirtschaft unsere Aussprache verändert? Gut möglich, sagen Forscher. Ziemlich sicher hat sie unsere Kiefer verändert: Wer Schädel von Menschen aus alten Jäger-und-Sammler-Kulturen analysiert, bemerkt oft eine Zahnstellung, die Fachleute als »Kopfbiss« bezeichnen. Die Schneidezähne stehen senkrecht aufeinander. Menschen, die von landwirtschaftlichen Erzeugnissen leben – und ihre Zähne weniger stark belasten –, haben dagegen einen leichten Überbiss. Die obere Zahnreihe ragt vor die untere.

Das habe Konsequenzen für die gesprochene Sprache, meint nun ein Team von Linguisten um Damian Blasi von der Universität Zürich. Erst die neue Zahnstellung soll es Lauten wie dem [f] in »Vogel« und dem [v] in »Wald« erlaubt haben, zu den Allerweltslauten zu werden, als die wir sie heute kennen. Das [f] beispielsweise taucht heutzutage in rund jeder zweiten Sprache weltweit auf. Vor Erfindung von Ackerbau und Viehzucht in der Jungsteinzeit könnte es deutlich weniger verbreitet gewesen sein. So wie vielleicht aktuell das [mb], ein Laut, der entsteht, wenn man direkt aufeinander folgend ein [m] und ein [b] produziert, und der nur in 13 Prozent aller Sprachen auftaucht.

[f] und [v] gehören, wie einige weitere, auch heute noch seltene Konsonanten und Halbvokale, zur Gruppe der Labiodentalen. Sie werden gebildet, indem die Unterlippe zu den oberen Schneidezähnen bewegt wird. Dass die Labiodentalen in den vergangenen 10 000 Jahren eine steile Karriere hingelegt zu haben scheinen, fiel bereits Mitte der 1980er Jahre dem Linguisten Charles Hockett auf. Er beobachtete, dass [f] und [v] in Sprachen heute lebender Jäger und Sammler überraschend selten sind.

Und schon Hockett spekulierte, dass der Grund dafür mit Ernährungsweise und Kieferstellung zusammenhänge. Ein Kopfbiss mache labiodentale Laute schwieriger zu artikulieren, wie jeder selbst ausprobieren kann: Man stelle seine Schneidezähne aufeinander und bilde dann ein [f]. Es erscheint tatsächlich deutlich aufwändiger als ein [f] bei normaler Haltung der Kiefer.

Aus *pater wird »Vater«

Hocketts ursprüngliche Hypothese untermauert das Team um Blasi jetzt mit Belegen aus drei unterschiedlichen Richtungen, wie sie in einer aktuellen Studie im Fachmagazin »Science« ausführen.
  • Zunächst demonstrieren sie mit Hilfe eines Computermodells der Sprechmuskulatur, dass Labiodentale für Menschen mit Kopfbiss tatsächlich aufwändiger zu artikulieren sind. Menschen, die diese Kieferstellung haben, tun sich dagegen mit Lauten wie [p] oder [w] (englisch »water«) erheblich leichter. Für Überbiss-Sprecher hingegen sind Labiodentallaute sogar so einfach zu produzieren, dass sie auch in Versprechern oder bei unsauberer Aussprache auftreten. Das wiederum öffnet ihnen Tür und Tor in eine Sprache, wie die Sprachgeschichte seit jeher zeigt: Aus einstigen Fehlern wird der neue Standard.
  • Anschließend analysieren die Forscher die statistische Verteilung von Labiodentalen in modernen Sprachen – und sehen Hocketts Beobachtung bestätigt. Die Laute tauchen in den Sprachen heutiger Jäger-und-Sammler-Gesellschaften seltener auf als in Sprachen von Menschen, die sich von Feldfrüchten ernähren. Die heutige Situation scheint demnach die historische zu spiegeln.
  • Und zum Schluss betrachten sie einen Spezialfall: die indoeuropäische Sprachfamilie, zu der auch das Deutsche zählt und deren Geschichte so gut erforscht ist wie die keiner anderen. Wurden auch hier die Labiodentallaute im Lauf der Zeit häufiger? Die Antwort lässt sich nur durch neu entwickelte Modellrechnungen auf Basis von Wahrscheinlichkeiten ermitteln, aber kurz gesagt lautet sie »Ja«. Das wahrscheinlich bekannteste Beispiel liefern die germanischen Sprachen, bei denen in der Zeit vor Christi Geburt aus einem (mutmaßlichen) [p] ein [f] wurde: Aus *pater wurde unser »Vater«.
Heftcover Spektrum der Wissenschaft Digitalpaket: Kommunikation
Das könnte Sie auch interessieren:

Die Forscher sehen Hocketts Annahmen von damals also als belegt an. Ein Lautsystem einer Sprache verändere sich ganz ähnlich wie Organismen, die der biologischen Evolution unterworfen sind. Jeder einzelne Satz, jedes einzelne gesprochene Wort sei ein Testfall dafür, wie gut ein bestimmter Laut unter den »Umweltbedingungen« unseres Sprachapparats zurechtkomme. Verändern sich diese Umweltbedingungen, ändern sich auch die Häufigkeiten der Laute. Dabei kämen selbst minimale Unterschiede im Artikulationsaufwand zum Tragen – nicht schlagartig, sondern über viele Generationen hinweg, selbst noch Jahrtausende nach Umstellung der Wirtschaftsweise. Deshalb lasse sich das Phänomen auch noch in der indoeuropäischen Sprachfamilie untersuchen, obwohl deren bekannte Geschichte nur bis in die Bronzezeit zurückreicht.
Alles nur Zufall

Ob sie mit ihrer Studie die Fachwelt überzeugen können, ist noch ungewiss. Viele Linguisten würden die Prozesse, unter denen sich Sprache wandelt, eher in der Sprache selbst suchen – und weniger in der menschlichen Biologie, erläutert Koautor Balthasar Bickel von der Uni Zürich auf einer Pressekonferenz des Wissenschaftlerteams. Versuche, an diesem Bild zu rütteln, hätten mit teils heftigem Widerstand zu kämpfen gehabt.

Doch selbst wenn man ihre Grundauffassung zum Sprachwandel teilt, ist ihre Beweisführung nicht unangreifbar. Ein Beispiel: Dass Labiodentale in Jäger-und-Sammler-Sprachen unterdurchschnittlich oft auftauchen, könnte theoretisch auch auf Zufall beruhen – ein Zufall, der dadurch verstärkt würde, dass viele der betrachteten Sprachen miteinander verwandt sind oder sich gegenseitig beeinflussten. Das Team um Blasi hat besondere Sorgfalt darauf verwendet, diesen Irrtum auszuschließen. Ob es ihnen gelungen ist, muss sich noch zeigen.

Der beste Beleg wären wohl weitere Beispiele: Gab es auch Laute, die in der Zeit vor Landwirtschaft und Sesshaftwerdung häufiger waren als heute? Das [w] wie in englisch »water« wäre ein Ansatzpunkt. Laut Untersuchung von Blasi und Co. sollte es Menschen mit Kopfbiss leichter fallen. Taucht es auch in Jäger-und-Sammler-Sprachen häufiger auf? Diese und weitere Vorhersagen ihrer Theorie könnten sich in künftigen Untersuchungen überprüfen lassen.

Donnerstag, 14. März 2019

Maschinelle Moral?

aus Telepolis, 27. Januar 2019

Das Moralmenü 
Moralische Maschinen mit einer Stellvertretermoral

 


Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in diesem Beitrag diskutiert. 

Ansätze in der Maschinenethik 

Die Maschinenethik ist nicht nur eine reflektierende, sondern auch eine gestaltende Disziplin (Wallach und Allen 2009; Anderson und Anderson 2011). Sie bringt moralische und unmoralische Maschinen hervor, als Konzepte, Simulationen oder Prototypen (Anderson und Anderson 2011; Pereira und Saptawijaya 2016; Bendel 2016c; Bendel 2018b), künftig vielleicht verstärkt in Form von Produkten. Die maschinelle Moral ist überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie Regeln. Die Maschine ist damit zu bestimmten Aktionen in der Lage, zu anderen nicht (Bendel 2018b). "Maschinelle Moral" ist wie "moralische Maschine" ein Terminus technicus, so wie auch "künstliche Intelligenz".
 
Wenig verfolgt wird der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO nach eigenen Angaben mit Methoden des Machine Learning moralisch erweitert. Er passt sich automatisch an die jeweilige Situation im Pflegebereich an (Anderson et al. 2017). Die Andersons, Pioniere der Maschinenethik und Herausgeber des Klassikers "Machine Ethics" (Anderson und Anderson 2011), stellen ihre Implementierung im Mai 2019 in Deutschland vor, beim Berliner Kolloquium über Pflegeroboter.
 
Ein Ansatz, der ebenfalls Flexibilität verheißt, ist das Moralmenü (kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse, seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail. Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen festzulegen. Ideal ist, wenn er keine Programmierkenntnisse braucht, sondern in einfacher und zielführender Weise eingreifen kann. Natürlich lässt sich das Moralmenü mit Machine Learning kombinieren.


 
Der Verfasser hat von 2013 bis 2018 an der Hochschule für Wirtschaft FHNW vier Artefakte der Maschinenethik entwickelt (Bendel 2016a, 2017; Bendel et al. 2017). Für eines von ihnen, den tierfreundlichen Saugroboter LADYBIRD, hat er ein Moralmenü konzipiert, das noch nicht implementiert wurde. Zudem ist ein anderes für einen Sprachassistenten in der Art von Google Duplex entstanden, der telefonisch mehr oder weniger selbstständig Reservierungen und Bestellungen vornehmen kann. Im vorliegenden Beitrag präsentiert der Verfasser die Idee des Moralmenüs und die zwei konkreten Konzepte, für zwei unterschiedliche Maschinen bzw. Systeme. Dann diskutiert er Vor- und Nachteile und präsentiert Verbesserungsmöglichkeiten. 

Die Idee des Moralmenüs
 
Die Idee des Moralmenüs ist, dass ein Besitzer oder Benutzer über dieses eine Maschine - etwa einen Haushaltsroboter - so anpassen kann, dass sie seinen moralischen Vorstellungen und Überzeugungen weitgehend entspricht. Es entsteht eine Stellvertretermaschine mit einer im Detail ausgearbeiteten Stellvertretermoral. Die Maschine tut das, was der Mensch auch tun würde, in seiner Abwesenheit und ohne seine Steuerung. Man muss sich, um das Moralmenü bedienen zu können, darüber im Klaren sein, welche Wertmaßstäbe man hat und welchen Verhaltensregeln man folgt. Vorausgesetzt wird zudem, dass man will, dass diese moralischen Vorstellungen und Überzeugungen in der eigenen Abwesenheit durchschlagen.

Pereira und Saptawijaya haben im Kontext der Maschinenethik eine virtuelle Simulation entwickelt, in der ein Roboter eine Prinzessin retten soll. Zur Erreichung des Ziels kann man unterschiedliche Wege mit unterschiedlichen moralischen Implikationen wählen (Pereira und Saptawijaya 2016). Ansonsten existieren kaum Ansätze, um die Moral im Betrieb zu beeinflussen, außer eben von (Anderson et al. 2017).

Grundsätzlich geht es bei der Maschinenethik um autonome oder teilautonome Maschinen, etwa um Softwareroboter wie Chatbots, Social Bots, Softwareagenten und virtuelle Assistenten oder um Hardwareroboter wie selbstständig fahrende Autos, Kampfflugzeuge und Serviceroboter. Aus normalen Maschinen werden moralische - sie werden sozusagen moralisiert. Dieses Moralisieren erfolgt entweder durch den Forscher, Erfinder, Hersteller, Entwickler etc., sodass das Moralmenü eine zusätzliche Option für eine moralische Maschine darstellt, oder vollständig durch das Moralmenü, sodass erst dieses aus einer neutralen eine moralische Maschine macht. Auch das Moralmenü wird wiederum vom Forscher, Erfinder, Hersteller etc. stammen, außer man gestaltet es völlig offen, was noch zu thematisieren ist. Insofern kann man es im Bereich des Ethics by Design (Dignum 2018) verorten, wobei der Unterschied zu üblichen Anwendungen eben die Alternativen sind, die gewährt werden. 

Das Moralmenü sollte so gestaltet sein, dass die eigene Moral in unterschiedlichen Aspekten und in möglichst weitem Umfang abgebildet werden kann. Dabei muss es zu den jeweiligen Funktionen der Maschine passen. Es sollte leicht bedienbar sein, denn wenn z.B. Programmierkenntnisse oder Kenntnisse einer Beschreibungssprache gefordert werden, um ein Massenprodukt auf Spur zu bringen, wird das eine zu hohe Hürde und die Akzeptanz gering sein, selbst wenn Autorenwerkzeuge zur Verfügung stehen. Es sollten, um dem Namen und der Idee gerecht zu werden, moralische Fragen im Mittelpunkt sein, nicht pädagogische oder psychologische. Natürlich können diese aber im Moralmenü ein Stück weit berücksichtigt werden (man kennt bei Smartphones pädagogische Funktionen, die einen warnen, wenn man die Musik aufdreht).

In den beiden Konzepten, die der Verfasser 2018 entwickelt hat und die visuelle und textuelle Elemente enthalten, werden virtuelle Schieberegler benutzt, so wie sie bei Smartphones und Tablets üblich sind; man aktiviert oder deaktiviert damit die Funktionen. Links davon wird beschrieben, was der Fall ist, wenn der Regler nach rechts geschoben und farblich geändert, also aktiviert wird. Es wird nicht thematisiert, was mögliche Voreinstellungen sind. Möglich wäre, dass alle Regler am Anfang nach links geschoben sind, aber auch eine Mischung ist denkbar.

Das Zusammenspiel zwischen Moralmenü und Maschine bzw. System wird in den Konzepten nicht erörtert und soll hier ebenso wenig eine Rolle spielen. Auch die Umsetzung der moralischen Maschinen selbst steht nicht im Vordergrund. Es kann um ganz unterschiedliche Komponenten gehen, um Hard- und Software, um Bewegungs- oder Sprachfunktionen. Auch der Erwerb der Anwendung ist nicht relevant - diese kann mit dem Produkt mitgeliefert oder in einem App Store bezogen werden. Als Endgerät kann das Smartphone, ein Tablet, ein in das Gerät verbauter Touchscreen oder ein externes, spezielles Display dienen. 

Das LADYBIRD-Projekt
 
LADYBIRD wurde bereits im Jahre 2014 im Rahmen einer Designstudie der Maschinenethik beschrieben. Eine solche Designstudie enthält visuelle und textuelle Elemente und benennt die Grundfunktionen einer moralischen Maschine (Bendel 2017). Die damalige Idee war, eine moralische Maschine zu schaffen, genauer einen tierfreundlichen Saugroboter. Damit war neben der Maschinenethik die Tierethik tangiert, zudem die Tier-Maschine-Interaktion (Bendel 2014, 2016b) bzw. die Tier-Computer-Interaktion (Mancini 2011).
 
Insbesondere sollten beim Betrieb Marienkäfer und andere Insekten verschont werden, die sich auf dem Boden befinden - von daher der Name. In der Folge entstand ein annotierter Entscheidungsbaum, der die konkreten Abklärungen und Optionen der Maschine beschrieb und - in den Annotationen an den Knoten - moralische Begründungen und Annahmen enthielt (Bendel 2018a). Die wichtigste Funktion war, dass der Saugroboter ein Insekt identifizierte und dann seine Arbeit einstellte, bis das Tier verschwunden war oder der Besitzer ihn wieder anstellte.
 
2017 wurde LADYBIRD an der Hochschule für Wirtschaft als Prototyp entwickelt (Bendel 2017). Die Maschine war in der Lage, rote Flecken und Objekte auf dem Boden zu erkennen, daraufhin die Arbeit einzustellen und den Benutzer zu informieren. Sie konzentrierte sich also auf Marienkäfer. Der genannte Entscheidungsbaum wurde teilweise verwendet. Eine zentrale Rolle spielte ein Farbsensor (Hueber 2013). Nicht zum Einsatz kam ein Bewegungsmelder, und auch Bild- und Mustererkennung konnte das Team nicht berücksichtigen. Dies soll in einem Folgeprojekt nachgeholt werden.
 
Abb. 1 zeigt das Moralmenü für LADYBIRD. Dieses wurde in einem Grundlagenbeitrag zur Maschinenethik abgedruckt (Bendel 2018b) und dort kurz erklärt - die Idee eines Moralmenüs wurde skizziert, aber nicht detailliert erläutert. Es ist zudem bei den Designstudien auf maschinenethik.net zu finden, neben ROBOCAR, CLEANINGFISH und einigen anderen.





Abb. 1: MOME für LADYBIRD (Bendel 2018b)
Nach der Ursprungsidee erkennt und verschont LADYBIRD Marienkäfer und andere Insekten. Das Menü beginnt mit der Möglichkeit, Ungeziefer wie Kakerlaken töten zu lassen. Dazu müsste die Maschine Marienkäfer von Ungeziefer unterscheiden können. Ungezieferbefall ist bei Behausungen ein Problem und macht diese u.U. unbewohnbar. Allerdings ist ein Staubsauger eingeschränkt hilfreich bei der Bekämpfung. Der Benutzer würde sich aktiv dafür entscheiden, dass die Maschine tötet - freilich würde sie das eh tun, wenn sie nicht moralisiert wäre. Mit dem zweiten Schieberegler kann der Benutzer das Töten von Spinnen anordnen. Vor diesen Tieren fürchten sich viele Menschen - sie sind aber in unseren Breitengraden in der Regel unschädlich und überdies nützlich, selbst in der Wohnung.  

Mit der nächsten Option wird der Saugroboter zum Spielzeug. Man könnte weiter verfeinern, etwa zwischen Katze und Hund unterscheiden, denn jedes Tier versteht etwas anderes unter einem geglückten Spiel. Letztlich soll zu einem guten Leben größerer Tiere beigetragen werden. Dies ist auch der Sinn der nächsten Option. Es ist ein Belohnungssystem, in das der Benutzer nicht aktiv eingreifen kann, und das hier recht willkürlich gewählt wurde. Wenn LADYBIRD erfolgreich ist in seiner Grundidee, wird Geld des Benutzers überwiesen an eine Tierrechtsorganisation. Das Wohl des Besitzers, das er Tieren angedeihen lässt, verdoppelt sich. Man könnte genauso andere Organisationen vorsehen.
 
Der nächste Punkt betrifft den Datentransfer. Moderne Staubsaugerroboter können Daten zu Größe und Beschaffenheit von Behausungen, zum Inventar und zu den Bewohnern generieren und verbreiten (Ram 2017). Staubsaugerhersteller oder Dritte, etwa Datenfirmen, mögen ein Interesse daran haben. Auch für Polizei und Geheimdienst können wertvolle Angaben entstehen. Der Benutzer kann die Weitergabe von Daten verhindern, was im Zusammenhang mit Privacy by Design (Schaar 2010) und mit dem Verhältnis von Robotern und Privatsphäre (Calo 2011) gesehen werden kann.
 
Ebenfalls auf die Datenerhebung bezieht sich die nächste Entscheidung. Staubsaugerroboter haben einen besonderen Blickwinkel. Sie sind unten am Boden und nehmen den Raum vor ihnen auf, manchmal auch über ihnen (was mit Kameras erfolgen kann, aber nicht muss). Sie können dadurch persönliche Daten generieren, die die Intim- und Privatsphäre tangieren, wie es beim Upskirting überhaupt der Fall ist. Ist der Regler nach rechts geschoben, wird die Maschine zum diskreten Beobachter.
 
Die letzte Option macht den Staubsaugerroboter zum lernenden System, zu einer moralischen Maschine, die Erfahrungen sammelt und Regeln anpasst. Das Dazulernen bei moralischen Maschinen kann mit Risiken verbunden sein - darauf wird der Benutzer explizit hingewiesen. Allerdings mögen diese in einer Umgebung wie dem Haushalt ausgesprochen begrenzt sein. Es ist möglich, die Folgen in einem Infokasten zu skizzieren, so wie zu allen Schieberpositionen weiterführende Informationen sinnvoll sind.
 
Es ist wichtig, nochmals darauf hinzuweisen, dass es bei dem Konzept ums Prinzip geht. Man kann jede Option kritisieren und detaillieren. Es soll die Idee vorgestellt, nicht die Umsetzung vorweggenommen werden. Einem Moralmenü als Produkt bzw. Bestandteil eines Produkts mag ein langer Weg vorausgehen. Im Grunde handelt es sich übrigens um ein hybrides System. Es gibt eine Voreinstellung, an der nichts geändert werden kann und die das Verschonen von Marienkäfern zur Folge und damit moralische Implikationen hat. Andere Einstellungen können angepasst werden. 

Google Duplex
 
Im Jahre 2018 wurde Google Duplex präsentiert, das auf Google Assistant basiert, einem virtuellen Assistenten, der u.a. auf Smartphones eingesetzt wird (Rawes 2018). Die Idee ist, mit einer High-End-Technologie normale Telefone auf der ganzen Welt anzuwählen und private Aufgaben zu automatisieren. So kann Google Duplex etwa in Restaurants oder Frisörsalons anrufen und Tische reservieren bzw. Termine vereinbaren (Dwoskin 2018). Die Daten und der anzurufende Teilnehmer müssen vorher vom Benutzer genannt werden - den Rest erledigt das System. Die Stimme klang bei den Präsentationen von Google sehr lebensecht, das Sprechen überhaupt, weil Pausen, Ähs und Mmhs vorkommen, wie bei echten Menschen. In der Imperfektion könnte der Schlüssel zur Perfektion liegen. 

Google Duplex sah sich alsbald intensiven Diskussionen, nicht zuletzt aus ethischer Sicht, ausgesetzt (Wong 2018). So wurde bemängelt, dass die Maschine nicht offenlegte, dass sie eine Maschine war. Das ganze Gespräch konnte als Täuschung gegenüber dem Angerufenen aufgefasst werden. Kritisch wurde überdies gesehen, dass ein sozialer Akt durch eine automatisierte Aktion substituiert wurde. Google besserte bald nach; Duplex verrät nun am Anfang des Dialogs, was es ist. Es kam nicht zuletzt die Frage auf, ob die Gesprächssituationen echt waren oder gestellt bzw. bearbeitet wurden (Lindner 2018).



Abb. 2: MOME für virtuelle Assistenten (Bendel 2018c)
Das MOME für virtuelle Assistenten (Abb. 2) wurde 2018 in einem Artikel über künstliche Stimmen abgedruckt (Bendel 2018c). Es wurde nicht weiter erklärt und diente vor allem als Illustration. In dem Artikel ging es um die synthetischen Stimmen sowohl von Software- als auch von Hardwarerobotern. Das MOME ist zudem bei den Designstudien auf maschinenethik.net zu finden.  

Die erste Einstellung zielt auf die Offenlegung der maschinellen Existenz. Als das MOME entwickelt wurde, war Google in dieser Hinsicht noch nicht so weit. Beim GOODBOT, einem moralischen Chatbot, den der Verfasser 2013 mit seinem Team entwickelte, war die Transparenz fest im System verankert (Bendel 2016a). Hier hat der Benutzer nun die Wahl. Die zweite Option reguliert Stimme und Sprechen. Wenn der virtuelle Assistent wie eine Maschine spricht, weiß der Benutzer dadurch, selbst wenn er die Offenlegung nicht mitbekommen oder vergessen hat, worum es sich handelt. Auch bei Pepper wurde eine robotische Sprechweise umgesetzt, während man bei Alexa im Gegenteil eine möglichst menschliche Sprechweise anstrebt, sie etwa flüstern lässt (Myers 2017).
 
Bei der Option zu den Komplimenten wird das Verhalten der Maschine in Bezug auf einen bestimmten Aspekt reguliert. Komplimente führen zu emotionalen Veränderungen und Bindungen. Ob man diese bei Systemen fördern soll, ist wiederum umstritten und kommt auf den Kontext an. Die Begrenzung der Gesprächszeit hängt mit der Fairness mit Blick auf den Wert der Lebenszeit zusammen - im Prinzip könnte die Maschine versuchen, den Gesprächspartner ein Leben lang an der Strippe zu halten. Sie verbraucht dabei keine Lebenszeit, der Mensch aber schon. Natürlich wird jeder von uns nach einer Weile aufhängen.
 
Das Datengebot war bereits im anderen Moralmenü fixiert. In diesem Zusammenhang können wieder persönliche Daten anfallen, die schützenswert sind. So könnten Dritte daran interessiert sein, welche Gewohnheiten man als Verbraucher hat oder wann ein Prominenter in welchem Restaurant zu Abend isst. Die nächste Option erscheint ebenfalls vertraut. Nun orientiert sich das Selbstlernen aber am Benutzer, was beinhaltet, dass man dessen Eingaben auswertet und verbindet, ja vielleicht sogar seine Gespräche mithört und sein Verhalten am Handy analysiert. Auf das Risiko dieser Aktivierung wird wiederum hingewiesen. Auch der letzte Punkt ist vom anderen MOME her bekannt. Wiederum wird das Risiko angeführt. 

Vorteile eines Moralmenüs 

Bisher liegt das Moralmenü in seinen Varianten lediglich als Konzept vor. Dennoch können schon erste Einschätzungen gegeben werden. Im Folgenden werden die Vorteile des MOME aufgeführt und grundsätzlich und in seinen beiden Konkretisierungen diskutiert.
 
Das Moralmenü macht dem Besitzer oder Benutzer bewusst, dass bei einem Vorgang, sei er noch so gewöhnlich und alltäglich, moralische Entscheidungen getroffen werden und diese auf Maschinen transferiert werden können. Dabei werden sie beim Namen genannt bzw. beschrieben. Auch eine Bewertung kann mitschwingen. Beim LADYBIRD-MOME wird sich der Benutzer beim Anschauen der Optionen und beim Verschieben der Regler bewusst, was er in welcher Weise zum Wohl oder Leid von Tieren beeinflussen kann. Das MOME für virtuelle Assistenten wie Google Duplex macht ihm klar, dass in einer Gesprächssituation ebenso moralische Fragen entstehen und eine Automatisierung bestimmte Auswirkungen hat. Diese sind z.T. schwer einzuschätzen, zumal der Gesprächspartner womöglich unbekannt ist.
 
Das MOME erlaubt die Übertragung der persönlichen Einstellungen. Normale Maschinen kennen gar keine Moral; zumindest ist diese in ihnen nicht explizit gestaltet. Moralische Maschinen werden meist so gestaltet sein, wie es der Hersteller oder Entwickler wünscht oder der Markt es verlangt. Mit dem MOME ist Individualisierung in der Automatisierung möglich, übrigens auch ein Anspruch der Industrie 4.0 (Reinheimer 2017). Die beiden Konzepte ähneln sich teilweise, insofern sie eben die Moral des Benutzers abbilden. Sie unterscheiden sich zugleich deutlich. In dem einen Fall wird LADYBIRD dazu gebracht, sich in einer bestimmten Weise gegenüber Insekten und anderen Tieren zu verhalten, in dem anderen Fall der virtuelle Assistent an die eigene Person angepasst, um dann selbst als Quasiperson aufzutreten. Die Stellvertretermaschine wird sozusagen zur Stellvertreterperson.
 
Mit der Übertragung hängt zusammen, dass die Moral des Benutzers ernstgenommen wird. Diese ist von Bedeutung, sie verändert die Funktionen des Geräts und hat Auswirkungen auf Menschen und Tiere. Das ist psychologisch relevant, insofern das Selbstbewusstsein gestärkt wird, und philosophisch, insofern die Moral ins Zentrum von Reflexionen und Aktionen rückt. Wie das LADYBIRD-MOME zeigt, handelt es sich um Entscheidungen existenzieller Art, zumindest aus der Perspektive von Tieren. Der Benutzer kann die Tötung von Ungeziefer oder Spinnen veranlassen. Das Verwenden des MOME für virtuelle Assistenten wie Google Duplex kann das Verhältnis zwischen Kunde und Geschäft beeinflussen und den menschlichen Gesprächspartner verändern.
 
Mit der Zeit werden, wenn die Idee sich verbreitet und grundsätzlich überzeugt, immer mehr Moralmenüs entwickelt und können immer mehr Regeln identifiziert werden, die bei vielen Maschinen sinnvoll und zielführend sind. So wie es im E-Learning sogenannte Learning Objects gibt, mit denen man Texte und Tests zusammenstellen kann (Boyle 2003), könnte es Moral Objects geben. Man wählt sie aus einer Übersicht oder einer Datenbank für das jeweilige Moralmenü aus. Bereits bei den beiden vorgestellten Konzepten sind Überschneidungen vorhanden, nämlich in Bezug auf die Datenweitergabe und das Selbstlernen. Solche Überschneidungen könnte man in Metakonzepte aufnehmen, die man bei der Entwicklung aller Moralmenüs anwenden könnte, oder eben in die erwähnten Übersichten und Datenbanken, im Sinne einer Modularisierung, einer Analyse und Synthese der Moral.
 
Generell kann in diesem Zusammenhang das Vorhandensein einer Manipulationsmöglichkeit als Vorteil gewertet werden. Der Maschinenethik geht es um die Erforschung und Entwicklung moralischer Maschinen, und ein Moralmenü ist ein Beitrag sowohl zur Disziplin als auch für die Praxis. Beide MOMEs sind bloß beispielhaft ausgeführt, über die Optionen kann man sich streiten, und auch darüber, ob es nicht passendere oder wichtigere gibt. Die MOMEs sind kein Endresultat, sondern ein Anfangspunkt, für Diskussionen in der Disziplin und für Realisierungen in der Praxis. Sie sind Bestandteil einer iterativen Forschung und Entwicklung.
 
Bisher wurde angenommen, dass ein einzelner Besitzer oder Benutzer seine Moral auf die Maschine überträgt. Es kann sich indes genauso um einen Haushalt handeln, in dem mehrere Personen leben. Bei bestimmten Maschinen kann jeder seine Moral transferieren. Eine interessante Begleiterscheinung ist, dass man womöglich die Einstellungen der anderen Mitglieder, ob der Familie oder der WG, erfährt. Beim virtuellen Assistenten kann bei der Dateneingabe auch die Moral der Maschine justiert werden. So wird diese den Ansprüchen des jeweiligen Benutzers (nicht unbedingt des Besitzers) gerecht. Beim Saugroboter ist dies offensichtlich problematisch, weil er ja in Abwesenheit ohne direkte Aufsicht seine Arbeit verrichten soll.
 
Die Liste ließe sich fortsetzen. Man kann das Moralmenü für eine interessante Erfindung halten, die vielleicht nicht reüssiert, die aber verwandte Innovationen nach sich zieht. 

Nachteile eines Moralmenüs 

Im Folgenden werden die Nachteile des Moralmenüs aufgeführt und grundsätzlich und in seinen beiden Konkretisierungen diskutiert.
 
Moralische Haltungen können komplex sein. Die Schieberegler führen zu einer gewissen Vereinfachung. Es wird nur die Möglichkeit offeriert, eine Funktion zu deaktivieren und zu aktivieren. Damit werden zunächst vorgegebene Regeln gestärkt und die je nach Situation unterschiedlichen Folgen ausgeblendet. Im Extremfall kommt es zu Verfälschungen, etwa weil man eigentlich eine Position hat, die in der Mitte liegt. Beide Konzepte sehen eine Möglichkeit vor, der Simplifizierung und der Dominanz der Regeln zu begegnen. So führt die Selbstlernfähigkeit potenziell zu neuen Regeln und zu Anpassungen des Systems. Damit verbunden sind allerdings gewisse Risiken, auf die ebenfalls hingewiesen wird. Man könnte die Regler in manchen Fällen für drei Positionen vorsehen oder fließende Übergänge ermöglichen.
 
Mit einer moralischen Maschine wird grundsätzlich Verantwortung in Bezug auf spezifische Entscheidungen abgegeben. Dabei kann die Maschine selbst vermutlich gar keine tragen, höchstens in dem Sinne, dass sie eine Aufgabe erledigt (eine rudimentäre Form der Primärverantwortung). 

Kaum möglich bzw. sinnvoll ist es, eine Sekundärverantwortung anzunehmen, die Maschine zu rügen und zu tadeln (Bendel 2018b). Der Mensch könnte sich seiner Verantwortung entwöhnen. Er könnte durch das MOME in der Vorstellung gestärkt werden, alles in seiner Macht Stehende getan zu haben und sich daher außerhalb der Verantwortung sehen.
 
Die beiden Konzepte sind in dieser Frage unterschiedlich zu bewerten. LADYBIRD ist im Haushalt unterwegs, der zu einer Person oder einer Gruppe gehört. Die Situation ist wenig komplex. Ein virtueller Assistent wie Google Duplex richtet sich dagegen nach außen und kann mehr Schaden anrichten. So kann er Menschen vor den Kopf stoßen oder Falschreservierungen vornehmen, wodurch sich Haftungsfragen stellen. Das MOME soll aber auch genau dem entgegenwirken, wobei die Möglichkeiten beim vorliegenden Konzept längst noch nicht ausgeschöpft sind.
 
Wenn der Benutzer zu schädigenden Handlungen und bösen Taten neigt, erlaubt es ihm das MOME, das Schlechte mit Hilfe maschineller Mittel zu verbreiten und verstärken, es vorhanden sein zu lassen selbst in seiner Abwesenheit. Die Freiheit, die das MOME erlaubt, kann missbraucht bzw. ausgenutzt werden. In diesem Sinne sind feste Vorgaben eine verlässliche Alternative und verhindern zumindest das Schlimmste (sofern sie nicht selbst das Schlimmste enthalten). Diese Problematik wird vor allem beim LADYBIRD-MOME offenbar. Der Saugroboter sollte nach dem ursprünglichen Plan in der Lage sein, nicht allein Marienkäfer, sondern auch andere Insekten zu verschonen (Bendel 2017). 

Dadurch wäre er eine grundsätzlich tierfreundliche (eigentlich insektenfreundliche) Maschine geworden, zugleich eine, die über den Kopf des Benutzers hinweg entscheidet (der sie allerdings nicht kaufen muss). Das MOME erlaubt es dagegen, bestimmte Lebewesen töten zu lassen. Auch das Menü für virtuelle Assistenten zeigt Möglichkeiten des Missbrauchs. So ist die Option, keine Komplimente zu machen, als Schutz vor emotionalen Bindungen gemeint, doch kann ein Gespräch ohne Komplimente selbst emotionslos und kalt wirken.
 
Die bereits thematisierte Bewusstwerdung von Wertvorstellungen und Verhaltensregeln hat eine Schattenseite. Das MOME könnte zum Resultat haben, dass sich die individuelle Moral ins Negative verändert. Das Böse wird nicht nur von der Maschine fortgeführt, sondern macht sich im Benutzer breit. Die Maschine wird zum schlechten Vorbild des Menschen. Die Beschreibung und Einordnung der Wirklichkeit schafft eine neue Wirklichkeit. Die Moralmenüs zeigen dem Benutzer auf, was er bzw. die Maschine bisher getan und gelassen hat, und geben ihm die Möglichkeit, seine Handlungen über die Maschine zu vervielfältigen. Sie zeigen ihm auch auf, was er in Zukunft denken und tun könnte. Er könnte bestimmte Tiere töten lassen, an die er vorher keinen Gedanken verschwendet hat, oder selbst Komplimente im Gespräch aussparen, in der Meinung, damit wie die Maschine Probleme zu vermeiden.
 
Durch das Moralmenü werden letztlich doch Optionen vom Hersteller oder Entwickler festgelegt. Damit kann die eigene Moral in einigen Fällen vollständig, in vielen Fällen bloß unvollständig abgebildet werden. Es fragt sich zudem, nach welchen Kriterien die Optionen überhaupt entwickelt werden. Dafür muss sich allerdings die Maschinenethik nicht zwangsläufig zuständig fühlen (Bendel 2018b). Eine philosophische Disziplin ist daran interessiert, Werte zu untersuchen, nicht vorzugeben. 

Die Maschinenethik, die mit KI und Robotik zusammenarbeitet, ist vor allem daran interessiert, einer Maschine Werte einzupflanzen, welche auch immer. Die beiden Konzepte haben ausschnitthaft Möglichkeiten im Moralischen gezeigt. Man könnte weiter in die Tiefe gehen, könnte mehr Optionen gewähren. Damit würde es allerdings anspruchsvoller, unübersichtlicher und bedienungsunfreundlicher. Besonders an LADYBIRD ist, dass es eine feste Vorgabe gibt, die nicht geändert werden kann, eben das Verschonen von Marienkäfern.
 
Ein MOME hat zu ganz unterschiedlichen Anforderungen zu passen. Es muss, mit anderen Worten, für jede Maschine individuell entwickelt werden, zumindest für jeden Typ. Dabei sind unterschiedliche Ziele und Ebenen zu berücksichtigen. Bereits angeklungen ist, dass sich mit der Zeit, im Zuge der Entwicklung vieler MOMEs, Metakonzepte ergeben könnten. Die beiden Konzepte zeigen, dass bei moralischen Maschinen (wie bei normalen Maschinen) ganz unterschiedliche Ziele und Ebenen existieren. So treten Maschinen auf, die Akte oder Aktionen ausführen, und Maschinen, die Dialoge führen, mithin Sprechakte. Zum Teil können diese Ebenen zusammenwirken. So ist es bei humanoiden Robotern üblich und sinnvoll, Mimik, Gestik und Sprache aufeinander abzustimmen.
 
Auch im Abschnitt der Nachteile wurde bisher angenommen, dass ein einzelner Besitzer oder Benutzer seine Moral der Maschine leiht. Es ist gleichermaßen ein Haushalt mit unterschiedlichen Persönlichkeiten denkbar. Bei bestimmten Maschinen kann jedes Mitglied seine Moral transferieren. 
 

Beim virtuellen Assistenten kann bei der Dateneingabe die Moral der Maschine eingestellt werden. 
Ein bereits angesprochenes Problem könnte sein, dass Verantwortungs- und Haftungsfragen entstehen, nun allerdings schwer lösbare, da Besitzer und Benutzer nicht mehr (oder nicht unbedingt) identisch sind. Beim Saugroboter ist die jeweilige Änderung offensichtlich problematisch, weil er ja in Abwesenheit ohne direkte Aufsicht seine Arbeit verrichten soll. Es kann zu Streit zwischen den Haushaltsmitgliedern kommen. Dass jeder seinen eigenen Saugroboter hat, ist ebenso wenig zweckmäßig, wobei die Industrie nichts dagegen haben dürfte.
 
Auch diese Liste ließe sich fortführen. Man mag etwa behaupten, dass es sich um marginale Probleme handelt, die mit einem enormen Aufwand angegangen werden.
 
Weitere Ansätze

Ein Moralmenü kann die Moral des Besitzers oder Benutzers auf ein Gerät oder einen Roboter übertragen. Dabei ergeben sich Vor- und Nachteile auf verschiedenen Ebenen. Das Moralmenü unterstützt den Approach, die Moral des Benutzers zu stärken, wie immer diese beschaffen ist. Dabei kann die Moral auch im negativen Sinne durch die Maschine verbreitet und in der Person verändert werden. Dem entgegen stehen könnten hybride Maschinen, wie im Grunde LADYBIRD eine ist.
 
Wie am Anfang angeklungen ist, könnte man das Moralmenü allerdings genauso völlig offen gestalten. Der Benutzer müsste ihm gegenüber seine Vorlieben formulieren, die das System dann übernimmt. Dafür müsste es eine einfach bedienbare Benutzeroberfläche oder - an anderer Stelle erwähnt - eine einfache Programmier- oder Beschreibungssprache geben. Eine Beschreibungssprache, die sich für die Moral im Geschriebenen und Gesprochenen sowie das moralisch adäquate Anzeigen von Bildern, Videos und Animationen und das Abspielen von Klängen anbieten würde, könnte in Anlehnung an XML, HTML, SSML etc. MOML heißen (Morality Markup Language). Selbst anspruchslose Programmier- und Beschreibungssprachen könnten aber einzelne Personen überfordern. Zudem würde man die Maschinen selbst überfordern, denn eine Vielfalt der Einstellungen müsste erst einmal technisch umgesetzt werden können.

Etliche weitere Ansätze sind denkbar. So könnte die Maschine den Benutzer psychologische und ethische Tests absolvieren lassen und auf dieser Grundlage sich selbst anpassen. Daneben sind Interviews möglich, oder der Benutzer macht der Maschine vor, was er gemeinhin tun würde, dient also als Referenzperson, was auch bei autonomen Autos diskutiert wurde (Bendel 2016c). Der vorliegende Beitrag beansprucht nicht, die beste Lösung gefunden zu haben. Aber es wurde hoffentlich ein bedenkenswerter Beitrag für die Maschinenethik und womöglich für die Praxis geleistet.




Nota. - Der elementare Fehler in dem ganzen Ansatz ist... nein, nicht erst, dass er soziale Klugheit für Moralität hält - das ist nur abgeleitet. Zugrunde liegt vielmehr die Auffassung, als sei Moralität so etwas wie Verstand. Nämlich so etwas wie Logik: das Höhere begründet das Untere, das Allgemeine das Beson- dere, das Prinzip seine Ableitungen, der Zweck das Mittel. Moralisches Handeln bestünde im Zuordnen einzelner Fälle zu einer je anzuwendenden Norm. 

Das ist immernoch besser, als würde unter Moral eine Summe einzelner Fälle verstanden und bestünde in einer Art empirisch auszumachenden gemeinsamen Nenners. Aber weniger falsch ist es nicht.

Moral kommt von lat. mos, mores - Sitte, Gebräuche. Das griechische ethos bedeutet dasselbe; Ethologie heißt daher die Verhaltenskunde bei Mensch und Tier. 

Historisch waren sie der Ursprung dessen, was man heute unter Sittlichkeit versteht; sie bestimmen, was sich gehört und was sich nicht gehört. Dass ein Unterschied, gar ein Gegensatz entstehen kann zwischen dem, was sich in einer historisch gewachsenen Gemeinschaft gehört, und dem, ich für meine höchstper- sönliche Pflicht erkenne, ist eine verhältnismäßig junge Erkenntnis, und sie beruht auf einer Erfahrung, die erst in komplexen modernen, nämlich bürgerlichen Gesellschaften so allgemein wurde, dass sie einen be- sonderen Namen nötig machte. Antigone war ein Einzelfall und als solche tragisch. Der Konflikt zwischen gesellschaftlichen Normen und dem, was mir mein Gewissen gebietet, ist schon eine banale bürgerlich Standardsituation. Weil nämlich das eigenverantwortliche, autonome Subjekt zur selbstverständlichen Existenzbedingung geworden ist: Es muss selber entscheiden.

Die Sprache unterscheidet noch immer nur zwischen positiven herrschenden Moralen und einer proble- matischen Moralität. Die Verwirrung ist daher groß. Es kann ja vorkommen und tut es oft genug, dass der ganz außermoralische Blick auf meinen Vorteil mir rät, dem Gebot der herrschenden Moral zu folgen und die Stimme meines Gewissens zu überhören. 

Wer oder was ist aber mein Gewissen? Es ist das Bild, das ich mir von mir selbst gemacht habe und um dessentwillen ich mich achte. Der Autor sagt es selbst: Die Maschine kann sich nicht verantworten - näm- lich nicht vor sich. 

Nun kann ich keinen Andern achten, wenn ich mich selbst nicht achte - und auf einmal verkehren sich die Seiten: Moralität wird zur Bedingung sozialer Klugheit. Und letztere muss der Maschine einprogrammiert werden, weil sie diese Bedingung selber nicht hat.

*

Das spielt in obigem Text freilich alles gar keine Rolle. Lesen Sie nochmal nach: Vor Gewissensentschei- dungen stellt er seine Maschinen nirgendwo. Es geht überall nur um Nützlichkeitserwägungen in mehr oder weniger allgemeiner Hinsicht. So dass er mit seinem Ding problemlos durchgehen könnte, wenn er nur... bescheiden genug wäre, von Moral nicht zu reden.

Aber er tut es ganz ungeniert, und mit ihm Kreti und Plethi. Es passt, aber das ist keine Rechtfertigung, per- fekt in eine Zeit, wo es neben Fakten noch alternative Fakten gibt und keiner es so genau nimmt; aber ein jeder sieht, wo er bleibt.
JE