Samstag, 18. Oktober 2014

Computer mit simulierter Lebensgeschichte.

I, Robot
aus Die Presse, Wien, 18. 10. 2014                                                                     aus dem Film I, robot
                      

Computertechnik
Künstliche Intelligenz im Alltag
Roboter sind längst in der Lage, eigenständige Entscheidungen zu treffen. Aber können sie sich in die komplexe Psyche des Menschen einfühlen?

 

Bei der diesjährigen Roboter-Fußballweltmeisterschaft in Brasilien teilten die künstlichen Kicker der TU Graz das Schicksal der österreichischen Nationalelf: Sie hatten sich nicht qualifiziert und mussten zusehen. In einer anderen Disziplin konnte „Trainer“ Gerald Steinbauer hingegen stolz auf seine Mannschaft sein. Als es darum ging, in einem nachgebauten Erdbebengebiet möglichst viele Überlebende zu finden, holten die steirischen Roboter-Olympioniken eine Silbermedaille. Das, meint Steinbauer, sei ohnehin ein wichtigeres Einsatzgebiet als Fußball. „Jedes Jahr verletzen sich menschliche Katastrophenhelfer im Schutt.“ Da wären Roboter geeigneter.

Einmal im Jahr lassen bei den RoboCups Forscherteams aus der ganzen Welt ihre Roboter gegeneinander antreten. Längst sind das keine Automaten mehr. Steinbauers Athleten können selbst verzwickte Situationen analysieren und dann Entscheidungen treffen. Steinbauer gehört zu den führenden Robotikern Österreichs. Am Institut für Softwaretechnologie der TU Graz forscht er zum Thema künstliche Intelligenz. „Unsere Roboter müssen ohne Steuerung von außen unerwartete Probleme lösen“, sagt er.

Dazu werden sie vorab mit Anweisungen für alle denkmöglichen Szenarien gefüttert. Steinbauers Team sucht nach Formeln für alle Unwägbarkeiten eines Roboterlebens. „Es ist kein Zufall“, sagt er, „dass künstliche Intelligenz von Beginn an Philosophen beschäftigt hat.“

Hilfsroboter turnen mit
 
Künstliche Intelligenz hat längst Einzug in den Alltag gefunden: als Spracherkennungsprogramm am Smartphone, das auf fast jede Frage ein Antwort weiß. Oder als Bordcomputer in Autos, die das Fahrverhalten beeinflussen. Japanische Firmen arbeiten seit Jahren mit Cobots, das sind Collaborative Robots, also künstliche Hilfsarbeiter, die Seite an Seite mit menschlichen Mitarbeitern einfache Tätigkeiten verrichten. In einigen Firmen beteiligen sich die Roboter sogar zum Gaudium der Kollegen an den für Japan üblichen morgendlichen Gymnastikübungen. Gebrechliche Menschen greifen in Fernost zunehmend auf die Dienste von künstlichen Pflegehelfern zurück. Davon ist man hierzulande noch weit entfernt.

In Österreich dominiert die Grundlagenforschung. So war ein Projektteam der Uni Klagenfurt an der Entwicklung eines EU-Prestigeprojekts beteiligt, das unlängst an der TU München fertiggestellt wurde: eines humanoiden Barkeepers. James heißt der Roboter, der mit den Gästen redet und Gläser abräumt. Um herauszufinden, ob sie leer sind, muss er sie eingehend begutachten. Das haben ihm die Kärntner Forscher beigebracht. „Die Herausforderung lag darin, einen winzigen Sensor zu bauen, mit dem er es schnell vermessen kann“, so Projektmitarbeiter Stephan Mühlbacher. Nun soll James lernen, auf die Wünsche seiner menschlichen Kundschaft einzugehen. Wie aber soll sich ein nach mathematischen Algorithmen programmierter Roboter in die komplexe menschliche Psyche einfühlen? Lässt sich das menschliche Denken und Fühlen einem Roboter erklären?

Möglicherweise wurde die Antwort darauf vor fast 120 Jahren gegeben. Davon ist zumindest der Computertechniker Dietmar Dietrich von der TU Wien überzeugt. Er glaubt, dass Sigmund Freuds Modell der Psychoanalyse dazu geeignet ist, den Code des menschlichen Denkens zu knacken: Ich, Es und Über-Ich heißen die Hauptfunktionen seiner Computersysteme, die das menschliche Denken simulieren sollen.

Psychoanalyse für Roboter
 
Diese Software füttern die Forscher mit einer erfundenen Biografie: „Wir gaukeln ihm eine Vergangenheit vor“, sagt Dietrich. Gute Erfahrungen, schlechte Erfahrungen. Aber schafft das ein Bewusstsein, Gefühle? „Zukünftig“, sagt Dietrich, würden seine Computer „eine Art von Bewusstsein entwickeln“. Auch ein moralisches Grundverständnis? Was, fragt Dietrich, sei denn Moral, wenn „nicht eine aus der eigenen Geschichte angelernte Vorstellung?“

Noch ist der erfundene Erfahrungsschatz der Computer stark beschränkt. „Die Menge an Informationen, die sich ein Mensch in drei Jahrzehnten erarbeitet, ist enorm“, sagt Dietrich. Noch ist die Wissenschaft nicht weit genug, um Roboter mit Gefühlen zu bauen. Aber das sei nur eine Frage der Zeit, glaubt Dietrich. „Ich werde das nicht mehr erleben. Aber in 50 oder 100 Jahren gibt es bestimmt Computer, die menschenähnlich denken.“

LEXIKON

Künstliche Intelligenz (KI) ist ein Computersystem, das ohne Anweisungen von Menschen Entscheidungen trifft. Im Alltag kennt man KI von Smartphones, Boardcomputern oder Systemen zur Energieregulierung.
Humanoider Roboter ist ein menschenähnlicher Roboter, der auf KI basiert. In manchen Ländern kommen Roboter bereits als Fabriksarbeiter oder Pflegehelfer zum Einsatz. Noch steckt die Technik aber in den Kinderschuhen. Manche Forscher glauben, dass die humanoiden Roboter der Zukunft eine Art Bewusstsein besitzen werden.


Nota.

Was ist Moral, "wenn nicht eine aus der eigenen Geschichte angelernte Vorstellung?"

Uff. Nein, nicht Computer sind eine Gefahr, sondern die Leute, die sie bauen. Sie haben keinen andern Horizont als die technische Machbarkeit. Welche "Moral" kann man sich denn wohl aus seiner eigenen Geschichte anlernen? Eine Schaden-Nutzen-Rechnung, was andres kommt mir nicht in den Sinn. Und wenn man selbst das größte Glück der größten Zahl noch draufsattelt (im verbindlichen schulischen Ethik-Unterricht angelernt), wird doch bestenfalls eine soziale Klugheitslehre daraus, aber nie ein Unterscheid von gut und böse.

Und wisst ihr, warum? Weil Computer niemals Kinder waren und daher auch nicht wieder werden können. "Kindsein heißt, gut und böse unterscheiden können, ohne nachdenken zu müssen", sagt Erich Kästner. Und wer da nicht hindurchgegangen ist, der kann sich später auch an nichts erinnern. (Dem Herrn Dietrich von der TU Wien haben sie die Kindheit offenbar gestohlen, und die kann man sich nicht ergaukeln.)

Zum Unterscheiden von gut und böse muss man sich selber entscheiden, das lässt sich nicht "anlernen". 
JE  

Keine Kommentare:

Kommentar veröffentlichen