Freitag, 28. Oktober 2016

Denken heißt Erwartungen prüfen.

Meret Oppenheims, Pelztasse, 1936.
aus nzz.ch, 27.10.2016, 05:30 Uhr

Ich denke, also mache ich Voraussagen
Eine neue Theorie der Kognition beschreibt unser mentales Leben als ständigen Strom von Prognosen und Fehlerkorrekturen: Predictive Coding.

von Manuela Lenzen

Wer in der Philosophie des Geistes etwas werden wollte, war in den letzten Jahren gut beraten, sich ein solides Wissen in Neurowissenschaften und Psychologie anzulesen. Inzwischen empfiehlt sich vielleicht eher ein Mathematikstudium. Denn derzeit macht eine Theorie Karriere, die für manche das Zeug zu einer umfassenden Theorie der Kognition hat; sie heisst Predictive Coding oder auch Predictive Processing, voraussagendes Codieren oder voraussagende Datenverarbeitung, und stammt in ihrer aktuellen Form von dem britischen Neurowissenschafter Karl Friston.

Die erste Annahme der neuen Theorie: Das Gehirn tut alles, um seinen Energieeinsatz zu minimieren. Ihre zweite Annahme: Das gelingt dem Gehirn, indem es Voraussagen über die Zukunft macht, sie mit dem Ist-Zustand abgleicht und die Voraussagen aktualisiert. Das Gehirn «interessiert» sich demnach kein bisschen für seine Umgebung, sondern allein dafür, seinen eigenen Zustand stabil zu halten und Überraschungen zu vermeiden. Unser mentales Leben, unsere Handlungen, unsere Pläne, selbst Erinnerungen und abstrakte Gedanken sind demnach nur ein Mittel des Gehirns, hässliche Überraschungen in Grenzen zu halten.

Die glatte und feste Tasse
 
«Wenn Sie zum Beispiel nach einer Tasse greifen, erwarten Sie, dass sie sich glatt und fest anfühlt. Tut sie das, werden Sie es nicht weiter bemerken. Ist sie aber zum Beispiel weich und klebrig, läuten im Gehirn die Alarmglocken, und Sie wenden der Tasse Ihre Aufmerksamkeit zu: ‹Was ist denn da los?›» – So erklärt es Martin V. Butz, Professor für kognitive Modellierung an der Universität Tübingen. Dieses Verfahren spart Betriebsenergie, denn die höheren Ebenen der Kognition müssen sich nur mit dem befassen, was von den Erwartungen abweicht, mit den Voraussagefehlern. Alles, was den Erwartungen entspricht, wird auf den unteren neuronalen Ebenen abgehandelt.

Ganz neu ist diese Idee nicht, sie geht vielmehr auf Arbeiten aus dem 19. Jahrhundert zurück, auf Ansätze von Psychologen wie Johann Friedrich Herbart, Hermann von Helmholtz und William James. Sie entwickelten die Idee, dass unsere Wahrnehmung der Dinge der Welt davon abhängt, was wir mit ihnen machen können. Demnach sehen wir nicht einfach Objekte, sondern mögliche Handlungen, im Wissenschaftsidiom: «Affordanzen». Die Tasse fordert uns auf, Tee hineinzuschütten, sie zum Mund zu führen und zu trinken. Denn das ist es, was wir mit der Tasse verbinden, darin besteht der Begriff, den wir von ihr haben, und so ist sie auch in den Schaltkreisen des Gehirns «gespeichert».

Friston hat dieser Idee eine anspruchsvolle mathematische Form gegeben, die im Wesentlichen auf einer informationstheoretischen Analogie zum Prinzip der freien Energie aus Thermodynamik und Bayesscher Statistik beruht. «Tasse» ist darin nicht mehr einfach ein Begriff, sondern ein «Attraktor», auf den sich ein kognitives System einpendelt. Diese Theorie besagt nicht, dass Neuronen Gleichungen lösen. Sie ist vielmehr ein mathematisches Werkzeug, mit dem Forscher Denkprozesse modellieren und auch testen können: etwa indem sie die Aktivität der Neuronen simulieren und mit Messdaten vom Gehirn vergleichen. In der Tat werden eingehende Reize je nach Neuigkeitswert im Gehirn unterschiedlich stark abgeschwächt. Und auch die Anatomie spricht für die neue Theorie. So stammt etwa der allergrösste Teil der Reize, mit denen sich der für das Sehen zuständige Bereich des Gehirns beschäftigt, nicht von den Augen, sondern aus anderen Teilen der Grosshirnrinde: Das Gehirn befasst sich vor allem mit sich selbst.

Anschlussfähigkeit gegeben

Die Theorie des Predictive Coding hat sich zu einer Theorie «für alles» zu entwickeln begonnen. Auch Illusionen und Halluzinationen, Schizophrenie und Autismus werden damit zu erklären versucht – oder uneindeutige Wahrnehmungen wie der Eindruck, der Zug, in dem man sitzt, fahre los, obgleich sich der auf dem Nachbargleis in Bewegung setzt. Alles dies seien Ergebnisse falscher Voraussagen. Selbst die Neugier, die einem nur auf Überraschungsvermeidung ausgerichteten Gehirn fremd sein könnte, findet ihre Erklärung: Wir interessieren uns für alles, von dem wir uns etwas für unser Verhalten Relevantes versprechen, und auf die Dauer reduziert es eben Überraschungen, sich für überraschende Neuigkeiten zu interessieren.

«Die Theorie ist attraktiv, weil sie nicht unmittelbar von den neuronalen Prozessen im Gehirn handelt, sondern auf einer abstrakteren Ebene angesiedelt ist», sagt Wanja Wiese, Philosoph an der Universität Mainz. So könne die Theorie auf der einen Seite für Neurowissenschafter, auf der anderen für Kognitionsforscher anschlussfähig sein. Wiese ist ein Vertreter der jungen Generation in der Philosophie: Er hat ein Diplom in Mathematik, die Theorie des Predictive Coding macht ihm keine Angst. Sein Lehrer Thomas Metzinger, Professor für Philosophie des Geistes in Mainz, sieht das weniger entspannt: «Wenn sich diese Theorie durchsetzt, ist das für meine Generation das Aus.» Aber auch er spürt den philosophischen Sog des Predictive Coding. Immerhin verspricht der Ansatz einen einheitlichen begrifflichen Rahmen für Wahrnehmen, Handeln und Aufmerksamkeit: Scheinbar ganz unterschiedliche Phänomene erweisen sich als Ausdruck desselben formalen Prinzips. Und auch Fristons Wortwahl trägt dazu bei, die Philosophen neugierig zu machen: So sei der Körper selbst ein Modell der Welt, in der der Organismus sich entwickelt habe. Ob das mehr bedeutet, als dass der Körper eben in dieser bestimmten Umwelt entstanden ist, ist nicht recht klar, doch das Interesse ist geweckt und führt in der Philosophie zu neuen Konfliktlinien.

Da ist zum einen der Streit um die «Verkörperung» des Denkens. Die ältere Theorie besagt, dass wir im Kopf Repräsentationen für die Dinge in der Welt bilden und Denken darin besteht, mit diesen Repräsentationen mental zu hantieren. Der Theorie vom verkörperten Denken gemäss sind diese Repräsentationen nichts Abstraktes, sondern Körperzustände, die eng mit Handlungen, Emotionen und der Umwelt verknüpft sind. «Die letzten dreissig Jahre haben wir uns an den Gedanken gewöhnt, dass Kognition nicht nur im Kopf stattfindet. Der neue Ansatz verlagert das Denken jetzt wieder in den Kopf zurück», konstatiert Metzinger.

Und die «Voreinstellungen»?

Hier zeigt sich allerdings, dass ein allgemeiner begrifflicher Rahmen für alle kognitiven Vorgänge eben ein sehr allgemeiner Rahmen ist: Vertreter beider Kognitionstheorien sehen sich in ihren Ansichten bestätigt. Und auch die Konkurrenz zwischen verschiedenen Bewusstseinstheorien wird von der Theorie des Predictive Coding eher nicht entschieden: «Vielleicht liefert sie einen gemeinsamen Rahmen, der Theorien, die unterschiedliche Aspekte hervorheben, verbinden kann», so Wiese.

Auch Martin Butz sieht noch Klärungsbedarf: «Auf der kognitionswissenschaftlichen Seite ist diese Theorie für mich die plausibelste, die wir haben, endlich eine klare mathematische Formulierung, wie ein lernendes System aussehen könnte.» Eine Theorie wäre das, die allgemein genug ist, um sowohl die Vorgänge im Gehirn als auch diejenigen beim «Maschinenlernen» zu beschreiben.

Aber weder lernende Maschinen noch Menschen kommen ohne «Voreinstellungen» aus, die entweder der Programmierer oder die Evolution vorsieht. «Das wird bei Predictive Coding zu wenig berücksichtigt, wir Menschen haben ein sehr allgemeines Lernsystem, aber völlig frei ist es nicht», sagt Butz. «Bevor diese Theorie erklären kann, wie höhere Kognition entsteht, muss sie noch viel spezifischer werden.» – Vielleicht zeigt sich dann indes, dass wir im Oberstübchen ja doch noch etwas mehr tun, als immerzu nur Prognosefehler zu korrigieren.

Manuela Lenzen ist promovierte Philosophin und arbeitet als freie Wissenschaftsjournalistin (http://www.manuela-lenzen.de/).


Nota. -  Na selbstverständlich tun wir im Oberstübchen noch etwas mehr, als immerzu nur Prognosefehler zu korrigieren. Nämlich Prognosen entwerfen. Die kämen von allein durch die Erfahrung auf uns zu? Aber die Erfahrung bestand in der Korrektur von Prognosefehlern. 

Man kann es drehen und wenden wie man will: Um die Annahme einer Allerersten Prognose kommen wir nicht herum. Damit Erfahrungen überhaupt gemacht werden können, müssen nicht nur die Instrumente - Kants Apriori - 'zuhanden' sein, sondern ein vorgängiger Sinnentwurf: Fichtes Tathandlung.

Wenn nun das Predictive Coding ideengeschichtlich bis auf J. F. Herbart (und mit ihm auf die englische Assoziationspsychologie) zurückgeführt wird, sollte nicht vergessen werden, dass Herbart bei J. G. Fichte in der philosophischen Lehre war. Ein früh und entschieden abtrünniger Schüler zwar, aber es hat ihn nicht gehindert, sich am Meterial der Fichteschen Philosophie reichlich zu bedienen (wie später auch Schopen- hauer). 

Hier ist es der Primat des Praktischen in all unserer Vorstellungstätigkeit; ihrer Intentionalitä und Gerichtet- heit: 'Wollen', 'Streben', 'Trieb'. Das (lediglich zum Behuf der Erklärung angenommene) 'Ich' ist ursprünglich schlechthin handelnd, aber es handelt nicht nur 'einfach so', sondern immer um zu....

Wenn man also sucht, mit welcher Philosophie sich die neue Psychologie am besten verträgt, muss man nicht weit gehen, es reicht ein Klick zu meinem Blog. (Dass Metzinger das nicht passt, habe ich nicht anders erwartet. Würde er mir zustimmen, hätte ich einen Fehler gemacht.)
JE 


 

Mittwoch, 26. Oktober 2016

Das Labor ist nicht die Welt.


aus Tagesspiegel.de, 26. 10. 2016

Ganz schön weltfremd 
Psychologische Studien scheinen eine Menge über unser Verhalten und Erleben auszusagen. Doch viele entstehen unter künstlichen Bedingungen.
 
von Christian Wolf

Oxytocin gilt nicht nur als Kuschel- und Liebeshormon, sondern auch als Hormon, das uns anderen Menschen Vertrauen schenken lässt. Letzteres scheinen psychologische Studien eindrucksvoll zu belegen. Nach Einnahme von Oxytocin in Form eines synthetischen Nasensprays vertrauten Probanden in Spielen um Geld einem unbekannten Spielpartner viel häufiger als Versuchspersonen, die nur ein Scheinmedikament (Placebo) erhalten hatten. Doch mittlerweile mehren sich die Zweifel, ob man den Befunden zum „Vertrauenshormon“ selbst rundheraus vertrauen kann. So fand etwa ein Team um den Psychologen Anthony Lane von der Université catholique de Louvain keinen Unterschied zwischen Menschen, die einige Sprühstöße Oxytocin erhalten hatten, und einer Kontrollgruppe. Und diese im Fachblatt „Plos One“ erschienene Studie ist längst nicht die einzige ihrer Art.


Wie kommt es zu den unterschiedlichen Ergebnissen? Unter natürlichen Bedingungen wird Oxytocin im Gehirn im Hypothalamus, einer Schaltzentrale im Zwischenhirn, hergestellt und ausgeschüttet. Ganz anders sieht die Situation allerdings unter den künstlichen Bedingungen des Labors aus. Es ist unter Forschern umstritten, ob das Hormon, als Nasenspray verabreicht, überhaupt das Gehirn erreicht. Außerdem wird die Wirkung von Oxytocin auf Vertrauen von komplexen und individuellen Faktoren beeinflusst. Sie hängt etwa davon ab, ob ein Proband Zurückweisung fürchtet oder eher Angst vor Bindungen hat.

Die Bedingungen im Labor werden der Wirklichkeit oft nicht gerecht

Am Beispiel Oxytocin wird augenfällig, was für eine ganze Reihe von Studien in der Psychologie gilt. Zwar scheinen sie direkt etwas über uns, unser Verhalten und Erleben, auszusagen. Doch die psychologische Forschung findet vielfach unter extrem künstlichen Bedingungen statt, die der Vielfalt der Wirklichkeit außerhalb des Labors nicht gerecht werden.

Freilich haben Psychologen gute Gründe für ihr Vorgehen. Die alltägliche Wirklichkeit steckt voller Unwägbarkeiten und lässt sich nur bedingt berechnen. Im Labor hingegen möchten Psychologen alle Versuchsbedingungen und Einflussfaktoren unter Kontrolle halten. Wollen sie etwa den Zusammenhang zwischen Oxytocin und Vertrauen prüfen, sollen sich zwei Gruppen von Versuchspersonen nach Möglichkeit nur in einem einzigen Kriterium unterscheiden: Die einen bekommen das Molekül mit dem schillernden Ruf, die anderen eben nicht.

„Letztlich muss man immer abwägen“, sagt der Sozial- und Wirtschaftspsychologe Stefan Schulz-Hardt von der Uni Göttingen. Wenn man Feldforschung nah an der Lebenswelt der Menschen betreibe, seien die Erkenntnisse eher ökologisch valide, will heißen, über das Labor hinaus auch für das Alltagsgeschehen gültig. „Man muss damit aber die strenge experimentelle Kontrolle preisgeben.“ In der experimentellen Laborforschung hingegen habe man die größtmögliche Kontrolle, sei aber relativ weit von der alltäglichen Welt der Menschen entfernt.

Nach Amokläufen ist ein Mitschuldiger schnell klar: Videospiele

Derlei Überlegungen sind kein Luxusproblem für Forscher in ihrem Elfenbeinturm. Psychologische Erkenntnisse haben einen immensen Einfluss. Das zeigen etwa die Fälle, bei denen anlässlich eines Amoklaufs in der medialen und politischen Diskussion ein Mitschuldiger schnell ausgemacht ist: Der Konsum von gewalttätigen Videospielen, die die Täter auf ihrem Rechner hatten. Schließlich gehen einige Wissenschaftler tatsächlich davon aus, dass brutale Games einen der Risikofaktoren für Aggressionen und Gewalttätigkeit darstellen.

Aus ethischen Gründen können Forscher Probanden natürlich nicht in eine Situation bringen, in der sie wie im realen Leben gewalttätig gegeneinander vorgehen. Der häufigste Aggressionstest ist ein Reaktionszeitspiel. Die Versuchsperson tritt dabei gegen einen vermeintlichen Gegner im Nebenraum an, der in Wirklichkeit gar nicht existiert.

Tatsächlich spielt die betreffende Person gegen ein Computerprogramm, das schon vor Spielbeginn Sieg und Niederlage festgelegt hat. Der Gewinner einer Runde kann dann den Verlierer mit einem unangenehmen Geräusch wie dem Kratzen von Nägeln über eine Schiefertafel oder einem lauten Fiepen bestrafen. Je lauter und länger der Proband den fiktiven Spielpartner bestraft, desto aggressiver scheint er zu sein. Und zeigt er nach dem Spielen eines gewalttätigen Games im anschließenden Reaktionszeitspiel mehr Aggressionen, scheint der Fall klar.

Es gibt auch Belege dafür, dass die Spiele friedlicher machen

„Aus meiner Sicht bleibt allerdings fraglich, ob das Reaktionszeitspiel ein gutes Maß für Aggressionen darstellt“, sagt der Psychologe Malte Elson von der Uni Bochum. Denn der Test habe wenig Ähnlichkeit mit Situationen aus dem Alltag. Das fange schon damit an, dass man im realen Leben das Opfer des eigenen aggressiven Verhaltens sieht. Außerdem seien die Geräusche im Labor zwar ganz schön unangenehm. „Aber es ist dennoch keine Form von Aggression, an die man denkt, wenn Forscher in Studien und in den Medien davon sprechen, dass Videospiele gewalttätig machen.“ Mit Kollegen hat Elson zudem mehr als 100 Studien zum Thema Aggression und Videospiele überprüft und festgestellt: „Man findet sowohl Belege dafür, dass die Gewalt in Computerspielen aggressiv macht, als auch dafür, dass sie keinen Effekt hat oder sogar eher friedlich macht – nur indem man verschiedene Methoden anwendet.“

Es kommt noch besser. Viele psychologische Studien zu menschlichem Verhalten entstehen gar nicht im Labor, sondern auf dem Papier. Die Probanden erhalten einen Fragebogen, versetzen sich in eine hypothetische Situation und schreiben die Antworten dann kraft ihrer Vorstellungskraft nieder. Doch derartige Ergebnisse können irreführend sein, wie ein Experiment des Göttinger Psychologen Stefan Schulz-Hardt zeigt. In einem der Versuche sitzt ein Proband in einem Raum an der Uni. Plötzlich steht ein zweiter, vermeintlicher Studienteilnehmer auf, greift sich einen im Zimmer liegenden USB-Stick und fragt: „Ist das Ihrer? Nicht? Dann ist das jetzt meiner!“

Zivilcourage hat hohe soziale Kosten

Auf dem Papier, in einer Befragung, wollte mehr als die Hälfte in solch einer Situation Zivilcourage zeigen und eingreifen. In der Realität tat das nur rund jeder siebte. „Wir vermuten, dass bei der Zivilcourage hohe soziale Kosten im Spiel sind“, sagt Schulz-Hardt. „Man muss mit anderen auf sehr unangenehme Art und Weise umgehen, entweder sich beispielsweise direkt mit dem Täter auseinandersetzen oder im Falle eines Verbrechens bei der Polizei oder vor Gericht aussagen.“ In der Theorie glauben Menschen, sie könnten dennoch Zivilcourage zeigen. In der Praxis stellt diese unangenehme soziale Situation aber offenbar eine zu große Hürde für sie dar.

Das wiegt umso schwerer, wenn bei einem Forschungsthema Befragungen die Regel und nicht die Ausnahme sind. „Die Erkenntnisse zur Zivilcourage beruhen hauptsächlich auf Befragungen und selten auf der Untersuchung von tatsächlichem Verhalten“, erläutert Schulz-Hardt. Aus den Ergebnissen habe man recht weitreichende Schlussfolgerungen gezogen. „Man hat behauptet, man könne die Zivilcourage durch bestimmte Trainings steigern, und hat den Erfolg dieser Maßnahmen dann daran festgemacht, dass die Teilnehmer hinterher öfter angeben als vorher, eingreifen zu wollen.“

Befragungen über das eigene Verhalten sind fehleranfällig

Befragungen haben Vorzüge. Mit geringem Aufwand können Forscher Daten anhäufen. Diese Methode eignet sich aber nicht für jedes Thema. Befragungen mit hypothetischen Situationen zielen auf die subjektiven Theorien von Menschen ab, wonach sie zu handeln glauben. „Das funktioniert nur in manchen Bereichen“, sagt Schulz-Hardt. Wenn man etwa wissen möchte, wie Probanden bestimmte Verhaltensweisen bei anderen beurteilen, dann könne man mit hypothetischen Situationen arbeiten. „Aber wenn ich wissen will, was der Proband selbst in der Situation tun würde, dann komme ich eben um eines nicht herum: echtes Verhalten zu untersuchen.“

Dienstag, 25. Oktober 2016

Wenn lügen zur Gewohnheit wird.

 
aus scinexx

Warum Lügen auf die "schiefe Bahn" führen 
Wiederholte Unehrlichkeit führt zu einer Art Abstumpfungs-Effekt 

Abstumpfungs-Effekt: Flunkern und Lügen kann tatsächlich auf die sprichwörtlich schiefe Bahn führen, wie ein Experiment enthüllt. Denn bei wiederholtem eigennützigem Lügen schwächt sich die Reaktion unseres Gefühlszentrums ab – wir stumpfen sozusagen ab. Bei den Probanden führte dies dazu, dass sie im Laufe des Versuchs immer stärker schummelten, wie die Forscher im Fachmagazin "Nature Neuroscience" berichten.

Lügen gilt als unmoralisch – eigentlich. Trotzdem hat fast jeder von uns in bestimmten Situationen schon einmal gelogen. Interessanterweise gibt es dabei durchaus Unterschiede zwischen den 
Geschlechtern und auch bestimmte Berufe und Tageszeiten scheinen die Unehrlichkeit zu fördern. 

Die Sache mit der "schiefen Bahn"

Und noch ein Phänomen zeigt sich: Wer Finanzbetrug und andere schwerwiegende Unehrlichkeiten begeht, der hat oft klein angefangen. "Die Täter beschreiben hinterher oft, wie sich kleinere Unehrlichkeiten mit der Zeit lawinenartig zu beträchtlich schwerwiegenderen Lügen aufschaukeln", berichten Neil Garrett vom University College London und seine Kollegen.
 

Aber warum? Das haben die Forscher nun in einem Experiment untersucht. Ihre Vermutung: Häufiges Lügen führt dazu, dass eine gefühlsmäßige Hemmschwelle abgebaut wird. "Wenn wir zum eigenen Vorteil lügen, erzeugt unsere Amygdala ein negatives Gefühl", erklären die Wissenschaftler. "Dieses Unwohlsein schränkt ein, wie weit wir mit unserer Unehrlichkeit gehen." Wiederholt sich das Lügen aber sehr oft, dann könnte diese Reaktion abstumpfen.
 
Schummeln im Hirnscanner

Um diese Hypothese zu testen, verführten Garrett und seine Kollegen ihre 80 Probanden zu ungestraftem Schummeln, während diese in einem Hirnscanner lagen. Die Testpersonen wurden gebeten, die Mengen an Münzen in einem Gefäß möglichst genau zu schätzen und diese Zahl per Computer an einen ihnen unbekannten Spielpartner zu senden.



Die Amygdala ist ein Zentrum für die Gefühlsverarbeitung im Gehirn
In der Basisvariante des Versuchs profitierten beide Partner, wenn die Schätzung möglichst genau ausfiel. Bei einer weiteren Variante jedoch erhielt der erste Teilnehmer mehr Belohnung, wenn er seinem Partner einen zu hohen Schätzwert übermittelte – er also die Menge der Münzen überschätzte. Was sich dabei jeweils in der Amygdala abspielte, dem Emotionszentrum des Gehirns, beobachteten die Wissenschaftler mittels funktioneller Magnetresonanztomografie (fMRT).
 
Die Lügen werden größer 

Dabei zeigte sich: Immer dann, wenn die Probanden zum eigenen Vorteil logen, wurde ihre Amygdala besonders aktiv. Diese unwillkürliche Reaktion fiel am Anfang des Experiments besonders stark aus – und schlug sich im Verhalten der Teilnehmer nieder. Sie schummelten bei ihren ersten Durchgängen nur wenig, indem sie ihre Schätzwerte leicht höher ansetzten.

 Im Laufe des Experiments jedoch änderte sich dies, wie die Forscher feststellten: Die Unehrlichkeit der Testpersonen nahm im Laufe der Zeit zu. Sie schummelten bei den Schätzwerten immer stärker, wenn ihnen dies Vorteile bei der Belohnung brachte. Gleichzeitig veränderte sich die Reaktion ihres Gefühlszentrums: Die Amygdala reagierte zunehmend schwächer auf eine eigennützige Lüge.

Eskalation durch Abstumpfung 

Nach Ansicht der Forscher spricht dies dafür, dass fortgesetztes Lügen unser Gefühlszentrum sozusagen abstumpfen lässt. Das instinktive Unwohlsein, das wir bei einer eigennützigen Lüge empfinden, nimmt im Laufe der Zeit ab. Das wiederum führt dazu, dass die Hemmungen selbst gegenüber größeren Schummeleien immer weiter schwinden.

"Je sich mehr diese Reaktion abschwächt, desto größer werden dann unsere Lügen", erklärt Seniorautor Tari Sharot vom University College London. "Das führt dann zur schiefen Bahn, wo anfangs kleine Akte der Unehrlichkeit zu immer schwerwiegenderen Lügen eskalieren." Allerdings: Dieser Effekt scheint nur dann zu greifen, wenn Eigennutz im Spiel ist. Hatten die Probanden keinen Vorteil vom Lügen, eskalierten ihre Schummeleien auch nicht. 

Diese Ergebnisse werfen die spannende Frage auf, ob diese moralisch-emotionale Abstumpfung auch in anderen Bereichen auftritt. "Wir haben in unserem Experiment nur die Unehrlichkeit getestet", sagt Garrett. "Aber das gleiche Prinzip könnte auch bei anderen Handlungen wie gewalttätigem oder riskantem Verhalten zu Eskalationen führen." (Nature Neuroscience, 2016; doi: 10.1038/nn.4426)

(University College London, 25.10.2016 - NPO) 


Nota. - "Das Schlimmste an der DDR war, dass sie die Kinder zur Lüge erzogen hat." Im November, De- zember 1989 gab es in Ostdeutschland kaum eine Diskussionsrunde oder Kundgebung, in der nicht früher oder später dieser Satz gefallen ist. Im Januar 1990 hörte ich dann zum ersten Mal im Fernsehen: "Es war nicht alles schlecht - bei weitem nicht!" Ausgesprochen offenbar von einer Lehrerin...

Man muss sich nicht wundern, dass die innere Wiedervereingung noch immer auf sich warten lässt. Da muss nicht erst eine Generation aussterben, sondern die von ihren Kindern auch.
JE


Freitag, 21. Oktober 2016

Keine toolmaking monkeys.


Die Kapuzineräffchen zersplittern die Steine, um die in den Bruchstellen freiwerdenden Mineralien aufzulecken. Ein Hammer, der als Briefbeschwerer benutzt wird, ist ein Briefbeschwerer. Ein Schneide- werkzeug, das nicht zum Schneiden benutzt wird, ist keins.



Mittwoch, 19. Oktober 2016

Noch ein toolmaking Animal?

Kapuzieräffchen bearbeitet Stein
aus nzz.ch,

Affen schmieden Steinwerkzeuge  
Kapuzineräffchen scheinen nicht zu merken, was sie in den Händen halten. Womöglich ging es den frühen Erfindern der ersten Schneidewerkzeuge genauso.

von Stephanie Lahrtz 

Brasilianische Kapuzineräffchen können etwas, das man bis anhin für eine rein menschliche Leistung hielt. Sie schlagen Steine aufeinander, wobei scharfkantige Fragmente entstehen, wie Wissenschafter im Nationalpark Serra da Capivara im Nordosten Brasiliens beobachteten. Diese scharfen Flocken ähnelten stark den Objekten, die man von Ausgrabungen kenne und die man als menschengemachte Steinwerkzeuge ansehe, schreiben die Forscher in der Zeitschrift «Nature».

Nach dem heutigen Kenntnisstand verwendeten Frühmenschen solche Schneidewerkzeuge zum Beispiel zum Abschaben von Knochen. Es stellt sich deshalb die Frage, ob die Geschichte der Werkzeugherstellung nun umgeschrieben werden muss. Womöglich hielt man manchmal von Affen geformte Steine für menschengemacht.

Wissen sie, was sie tun?

Der Paläoanthropologe Shannon McPherron vom Institut für evolutionäre Anthropologie in Leipzig glaubt das nicht. Denn jahrtausendealte, nicht auf den ersten Blick klassifizierbare Fundstücke stufe man nie einfach nur wegen ihres Aussehens als menschengemachte Werkzeuge ein. Auch andere Gegenstände am Fundort wie Knochenreste oder die Tatsache, dass man in der Region Fossilien von Frühmenschen gefunden habe, seien sehr dabei wichtig. Ein weiteres Kriterium sei, dass die Steinflocken bearbeitet und allem Anschein nach als Werkzeuge eingesetzt worden seien. 

In dieser Hinsicht waren die Frühmenschen vor mehreren zehntausend Jahren den heutigen Kapuzineräffchen offensichtlich überlegen. Denn die Forscher beobachteten nie, dass die Tiere die beim Schlagen entstandenen scharfkantigen Flocken tatsächlich als Werkzeuge verwendet hätten. Die Herstellung geschah offenbar unabsichtlich oder zumindest nicht zu dem Zweck, ein Schneidewerkzeug zu erhalten.

Die Leistung neu interpretieren

Gemäss McPherron könnte die neue Studie wichtige Hinweise auf die Anfänge der Herstellung von scharfkantigen Steinwerkzeugen liefern. Es sei gut vorstellbar, dass auch die Frühmenschen zuerst unabsichtlich solche Flocken durch das Aufeinanderschlagen von Steinen hervorgebracht hätten. Dann hätten einzelne Individuen irgendwann bemerkt, dass man diese gut als Klingen einsetzen könne, woraufhin sie die Herstellung verfeinert hätten.

Neu interpretiert werden muss daher eventuell die kognitive Leistung, die hinter der Herstellung scharfkantiger Steinwerkzeuge steht. Da dies offensichtlich auch dem Zufall geschuldet sein kann, ist nicht die blosse Existenz, sondern erst die gezielte Nutzung der Flocken die wirkliche Leistung. Und die wurde anscheinend bisher tatsächlich nur von Hominiden erbracht. Aber womöglich sind die brasilianischen Kapuzineräffchen gerade auf dem Weg dorthin.


Nota. -  Doch wenn sie nicht 'wissen, was sie tun' - warum tun sie es dann? Nur so zum Spiel, weil ihnen die Steinabschläge gefallen? Das wäre immerhin eine ästhetische Praxis, und das w#re auch schon ziem- lich menschlich.
JE


Donnerstag, 13. Oktober 2016

Eine zweite Kopernikanische Wende: die Dunkle Materie.


 
Dunkle Materie in einer Computersimulation der Entstehung des Universums nach dem Urknall.

Der Wiener Standard bringt heute ein Inteview mit dem deutsch-österreichischen Elementarphysiker Jochen Schieck. Er  ist seit 2013 Direktor des Wiener Instituts für Hochenergiephysik der Akademie der Wissenschaften, seit 2014 ist er Professor für Teilchenphysik am Atominstitut der Technischen Universität Wien

Das Intervier führte Tanja Traxler.
 
.... STANDARD: Als Sie 2013 Direktor wurden, brachten Sie ein weiteres Forschungsfeld ans Hephy: Dunkle Materie. Wie kam es dazu?

 Schieck: Meiner Ansicht nach wird die Trennung zwischen Teilchenphysik und Astrophysik immer geringer. Man kann das eine nicht mehr ohne das andere betrachten. Viele Hinweise zeigen, dass das Standardmodell der Teilchenphysik nicht alles sein kann. Gleichzeitig gibt es Beobachtungen in der Astrophysik wie zum Beispiel Dunkle Materie, bei denen offene Fragen bestehen. Meine Idee war, die Expertise des Hauses in Richtung Astroteilchenphysik zu erweitern. Wenn man in der Physik weiterkommen will, kann man nicht nur eng fokussierte Detailfragen betrachten.

STANDARD: Wie gehen Sie vor, um Dunkle Materie zu erforschen?

Schieck: Wir haben uns dazu einer Kollaboration angeschlossen – der CRESST-Kollaboration. Das Experiment wird im Gran-Sasso-Untergrundlabor in Italien durchgeführt. Es basiert auf den Annahmen, dass Dunkle Materie existiert und diese durch ein neues Teilchen beschrieben werden kann. Dazu gibt es viele Theorien, und der Bereich des möglichen Gewichts dieses neuen Teilchens beträgt mehrere Größenordnungen. Daher kann man nicht mit einem Experiment die Frage lösen, was Dunkle Materie ist, man muss sie aus verschiedenen Blickwinkeln betrachten. Mit dem CRESST-Experiment hat man in einem bestimmten Massenbereich die beste Möglichkeit, nach Dunkler Materie zu suchen. 

STANDARD: Was ist die Aufgabe des Hephy dabei? 

 Schieck: Wir simulieren das Experiment. Es gibt viele Untergrundprozesse, die wir verstehen müssen, um das Signal, nach dem wir suchen, identifizieren zu können. Außerdem bringen wir durch die Cern-Kooperation Erfahrung mit, wie Software für Großexperimente konzipiert werden kann. 

...
STANDARD: Sie sind nicht nur Direktor des Hephy, sondern haben seit 2014 auch eine Professur an der Technischen Universität Wien – wie gehen Sie mit dieser Doppelfunktion um? 

Schieck: Ich habe die Erfahrung gemacht, dass ein Forschungslabor allein viel weniger effektiv ist, als wenn man eine direkte Anbindung zu einer Universität und zu Studierenden hat. Es ist klar, dass mir Zeit bei der Forschung abgeht, wenn ich Vorlesungen halte, aber ich sehe das nicht als Verlust – im Gegenteil: Mir ist der Kontakt zu Studierenden extrem wichtig. Man muss sie früh im Studium abholen und für ein Feld begeistern, und das funktioniert nur über den persönlichen Kontakt.

STANDARD: Es scheint Ihnen ein Anliegen zu sein, nicht nur Studierenden wissenschaftliche Erkenntnisse zu vermitteln, sondern auch einer breiteren Öffentlichkeit – warum? 

Schieck: Darauf könnte ich Ihnen viele Antworten geben. Wenn ich vor fachfremdem Publikum von meiner Arbeit erzähle, sehe ich immer, wie begeistert die Leute sind – das will ich einfach teilen. Wenn Wissenschafter anfangen, nicht mehr nach außen zu kommunizieren, und nicht mehr spüren, was die eigene Motivation ist, wenn man sich als Wissenschafter von der Gesellschaft entkoppelt, dann ist das der Anfang vom Ende für die Wissenschaft. 

STANDARD: Aber ist es nicht schwierig, die komplexen Fragen, an denen Sie arbeiten, herunterzubrechen? 

Schieck: Ich glaube gar nicht, dass es so komplexe Fragen sind, sie sind relativ einfach. Zum Beispiel: Wenn beim Urknall genauso viel Materie wie Antimaterie produziert wurde, warum gibt es jetzt plötzlich nur noch Materie? Das ist eine einfache Frage, jeder kann das verstehen. Kompliziert sind oft nur die Methoden, mit denen wir versuchen, diese Fragen zu beantworten. Auch ich selbst lerne dazu, wenn ich versuche, die Fragen, an denen ich arbeite, einfach zu formulieren. Der nächste Schritt ist, daraus Konsequenzen abzuleiten, zum Beispiel: Was bedeutet es für unser Selbstverständnis, wenn es Dunkle Materie gibt, wenn es also viel mehr gibt als nur die Masse, die wir sehen? 

STANDARD: Wie würden Sie auf diese Frage antworten?

Schieck: Darauf würde ich philosophisch antworten: Ich sehe das wie meine Kollegen, die sagen, dass Dunkle Materie so etwas wie eine zweite kopernikanische Wende ist. Die Erkenntnis, dass sich die Sonne nicht um die Erde dreht, sondern umgekehrt, hatte zur Folge, dass sich der Mensch weniger wichtig nimmt. Durch Dunkle Materie erkennen wir erneut, dass wir nicht im Zentrum stehen, sondern nur ein kleiner Teil eines großen Ganzen sind. (Tanja Traxler, 13.10.2016)   

Jochen Schieck (45) ist seit 2013 Direktor des Wiener Instituts für Hochenergiephysik der Akademie der Wissenschaften, seit 2014 ist er Professor für Teilchenphysik am Atominstitut der Technischen Universität Wien

Dienstag, 11. Oktober 2016

Von Wolf Singer nichts Neues.

aus Der Standard, Wien, 22. September 2016, 15:00 

"Das Gehirn übersteigt unser Vorstellungsvermögen"
Wir haben keinen freien Willen, sind aber Entscheidungskonflikten ausgesetzt, sagt Wolf Singer

Interview
 
Wien – Als bekanntester Hirnforscher Deutschlands hat Wolf Singer immer wieder gesellschaftliche Debatten angeregt, deren Relevanz weit über sein Fach hinausreicht: Seine Studien zeigten, dass es auf neuronaler Ebene keine Indizien für freie Willensentscheidungen gibt. Vielmehr scheint das Gehirn ein selbstorganisiertes System zu sein, von dem Entscheidungen nach einem vorgegebenen, wenn auch hochkomplexen, Regelwerk getroffen werden. Die Einsicht, dass es keinen freien Willen gibt, hat freilich nicht nur Auswirkungen auf unser Selbstbild, sondern ist auch von gesellschaftlicher Relevanz. Der ehemalige Direktor der Abteilung für Neurophysiologie am Max-Planck-Institut für Hirnforschung in Frankfurt am Main ist regelmäßig Gast in Wien: Zuletzt hielt er einen Vortrag am Institut für Molekulare Pathologie (IMP), davor war er auf Einladung der Österreichischen Akademie der Wissenschaften (ÖAW) in Wien.

STANDARD: Ihrem Befund nach vollzieht die Gehirnforschung derzeit einen Paradigmenwechsel – worin besteht dieser?

Singer: Wir begreifen immer mehr, dass das Gehirn ein sich selbst organisierendes komplexes System ist. Eine hochgradig nichtlineare Dynamik bereitet all unsere mentalen Prozesse vor – einschließlich der Inhalte, die uns gar nicht ins Bewusstsein kommen. Wir können nicht davon ausgehen, dass es irgendwo im Gehirn eine federführende Instanz gibt, die für uns die Zukunft plant oder Entscheidungen fällt, vielmehr organisieren sich diese Prozesse im Gehirn selbst. Auf wundersame Weise finden sie zu koordiniertem Verhalten. Das scheint der Weisheit letzter Schluss zu sein – das ist etwas, woran man sich erst einmal gewöhnen muss.


STANDARD: Wenn es so etwas wie den freien Willen nicht gibt, wie kommt es dann dazu, dass wir uns immer wieder in Situationen wiederfinden, in denen wir uns vor dem Dilemma der Qual der Wahl sehen?

Singer: Wir werden natürlich ständig Konflikten ausgesetzt und müssen versuchen, unter Anwendung der Vernunft eine Lösung zu finden. Wir können uns aber auch auf unsere unbewussten Vorhersagen verlassen – die sind dann besonders geeignet, uns aus Konfliktsituationen herauszumanövrieren, wenn viele Variablen gleichzeitig miteinander verrechnet werden müssen und viel Unsicherheit herrscht. Oder wenn es schnell gehen muss, dann sind diese Entscheidungsprozesse wirksamer. Diese beiden Entscheidungsmöglichkeiten koexistieren und müssen nicht immer zum gleichen Schluss kommen.

STANDARD: Wenn wir uns also nicht frei entscheiden können – ist es dann überhaupt noch sinnvoll, von Schuld zu sprechen?

Singer: Darüber führe ich seit Jahren eine intensive Diskussion mit Rechtswissenschaftern. Ich denke, dass wir uns inzwischen einig sind, dass wir vom moralischen Schuldbegriff im Bereich der Rechtsprechung absehen sollten. Für die Juristen gilt es festzulegen, ob jemand an etwas, das passiert ist, schuld ist. Das ist der Schuldbegriff, auf den wir uns nun konzentrieren. Dann wird festgestellt, wie stark die Regelverletzung und wie schlimm die Tatfolgen waren. Daraus ergeben sich die Sanktionen, die verhängt werden müssen, damit nichtnormgerechtes Verhalten möglichst eingeschränkt wird. Etwas anderes macht das Rechtssystem ja nicht: Es setzt Normen und sorgt dafür, dass diese eingehalten werden. Für die Strafrichter geht es weniger darum, die subjektive Schuld zu messen, auch wenn das oft so kommuniziert wird.

STANDARD: Doch dann gibt es ja auch den Zufall, der einem strengen Determinismus entgegensteht. Ergibt sich durch den Zufall nicht die Möglichkeit für freie Entscheidungen, die nicht vorbestimmt sind?

Singer: Nein, ich denke nicht. Denn wenn das, was wir tun, von Zufälligkeiten abhängig ist – dann sind wir dem Zufall ausgeliefert und wieder nicht frei. Wie wir wissen, verhält sich das Gehirn sehr regelhaft, sonst würden wir nicht überleben können. Wir laufen verlässlich vor dem Tiger davon, wenn die Indizien dafür groß sind, dass wir in einer gefährlichen Situation sind. Im Augenblick einer bestimmten Entscheidung gibt es eine bestimmte Lösung für einen Konflikt. Es wäre also keine andere Entscheidung in dem Moment möglich gewesen, denn sonst wäre sie nämlich gefallen. Das bedeutet aber nicht, dass man voraussagen kann, wie sich das gleiche Gehirn eine Woche später unter ganz ähnlichen Voraussetzungen entscheiden würde, denn das Gehirn ist ein nichtlineares System, deswegen sind zukünftige Entscheidungen prinzipiell nicht festlegbar.

STANDARD: Sie erforschen seit Jahrzehnten das Gehirn – erscheint es Ihnen immer noch rätselhaft?

Singer: Je mehr ich mich damit befasse und je älter ich werde, umso größer ist mein Staunen über das, was da möglich ist. Dass die Evolution ein so komplexes System mit Milliarden von Neuronen, die alle miteinander gekoppelt sind, so stabil hinbekommen hat – das grenzt an ein Wunder.

STANDARD: Werden wir je alle Prozesse des menschlichen Gehirns verstehen können, oder übersteigt das Gehirn unseren Verstand?

Singer: Es übersteigt mit Sicherheit unser Vorstellungsvermögen, weil wir uns komplexe nichtlineare Systeme nicht gut vorstellen können. Wir werden zu Beschreibungen kommen, die immer zutreffender sind, aber die zunehmend unanschaulich werden. Das ist das Problem, ähnlich wie in der modernen Physik. Die große Schwierigkeit wird bleiben, die Phasenübergänge von materiellen Wechselwirkungen und psychischen Phänomenen zu verstehen. Dieses Phänomen setzt sich noch auf einer weiteren Ebene fort: Das Gehirn ist ein Netzwerk von gekoppelten Neuronen, das psychische Phänomene erzeugt und Entscheidungen trifft. Und die Gesellschaft ist ein Netzwerk von gekoppelten Personen mit Gehirnen. Um das zu verstehen, reicht die Neurobiologie nicht aus, da braucht es Soziologie, Soziopsychologie und Anthropologie. Deswegen würde ich hoffen, dass wir doch irgendwann einmal die Dichotomie zwischen Human- und Naturwissenschaften ein bisschen besser überbrücken lernen.

STANDARD: Demnächst erscheint Ihr neues Buch "Jenseits des Selbst: Dialoge zwischen einem Hirnforscher und einem buddhistischen Mönch" – was fasziniert Sie an östlicher Spiritualität?

Singer: Meine Begegnung damit war, wie die meisten im Leben, zufällig. Und ich habe dann gemerkt, das ist interessant, da gibt es eine Philosophie, eine Weltanschauung, ein Gefühl des In-der-Welt-Seins, das sich deutlich von unserem unterscheidet. Denker in dieser Tradition haben ihre Einsichten offenbar durch kontemplative Praktiken, durch ein In-sich-Hineinhören. Mich hat einfach interessiert: Was wissen die denn eigentlich? Und wie passt das, was sie erforschen, zu dem, was unsere naturwissenschaftliche, westliche Welterforschungsstrategie zutage gefördert hat? Ich wollte wissen, wie sich diese beiden Welten zueinander verhalten. 

Wolf Singer (geboren 1943 in München) war Direktor der Abteilung für Neurophysiologie am Max-Planck-Institut für Hirnforschung in Frankfurt am Main. Seit seiner Emeritierung 2011 arbeitet der Hirnforscher als Senior Fellow an dem von ihm gegründeten Ernst-Strüngmann-Institut für Neurowissenschaften in Kooperation mit der Max-Planck-Gesellschaft in Frankfurt am Main. Sein Forschungsinteresse gilt den neuronalen Prozessen bei höheren kognitiven Vorgängen.


Nota. - Wenn ich mich einmal entschlossen habe, die Dinge des Lebens naturwissenschaftlich aufzufassen, habe ich ipso facto beschlossen, mein Denken dem Kausalitätsprinzip zu unterwerfen: Beides bedeutet dasselbe. Und dann ist Freiheit des Willens nicht mehr denkbar.

Man wird Wolf Singer entgegenhalten: Die Wirklichkeit geht nicht in der Naturwissenschaft auf. Er wird sagen: Mit Buddhismus beschäftige ich mich ja auch. Das sei ihm unbenommen, doch das ist seine Privatsache. Mit Wissenschaft hat das nichts zu tun. Als Wissenschaftler will er Naturwissenschaftler bleiben. Das darf er auch. Aber dann soll er sich nicht als Wissenschaftler aufs
Terrain anderer Wissenschaften begeben. Denn dazu müsste er sich auf deren Prämissen einlassen.
JE 


 

Sonntag, 9. Oktober 2016

Kann sich das Gehirn selbstbefriedigen?


health insurances
aus derStandard.at, 22. September 2016, 14:12


Selbstgesteuertes Lernen: 
Unser Gehirn kann sich selbst belohnen
Fehlendes Feedback von außen wird vom Gehirn durch inneres Signal zu simulieren

Magdeburg – Kommt von außen kein entsprechendes Feedback, ist unser Gehirn auch in der Lage, die fehlende äußere Belohnung durch ein inneres Signal zu simulieren und so das Erlernen neuer Informationen selbstgesteuert zu verstärken. Zu diesem Ergebnis kommt ein internationales Team von Psychologen und Neurowissenschaftern. Insgesamt zeigten die Ergebnisse der im Fachjournal "eLife" präsentierten Studie, dass selbstgesteuertes Lernen selbstbelohnend sein kann, also die Belohnungsgedächtnis- schleife des Gehirns "anschaltet".

Einige Frage bleiben allerdings immer noch offen. So ist beispielsweise unklar, wann selbstgesteuertes Lernen eine effektivere Lernmethode darstellt als Strategien, die auf externes Feedback und Belohnung bauen, bzw. unter welchen Umständen externe und interne Strategien optimal ineinandergreifen. Das könnte künftig zu wesentlichen Verbesserungen des Aufbaus von pädagogischen Programmen führen, etwa beim Lernen von Fremdsprachen oder auch bei der Rehabilitation von Sprachfähigkeiten nach einem Schlaganfall.

"Menschen und Tiere lernen, wenn sie für ihr Verhalten belohnt werden und auch dann, wenn sie eine Belohnung lediglich erwarten", so Tömme Noesselt vom Institut für Psychologie der Otto-von-Guericke-Universität Magdeburg und Senior-Autor der Studie. "Dabei muss eine Belohnung nicht unbedingt Geld oder Essen sein, sondern umfasst auch Lob und soziale Interaktionen. Im Alltag eignen wir uns jedoch oft neues Wissen an, ohne belohnt zu werden. Daher haben wir uns die Frage gestellt, wie unbelohntes Lernen im Gehirn zu stabilen Gedächtnisinhalten führt."

Neues Wissen als Belohnung

Für die Studie wurden 36 Versuchspersonen in einem Hirnscanner untersucht. Die Probanden lasen Satzpaare, die neue Worte enthielten und versuchten, die (übereinstimmende) Bedeutung neuer Worte zu verstehen. Wenn sie erfolgreich eine neue Wortbedeutung erschlossen, waren Gedächtnisareale wie der Hippocampus zusammen mit Belohnungsarealen wie dem so genannten Nucleus accumbens aktiviert. Je stärker diese Areale kooperierten, umso besser war die individuelle Lernleistung. Offenbar aktivierte das neue Wissen um die Bedeutung eines Wortes das Belohnungsnetzwerk. Das führte zur Ausschüttung des Neurotransmitters Dopamin, der wiederum die Bildung von Gedächtnisspuren verstärkt.

Um nun herauszufinden, inwieweit das Lernen neuer Wortbedeutungen mit der Aktivierung der Belohnungsareale zusammenhängt, wurden die Versuchspersonen während des Lernens gefragt, wie angenehm sie jedes neue Wort, also jeden Lernzuwachs empfanden. Dazu wurde die Hautleitfähigkeit gemessen. Größere Freude und damit eine Veränderung des Hautleitwiderstands wurde während des Einprägens nur für die Worte beobachtet, die anschließend auch noch nach einer Woche im Gedächtnis blieben. (red)


Studie im Volltext
eLife: "Intrinsic monitoring of learning success facilitates memory encoding via the activation of the SN/VTA-Hippocampal loop."


Nota. - Es ist jedesmal wieder entwaffnend, wie arglos empirische Wissenschaftler mit ihren Ideologe- men um sich werfen. Sie beobachten: Es kommt keine Belohnung (nämlich von außern). Dass irgend- wer irgendwas umsonst tut, und sei es ein Gehirn für seinen - na, sagen wir: Träger, das können sie sich eben mal nicht vorstellen, und da sagen sie: Das Hirn denkt sich seine Belohnung. Bei Kant gab es die Formulierung, 'was ohne Interesse gefällt', und ein jüngerer Kollege echote: 'eine Sache um ihrer selbst willen tun'. Aber solchen idealistischen Flausen geht ein nüchterner Wissenschaftler nicht auf den Leim, und wenn er einen Hormonfluss beobachtet, sagt er: Das Gehirn übt Selbstbefriedigung. In naturwissenschaftlicher Sicht ist das präziser. Aber die naturwissenschaftliche Sicht ist beschränkt.
JE


 

Donnerstag, 6. Oktober 2016

Können Affen eine Theory Of Mind entwickeln?

aus nzz.ch,6.10.2016, 20:00 Uhr
 
Menschenaffen können «Gedanken lesen» 
Primaten erkennen in einem Experiment, wie sich ein Mensch täuschen lässt. Demnach beherrschen sie komplexere Formen der «theory of mind».

von Lena Stallmach 

Menschen können sich in andere hineinversetzen und sich überlegen, was jemand als Nächstes tun könnte. Diese Fähigkeit des «Gedankenlesens» wird «theory of mind» genannt. Auch Menschenaffen sind zu einem gewissen Grad dazu fähig. Laut Studien verstehen sie erstaunlich gut, was ein Artgenosse will oder wissen kann.

Doch wenn es darum geht, eine falsche Annahme («false belief») bei einem Gegenüber vorherzusagen, versagten Menschenaffen bis anhin immer. Nun zeigt eine Studie in der Zeitschrift «Science» erstmals, dass sie unter bestimmten Umständen doch dazu fähig sind. Dabei erkannten sie, wie sich ein Mensch täuschen liess.

King Kong trickst Beobachter aus

Die Forscher zeigten den Menschenaffen einen Film, in dem ein Mensch dabei zuschaut, wie ein als King Kong verkleideter Mann etwas in einem Heuhaufen versteckt. Dann gab es zwei Szenarios. Entweder King Kong versteckte das Objekt vor den Augen des Beobachters in einem zweiten Heuhaufen oder erst, nachdem dieser hinter einer Tür verschwunden war. In beiden Fällen holte King Kong das Objekt wieder heraus und verschwand damit von der Bildfläche, bevor der Beobachter zurückkam.


Um die Gedanken von Schimpansen und Orang-Utans zu lesen, zeichneten die Forscher deren Augenbewegungen mit einem Eye-Tracker nach, wie man es auch bei der Erforschung von Kleinkindern macht. In dem Szenario, in dem der Mensch nicht dabei war, als das Objekt woanders versteckt wurde, zeigte die Blickrichtung von 17 der 22 untersuchten Menschenaffen auf den ersten Heuhaufen. Demnach erwarteten sie, dass der Mensch im ersten Versteck nachschauen würde, obwohl sie wussten, dass es nicht mehr dort war.

Das Wissen des anderen

Laut den Forschern haben die Tiere damit die erste Hürde zu einer komplexeren «theory of mind» genommen. Es sei das erste Mal, dass ein nichtmenschliches Tier eine Version des «false belief»-Tests bestanden habe. Damit sei diese Fähigkeit kein alleiniges Wesensmerkmal der Menschen, sagt Krupenye laut einer Mitteilung des Max-Planck-Instituts für evolutionäre Anthropologie, Leipzig.

Die Fähigkeit des «false belief» gilt als eine höhere Form der «theory of mind», weil dabei der Wissensstand des Gegenübers, der sich nicht mit dem eigenen deckt, berücksichtigt werden muss.

Alternative Erklärung möglich

Die Forscher geben allerdings zu bedenken, dass es eine mögliche abweichende Erklärung für die Reaktion der Affen geben könnte. So könnten die Tiere glauben, der Beobachter im Film suche grundsätzlich nach Dingen, selbst wenn dieser wisse, dass sie nicht mehr da seien.


Mittwoch, 5. Oktober 2016

Ist uns die Sprachfähigkeit eingeboren oder haben wir sie uns selber erworben?


 

Im heutigen Tagesspiegel gibt Hartmut Weweretzer einen kurzen Abriss des wissenschaftlichen Streits darüber, ob uns das Vermögen zur Sprache genetisch eingeboren ist, oder lediglich eine Leistung unserer Kulturgeschichte; Anlass ist ein neues Buch des amerikanihen Schriftstellers Tom Wolfe, das er kurz und knapp verreißt. Er fahrt fort:

"Der moderne Mensch entwickelte sich vor 150 000 bis 200 000 Jahren in Ostafrika, die Sprache folgte vor 80 000 bis 150 000 Jahren, schätzt Gerhard Roth. Entscheidend war die menschliche Anatomie. Der aufrechte Gang verlagerte den Kehlkopf nach unten und war so maßgeblich am Ausprägen der Sprechfähigkeit beteiligt, etwa der Möglichkeit, Vokale zu artikulieren. Im Gehirn rückte – im Vergleich zu den nächsten Verwandten des Menschen – Sprache und Sprechen „nach oben“, in die hochentwickelte Hirnrinde. Hier ist die Sprache fest in einer Reihe von Hirnzentren und Verbindungsrouten verankert. So fest, dass ein Neurologe von der gestörten Sprache eines Schlaganfall-Patienten ableiten kann, welches Hirnareal ausgefallen ist. Und schließlich haben in den letzten Jahren erste Funde von Sprach- oder Grammatik-Genen wie FoxP2 von sich reden gemacht.

Es könnte gut sein, dass das alles die nötigen Ingredienzen für den menschlichen Sprachinstinkt sind, für eine tiefe biologische Verwurzelung der Sprache à la Pinker. und Chomsky. Es kann aber auch sein, dass das Gehirn wie ein Schweizer Armeemesser funktioniert. Ausgestattet mit einigen exzellenten intellektuellen Werkzeugen ist es in der Lage, sich eine Sprache zurechtzuschneidern und sie sich anzueignen, bei jedem Menschen aufs Neue. Das ist Tomasellos Annahme. Wer hat recht? Am Ende werden die Tatsachen den Streit entscheiden."

Was immer Sprache sonst noch ist, sie ist auch ein artikuliertes System von Symbolen. Ein Symbol symbolisiert etwas, sonst ist es keins. Was ist dieses Etwas? Es ist die Bedeutung des Symbols. Ein Symbol gibt es nicht ohne Bedeutung. Aber gibt es Bedeutungen ohne Symbole? Aber ja, so ist es in unserm alltäglichen Denken. Bedeutungen scheinen auf im Gedankenstrom, verbinden sich mit den darauf folgenden zu neuen, komplexeren Bedeutungen, und so fort. Wenn ich nicht absichtlich darauf merke, ziehen sie an mir vorbei bis an den Punkt, 'auf den ich hinauswollte': das Denkergebnis. Wenn ich das erfassen und behalten will, dann allerdings brauche ich ein Symbol. Erst das Symbol macht eine Bedeutung fungibel, und das bedeutet letzten Endes nichts weiter als: bedeutend, denn eine Bedeutung, mit der sich nichts anfangen lässt, ist keine.

Historisch wird es sich so zugetragen haben, dass sich Bedeutungen und ihre Wortsymbole in einem systemischen Prozess miteinander und auseinander entwickelt haben - das Ganze hat schließlich eine Vorgeschichte von einigen Millionen Jahren. Da ist die Frage, ob das Ei früher da war als die Henne, sinnlos. Aber genetisch ist die Antwort eine ganz andere: Sie mögen sich gleichzeitig und zusammen entwickelt habe; aber die Wortsymbole um der Bedeutungen willen, und nicht umgekehrt. 
JE