Montag, 11. Dezember 2017

Das Wissen kam aus dem Osten - im Mittelalter.


Illustration aus dem Kräuterbuch des Dioskurides
aus Tagesspiegel.de, 11. 12. 2017 

Ausstellung im Martin-Gropius-Bau
Juden, Christen und Muslime im Dialog der Wissenschaften
Jahrhundertelang tauschten Forscher über die Grenzen des Islam, Christen- und Judentums hinweg ihr Wissen aus.
 

Solch ein „Haus der Weisheit“ (Bait al-Hikma), das der Kalif al-Mamun, Sohn des legendären Kalifen Harun al-Rashid 825 in Bagdad gründete, wünschte man sich heute in diesen Tagen der Polarisierung und des Populismus. Al-Mamun gründete sein Forschungszentrum mit einer Bibliothek, um zum ersten Mal in der Geschichte systematisch fremdsprachliche Texte zu übersetzen. Die Werke des griechischen Mediziners Galenos und des Hippokrates wurden hier ins Arabische übertragen. Persische, aramäische, syrische, indische und lateinische Werke fanden so ihren Weg ins Arabische und gelangten dann in Folge der arabischen Expansion ab dem 8. Jahrhundert nach Europa.

Keine Scham, die Wahrheit anzuerkennen

Fast tausend Jahre lang beeinflussten sich christliche, jüdische und arabische Gelehrte, indem sie Texte übersetzten und weiter entwickelten. „Wir sollten keine Scham empfinden, die Wahrheit anzuerkennen und sie zu verarbeiten, von welcher Quelle sie auch kommt, selbst wenn sie zu uns von früheren Geschlechtern und fremden Völkern gebracht wird“, schrieb der arabische Philosoph, Mathematiker und Astronom al-Kindi im 9. Jahrhundert in Bagdad, der auch Werke von Aristoteles, Platon und Ptolemaeus ins Arabische übersetzen ließ.

Das Zitat von al-Kindi steht als Motto am Anfang der Ausstellung „Juden, Christen und Muslime. Im Dialog der Wissenschaften 500 – 1500“, die die Österreichische Nationalbibliothek im Martin-Gropius-Bau zeigt. Sie stellt das Zusammenwirken der vier großen Schriftkulturen – der hebräischen, griechischen, lateinischen und arabischen – und ihre Bedeutung für die Entwicklung der Wissenschaften in Europa und im Nahen Osten dar. Dabei konzentriert sich die Schau auf die Bereiche Medizin und Astronomie, in denen der Wissenstransfer besonders anschaulich zu belegen ist. Interessant ist der Prolog der Ausstellung, in dem die Charakteristika der vier Schriftkulturen erläutert werden.

Medizinisches Wissen gelangte durch Übersetzer in Toledo nach Europa

Die Basis des medizinischen Wissens der Antike legten Hippokrates von Kos (460-370 v. Chr.) sowie Galenos (129-216 n. Chr.), Philosoph und Arzt aus Pergamon. Die Araber übersetzten ihre grundlegende Werke und mit der Eroberung Spaniens gelangte dieses Wissen etwa durch die Übersetzerschule von Toledo nach Europa.

Ein prächtiges Beispiel für illustrierte arabische Handschriften ist das Theriakbuch des Yaya an-Nawi (= Johannes Philoponos) aus dem 13. Jahrhundert aus Mosul. Darin wird dargestellt, wie man damals mit Hilfe von Puppen aus ausgestopften enthaarten Schafhäuten mit Glasaugen Vipern anlockte, damit die ihr Gift verspritzten. Danach konnten sie leichter aufgespießt werden. Die Vipern wurden zur Herstellung des Theriak benutzt, einem im Mittelalter verbreiteten Gegengift zu Schlangenbissen. Eine weitere Seite zeigt Galenos mit einem Gehilfen, wie beide den Theriak herstellen.

Chirurgische Instrumente aus dem 13. und 17. Jahrhundert

Im arabischen Spanien wurde die griechische Medizin eifrig nachgeahmt. Ein schönes Beispiel hierfür sind Manuskripte des Abu l-Qasim az-Zahrawi (Abulcasis) (936-1009/13), der als Arzt in Córdoba wirkte und in einem 30-bändigen Werk vor allem antike Autoren und seine eigenen Forschungen zusammengefasst hat. Berühmt ist der Band „Chirurgia“, der im 12. Jahrhundert von Gerhard von Cremona ins Lateinische übersetzt wurde. Andere Teile des Sammelwerkes gelangten über hebräische Übersetzungen später ins Lateinische.

Sehr gut nachvollziehen lässt sich der Wissenstransfer an der Darstellung chirurgischer Instrumente. Sie sind nicht nur in prächtig ausgeschmückten arabischen und lateinischen Handschriften aus dem 13. und 17. Jahrhundert abgebildet, sondern auch als Leihgabe aus der Antikensammlung der Staatlichen Museen zu Berlin und der Medizinischen Sammlung der Charité zu sehen.

Astronomisches Wissen war begehrt: für die Bestimmung von Feiertagen

Der zweite große Themenbereich der Ausstellung ist der Astronomie und Astrologie gewidmet. Dieses Wissen, das auf Erkenntnissen des Alten Orients beruhte und über das Arabische nach Europa kam, war für alle drei Kulturkreise von Bedeutung, hatte man doch ein Interesse daran, etwa den Beginn christlicher, jüdischer oder muslimischer Feiertage genau zu bestimmen.

Die Ausstellung, mit der sich Direktor Gereon Sievernich vom Martin-Gropius-Bau verabschiedet, verlangt vom Besucher Geduld und Konzentration, aber sie entschädigt ihn mit überraschenden Erkenntnissen – über einen fruchtbaren Dialog, der über 1000 Jahre angehalten hat und die Basis unserer heutigen wissenschaftlichen Erkenntnisse darstellt.

Die Ausstellung läuft bis 4. März 2018 im Martin-Gropius-Bau


Nota. - Die Übertragung des Wissens verlief von Ost nach West, von Austausch kann keine Rede sein. Die Überlegenheit der frühen islamischen Kultur über die des Westens erklärt sich aus der Vermittlerrolle des byzantinischen Reiches im Osten - zu einer Zeit, als im Westen das Erbe der Antike durch die Völkerwande- rung radikal abgeschnitten wurde. Als einzige Verbindung blieb die Römische Kirche, doch die war lange Zeit an weltlichem Wissen nicht interessiert.

Ein tiefes Rätsel bleibt der schlagartige Niedergang der islamischen Kultur seit den Kreuzzügen. Dass die Kreuzzüge selber schuld wären, ist in keiner Weise einsichtig zu machen; vielmehr sind sie eher eine Folge und ein Indiz des Niedergangs. In Spanien dauerte die islamische Blüte fast dreihundert Jahre länger. Doch statt dies Mysterium zu beleuchten, veranstaltet die Österreichische Nationalbibliothek eine Ausstellung über den gut erforschten, längst vergangenen Kulturexport der islamischen Frühzeit. Ich irre mich wohl nicht, wenn ich dafür politisch korrekte Motive vermute.
JE  


Donnerstag, 7. Dezember 2017

Gibt es vielleich gar keine Dunkle Materie?

aus derStandard.at, 22. November 2017, 18:08

Forscher zweifelt an Existenz von Dunkler Materie und Dunkler Energie
Andre Maeder legt der Fachwelt ein Konzept zur Diskussion vor, das angeblich ohne die beiden Faktoren auskommt

Genf – Gemäß dem Standardmodell der Kosmologie hat sämtliche sichtbare Materie nur einen Anteil von knapp fünf Prozent am gesamten Masse- beziehungsweise Energiegehalt des Universums. 23 Prozent entfallen auf die Dunkle Materie, 72 Prozent auf die Dunkle Energie – zwei Faktoren, für die es nach wie vor keinerlei direkten Nachweis gibt. 

Die beiden unbekannten Größen

So unbefriedigend es auch sein mag, wenn eine Gleichung in einem derartigen Ausmaß mit unbekannten Faktoren arbeitet – eine bessere Erklärung für einige Phänomene im Kosmos hat man bisher nicht gefunden. So dehnt sich das Universum nicht einfach nur aus, diese Expansion beschleunigt sich auch noch. Es muss also etwas geben, das der Gravitation entgegenwirkt – das wäre die Dunkle Energie.

Dunkle Materie wiederum soll jene "fehlende" Materie sein, die unter anderem die beobachtbare Rotation von Galaxien erklärt. In ihren Außenregionen rotieren Galaxien nämlich schneller, als aufgrund der sichtbaren Materie möglich sein sollte. 

Rechnung ohne Dunkelfaktoren

Nun tritt Andre Maeder von der Universität Genf auf den Plan und stellt die Existenz der beiden Dunkelfaktoren infrage. Der Schweizer Forscher erklärte, dass er das bisherige Modell um einen missachteten Faktor ergänzt habe, nämlich das Konzept der sogenannten Skaleninvarianz. Dieses läuft auf einen Zustand der "Selbstähnlichkeit" eines Objekts hinaus – das heißt, dass dessen Eigenschaften bei Betrachtung in unterschiedlichen Größenordnungen dieselben bleiben. Das Objekt wäre in diesem Fall der Leerraum im Universum.

Die mathematische Beschreibung des Universums beruht auf Einsteins allgemeiner Relativitätstheorie, Newtons Gesetz der universellen Gravitation und der Quantenmechanik. Dem fügt Maeder nun die Skaleninvarianz des leeren Raums hinzu, dessen Eigenschaften sich dem Konzept zufolge mit Ausdehnung oder Kontraktion nicht verändern.

Maeder sagt, er habe das Standardmodell unter Berücksichtigung der Skaleninvarianz des Leerraums geändert – und die bisherigen Probleme seien verschwunden. Die beschleunigte Ausdehnung des Universums lasse sich so auch ohne Dunkle Energie abbilden. Außerdem habe er Newtons Gesetz der universellen Gravitation entsprechend modifiziert, was eine Erklärung für die Bewegung von Sternen in Galaxien liefere – ganz ohne Dunkle Materie.

Die Debatte ist eröffnet

Im Detail hat Maeder seine Berechnungen im "Astrophysical Journal" präsentiert – die Abhandlung wird in den kommenden Wochen von Astrophysikern vermutlich genauestens unter die Lupe genommen. Die Universität Genf räumte schon vorab ein, dass die neue Hypothese einige Fragen aufwerfen und Kontroversen schüren dürfte. (red, APA)

Link
arXiv: "Dynamical effects of the scale invariance of the empty space: The fall of dark matter ?" (pdf)





Mittwoch, 6. Dezember 2017

Geisteswissenschaft im Blog?


aus Tagesspiegel.de, 6. 13. 2017

Soziale Medien in der Wissenschaft
Bloggen kann befreiend wirken 
Bloggen oder nicht? Geisteswissenschaftler können darüber trefflich streiten. Für die einen ist es eine Befreiung, andere fürchten, die wahre Wissenschaft komme zu kurz.

Von Miriam Lenz

Bloggen und komplexe Gedanken in aller Kürze darstellen? Das hält die Historikerin Mareike König für geradezu „heilsam“. Das mag erstaunen, sind Geisteswissenschaftler doch oft eher bekannt für langatmige Ausführungen. Für König, die am Deutschen Historischen Institut Paris forscht, stellt wissenschaftliches Bloggen jedoch eine Art Befreiung dar, insbesondere für Nachwuchswissenschaftler. Denn es biete die Möglichkeit, seine Gedanken erst einmal in einem kürzeren, formal nicht so reglementierten Rahmen wie einer Fachzeitschrift auszuprobieren. Zugleich fördere Bloggen den wissenschaftlichen Austausch und mache Forschungsergebnisse sichtbarer, sagt König.
 

Blogs und soziale Medien wie Facebook und Twitter haben nicht nur die Medienlandschaft und Alltags- kommunikation verändert, sondern auch die Wissenschaftsvermittlung. Doch welche Chancen und Her- ausforderungen bieten diese neuen und kürzeren Kommunikationsformen eigentlich für die Geisteswissen- schaften, die traditionell einen Schwerpunkt auf Diskurse statt reiner Faktenvermittlung legen? Dies disku- tierte die Historikerin König jetzt mit drei weiteren Vertretern aus den Geisteswissen- schaften und Medien in der Berlin-Brandenburgischen Akademie der Wissenschaften.

Fehlendes Bewusstsein für das Potenzial der neuen Medien

Auch für Anna-Lena Scholz, Redakteurin bei der „Zeit“ und promovierte Germanistin, haben die neuen Kommunikationsformen großes Potenzial für die Vermittlung geisteswissenschaftlicher Forschung. Doch Geisteswissenschaftlern sei häufig gar nicht bewusst, wie groß das Interesse an ihrer Forschung in der Gesellschaft sei. Sie sähen somit auch keinen Grund, die neuen Kommunikationsformen zu nutzen. In dieser Hinsicht müsse sich noch viel ändern.


Aber geht durch Verkürzung und Vereinfachung nicht auch Substanz und Präzision verloren? Das denkt Michael Meyer, Professor für Prähistorische Archäologie an der FU. Als Einziger in der Runde stand er der wissenschaftlichen Nutzung sozialer Medien und Blogs kritisch gegenüber. Zwar zwinge einen ein begren- zender Rahmen auch, Gedanken auf den Punkt zu bringen, was durchaus positiv zu bewerten sei, sagte Meyer. Die Flüchtigkeit digitaler Medien verleite einen jedoch häufig dazu, etwas zu veröffentlichen, zu dem man in fünf Jahren vielleicht nicht mehr stehe.

Ein realistischeres Bild der Wissenschaft

Dem widersprach Mareike König scharf. Denn gerade das Prozesshafte, das Lernen aus Fehlern, das Subjektive seien das Wesentliche von Wissenschaft und Forschung. All das zeige sich in Blogbeiträgen mehr als in klassischen wissenschaftlichen Kommunikationsformen wie Monografien. Ekkehard Knörer, Herausgeber der Zeitschrift „Merkur“, stimmte König zu. Durch das wissenschaftliche Bloggen entstehe ein realistischeres Bild der Wissenschaft. Mit dem Blog zu seiner Zeitschrift wolle er den Austausch zwischen akademischer geisteswissenschaftlicher Welt und interessiertem Laienpublikum fördern.

Oftmals würde unterschätzt, wie viel Zeit auch kurze Veröffentlichungen wie Blogbeiträge kosten, wandte Meyer ein. Zeit, die für die Arbeit an Publikationen für klassische wissenschaftliche Medien wie Fachzeit- schriften dann fehle. Anna-Lena Scholz forderte, Universitäten und Fachverbände müssten daher Ressourcen für diese neue Form der Wissenschaftskommunikation bereitstellen und Wissenschaftler dabei unterstützen. Das fand großen Zuspruch auf dem Podium und im Publikum. Wie eine solche institutionelle Unterstützung neuer Wissenschaftskommunikationsformen aussehen könnte, blieb bei der Diskussion allerdings offen


Nota. - Was ist denn die 'reguläre' Alternative zum Bloggen? Die Fachjournale? Es hängt von so vielen Umständen ab, ob man dort je einen Beitrag untergebracht kriegt, dass man vorab alles, was Anstoß erregen könnte, rausstreicht - mit der Folge, dass das meiste, das schließlich doch erscheint, ledern, langweilig und konventionell ist; mit andern Worten: nicht gelesen wird! Um gelesen zu werden wurde es auch gar nicht verfasst, sondern um gedruckt und - zitiert zu werden. 

Zwischen dem Verfassen und dem Erscheinen eines Beitrags können Jahre vergehen, es empfiehlt sich, auch alles wegzulassen, was einen aktuellen Bezug haben könnte. Wissenschaftliche Fehden, die Aufsehen erregen, finden so nicht mehr statt. Und wieder wird vom Ende der Geisteswissenschaften geraunt...

Das Internet und die Blogosphäre (nicht Twitter und Facebook) sind für die Geisteswissenschaften und namentlich die Philosophie ein Geschenk der Götter. Das wirkliche Problem dieser Formate ist kein forma- les, sondern ein sachliches - sofern die Philosophie der Sache nach Systematik zu erstreben hat, während das Internet nur fragmentarische Darstellungsformen bietet. Doch mit der Dialektik von Form und Stoff ist es wie verhext; je systematischer eine Philosophie der Sache nach ist, umso mehr widersetzt sie sich der systematischen Darstellung. 

Voilà la boucle bouclée.
JE


Montag, 27. November 2017

Die physiologische Voraussetzung der Sprachfähigkeit.

institution logoDer kleine Unterschied: Wie der Mensch zur Sprache kommt

Verena Müller 

21.11.2017 14:56   

Sprache ist das, was den Menschen ausmacht. Schon lange zerbrechen sich Psychologen, Linguisten und Neurowissenschaftler den Kopf, wie wir Gehörtes und Gelesenes verarbeiten. Eine der Großen unter ihnen ist Angela D. Friederici, Direktorin am Max-Planck-Institut für Kognitions- & Neurowissenschaften in Leipzig. Dank ihr wissen wir heute, warum der Mensch im Gegensatz zum Tier fähig ist, Sprache zu verstehen. Sie war es, die die These des Linguisten Noam Chomsky von der Universalgrammtik, nach der allen Menschen ein universelles System für Grammatik angeboren ist, mit neurowissenschaftlichen Daten belegte. Jetzt ist ihr Buch „Language in Our Brain“ erschienen, eine Art Lebenswerk.
 
„Menschen werden geboren, um Sprache zu lernen“, beginnt Angela D. Friederici ihr aktuelles Buch „Language in Our Brain“ über die Strukturen im Gehirn, die es uns ermöglichen, dieses faszinierende Medium zu entwickeln, in dem wir sprechen und schreiben, denken und dichten, mailen und twittern. „Wir lernen unsere Muttersprache ohne eine Art formellen Unterricht und können mit ihr tagtäglich in jedweder Situation umgehen, ohne auch nur über sie nachzudenken.“ Eine Fähigkeit, die nur uns Menschen vorbehalten ist. Zwar können auch Affen, Hunde und Papageien Wörter lernen, indem sie ein abstraktes Symbol oder eine akustische Wortform mit einem Objekt assoziieren. Sie können diese jedoch nicht nach bestimmten Regeln so kombinieren, dass sie zu bedeutungsvollen Sätzen werden.

Doch was ist es, was uns als Spezies zu diesem Können verhilft? Was ist die Grundlage dieser rein menschlichen Leistung? Diese Fragen standen am Anfang der Forscherlaufbahn der Linguistin, Psychologin und Neurowissenschaftlerin Angela D. Friederici vor fast 50 Jahren. Heute gibt sie die Antworten darauf. In einem umfassenden Werk, gerade erschienen im renommierten Verlag des Massachusetts Institute of Technology (MIT) in Cambridge, erklärt sie, wie die biologischen Strukturen der Sprache in unserem Gehirn zusammenspielen – und so innerhalb von Millisekunden für uns aus Lauten Wörter, Wortgruppen, Sätze und letztlich Inhalte entstehen.

Und Friederici muss es wissen. Durch ihre Forschungsergebnisse der vergangenen fünf Jahrzehnte haben wir heute ein ungefähres Bild davon, wie Gehirn und Geist zusammenwirken, während wir Sprache verarbeiten. Zu ihren wesentlichen Erkenntnissen zählt etwa, dass das Gehirn gewöhnlich in drei Schritten Sprache versteht: Zuerst prüfen die Nervenzellen, ob die Form eines Satzes stimmt, seine Grammatik. Das passiert automatisch, unbewusst und rasend schnell - in etwa 200 Millisekunden. Erst danach, in den nächsten 200 bis 400 Millisekunden, versucht das Gehirn den Sinn der Wörter zu entschlüsseln. Passen Satzbau und Wörter nicht zusammen, schließt sich ein neuer Analyseprozess an.

Im Rampenlicht ihrer Forschung und damit ihres aktuellen Werkes steht außerdem eine Faserverbindung im Gehirn, deren Entdeckung durch Friederici und ihr Team hohe Wellen in der Welt der Sprachforschung schlug: Der sogenannte Fasciculus arcuatus. Diese Verbindung ist eine Art Datenautobahn, auf der Informationen zwischen den sprachrelevanten Hirnarealen transportiert werden, und damit die entscheidende Struktur für die Verarbeitung der Grammatik, der eigentlichen Grundlage von Sprache. Sie ist im Gehirn aller Erwachsenen weltweit deutlich ausgeprägt und variiert nur minimal, je nachdem in welcher Sprache eine Person aufgewachsen ist. Damit ist sie der neurowissenschaftliche Beleg für die Idee des Linguisten Noam Chomsky, nach der allen Menschen ein universelles System für Grammatik angeboren ist.

„Es gibt also eine im Menschen angelegte Sprachfähigkeit. Das bestimmte Regelsystem einer jeden Sprache muss jedoch erlernt werden“, erklärt Friederici. „Dazu muss in einer sensiblen Phase der Entwicklung die sprachliche Kommunikation gefördert werden, um den Fasciculus Arcuatus und damit Sprache tatsächlich entsprechend auszubilden.“ Sogenannte „verbannte Kinder“, wie es Kasper Hauser oder „Genie“ in den 1970er Jahren waren, hätten aus diesem Grund niemals vollständig über Sprache verfügt.

Damit könnte hier, in dieser Faserverbindung auch der lange gesuchte „missing link“ liegen, der den Sprung von der einfachen Laut-Assoziation bei Tieren zur ausgereiften Sprache des Menschen erklärt. Denn so sehr diese Hirnstruktur bei Erwachsenen ausgereift ist, so wenig ist sie bei anderen Primaten und Kleinkindern vorhanden, entsprechend gering sind es auch ihre sprachlichen Fähigkeiten. Auch der Linguist Chomsky selbst gibt sich überzeugt von dieser Idee. In seinem Vorwort zu „Language in Our Brain“ vermutet auch er, dass diese Hirnstruktur sich „offenbar entwickelt hat, um der menschlichen Fähigkeit zu dienen, Grammatik zu verarbeiten, dem Kern der menschlichen Sprachfähigkeit“.

Zur Person:

Angela D. Friederici erforscht seit fast fünfzig Jahren, wie Menschen Sprache lernen und was beim Sprechen und Verstehen im Kopf passiert. Durch ihren interdisziplinären Ansatz als Linguistin, Psychologin und Neurowissenschaftlerin hat sie es geschafft, die Brücke zwischen Geistes- und Naturwissenschaft zu bauen und Sprache als Ganzes zu begreifen. Ihre Erkenntnisse machen Friederici zu einer der weltweit renommiertesten Forscherin für die Neurobiologie der Sprache.

Angela D. Friederici ist Direktorin des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig und zudem Vizepräsidentin der Max-Planck-Gesellschaft.

Weitere Informationen:
https://mitpress.mit.edu/books/language-our-brain Link zum Buch "Language in Our Brain"
http://www.cbs.mpg.de/mensch-und-sprache-buch-friederici Weitere Informationen zu Friederici's Forschung am MPI CBS

Freitag, 24. November 2017

Kann ein Schimpanse die Perspektive eines anderen einnehmen?

Schimpansen haben erstaunliche kognitive Fähigkeiten.
aus scinexx

Schimpansen versetzen sich in andere hinein
Menschenaffen verstehen, ob sich Artgenossen einer Gefahr bewusst sind oder nicht

Wer weiß was? Schimpansen scheinen sich erstaunlich gut in andere hineinversetzen zu können: Die Menschenaffen erkennen, ob sich Artgenossen einer Gefahr bewusst sind oder nicht - und passen daran ihr Kommunikationsverhalten an. So warnen sie vehementer vor einer Bedrohung, wenn sie es mit vermeintlich Unwissenden zu tun haben, wie Experimente zeigen. Damit besitzen sie eine Fähigkeit, die lange Zeit als typisch menschlich galt.

Menschenaffen sind unsere nächsten Verwandten - und verblüffen uns immer wieder mit ihren kognitiven Fähigkeiten: Schimpansen, Orang-Utans und Co benutzen nicht nur Werkzeuge und haben ein uns sehr ähnliches Sozialverhalten. Sie erkennen sich auch selbst im Video und sind offenbar sogar dazu in der Lage, ihr eigenes Wissen zu hinterfragen und zu beurteilen, wie Experimente zeigen.

Doch können die Primaten auch erkennen, was ihre Artgenossen wissen? Die Fähigkeit, die eigenen Gedanken von denen anderer Personen zu unterscheiden, gilt beim Menschen als eine grundlegende Voraussetzung für soziale Interaktionen. Ab einem Alter von drei bis vier Jahren beginnen Kinder zu verstehen, dass andere womöglich etwas Anderes denken als sie selbst.

Vermeintliche Gefahr

Ob auch Schimpansen verstehen, dass andere Gruppenmitglieder andere Überzeugungen haben können als sie selbst, haben Catherine Crockford vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig und ihre Kollegen nun bei wildlebenden Tieren im Budongo-Wald in Uganda untersucht.

Für ihre Experimente platzierten die Forscher zunächst eine Schlangenattrappe im Wald und warteten ab, was passierte. Wie erwartet, begannen Schimpansen, die die vermeintliche Bedrohung entdeckt hatten, sofort Warnrufe auszustoßen. Zudem machten sie ihre Artgenossen auch mit Gesten und Blicken auf die Bedrohung aufmerksam.

Wer weiß was?

Der entscheidende Test folgte in einem zweiten Experiment: Jetzt platzierten Crockford und ihre Kollegen neben der Schlange auch einen versteckten Lautsprecher in die Nähe der Schimpansen. Aus diesem war einmal ein Ruf eines anderen Schimpansen zu vernehmen, der alarmiert klang - er wusste demnach scheinbar von der Schlange. Ein anderes Mal waren dagegen entspannte Laute eines Artgenossen zu hören, der die Gefahr offenbar noch nicht erkannt hatte.

Würden die Schimpansen je nach Situation unterschiedlich reagieren? Tatsächlich zeigte sich: Hatten sie zuvor den Laut gehört, der Unwissenheit eines anderen Gruppenmitglieds suggerierte, zeigten die Menschenaffen nach der Begegnung mit der Schlange ein deutlich verstärktes Warnverhalten und stießen unter anderem mehr alarmierende Rufe aus.

Angepasste Kommunikation

Damit scheint klar: Die Tiere können nicht nur die Perspektive anderer Individuen einnehmen - sie passen darauf basierend auch ihr Kommunikationsverhalten an. Diese Fähigkeit galt lange Zeit als einzigartig für den Menschen, wie die Wissenschaftler schreiben. Die neuen Ergebnisse legten nun jedoch etwas Anderes nahe: Womöglich reichen die Wurzeln von Kommunikationssystemen, die verstärkt die Perspektive anderer anstatt die eigene Sicht der Dinge berücksichtigen, weit in unsere Entwicklungsgeschichte zurück. (Science Advances, 2017; doi: 10.1126/sciadv.1701742)

(AAAS, 17.11.2017 - DAL)


aus derStandard.at, 20. November 2017, 08:00

Schimpansen erkennen die Wissenslücken anderer
Forscher brachten Schlangenattrappen zum Einsatz, um die Reaktionen der Menschenaffen zu testen

Leipzig – Schimpansen können es erkennen, wenn Artgenossen eine drohende Gefahr nicht bemerkt haben. Dann passen sie ihre Warnrufe und Körpersprache an, um mit besonderem Nachdruck auf das Risiko hinzuweisen, wie eine Studie mit Beteiligung der Uni Neuenburg zeigt.

Die Perspektive anderer einzunehmen und seine Kommunikation entsprechend anzupassen, schien bisher eine typisch menschliche Eigenschaft. Aber auch Schimpansen sind dazu in der Lage, wie Forscher um Catherine Crockford vom Max Planck Institut (MPI) für evolutionäre Anthropologie in Leipzig berichteten. Das internationale Forscherteam, zu dem auch Klaus Zuberbühler von der Universität Neuenburg gehört, beobachtete in Uganda Schimpansen in freier Wildbahn im Budongo-Waldgebiet.

Das Experiment

Zunächst versteckten die Forscher eine Schlangen-Attrappe und beobachteten, wie sich die Schimpansen verhielten, wenn sie die vermeintliche Gefahr entdeckten. In einem zweiten Experiment spielten sie zuvor aufgezeichnete Laute von Schimpansen ab, die sich der nahen Schlange bewusst waren, und von solchen, die die Gefahr nicht bemerkt hatten. Dabei beobachteten die Wissenschafter, wie sich derjenige Affe verhielt, der die Schlangen-Attrappe entdeckte.

Hörte dieser Schimpanse die Laute von arglosen Artgenossen, stieß er deutlich mehr Warnrufe aus und machte verstärkt durch Blicke auf die Gefahr aufmerksam. Davon berichten die Wissenschafter im Fachblatt "Science Advances".

Das Ergebnis zeige, dass auch Schimpansen einen wichtigen Schritt in der Sprachevolution vollzogen haben, der bisher nur von der menschlichen Evolution bekannt war, so Crockford: nämlich den, die Wissenslücke eines Gegenübers zu erkennen und die eigene Kommunikation gezielt darauf einzustellen. (APA.)

Donnerstag, 23. November 2017

It's the Verschaltung, stupid!

aus scinexx

Kluge Köpfe sind besser vernetzt
Intelligente Menschen haben anders verschaltete Gehirne

Klugen Köpfen ins Gehirn geblickt: Was unterscheidet die Denkorgane von intelligenten und weniger intelligenten Menschen? Eine Studie enthüllt: Bei "Intelligenzbestien" ist das Gehirn anders verschaltet. Dabei sind bestimmte Hirnregionen stärker, andere Bereiche hingegen schwächer in den Informationsfluss zwischen einzelnen Netzwerken eingebunden. Auf diese Weise kann Wichtiges schneller kommuniziert und Unwichtiges gleichzeitig besser ausgeblendet werden. 

Die Grundlagen des menschlichen Denkens faszinieren Wissenschaftler und Laien seit jeher. Unterschiede in kognitiven Leistungen – und daraus resultierende Differenzen etwa bei Schulerfolg und Karriere – werden vor allem auf individuell unterschiedlich ausgeprägte Intelligenz zurückgeführt. Diese unter anderem durch die Gene beeinflusste Fähigkeit zeigt sich beim Blick ins Gehirn deutlich. So verhalten sich einzelne Hirnregionen wie der präfrontale Cortex bei intelligenteren Menschen anders als bei weniger intelligenten Personen: Sie zeigen während kognitiver Herausforderungen andere Aktivitätsmuster.

Wissenschaftler um Ulrike Basten von der Goethe-Universität Frankfurt haben nun untersucht, ob neben diesen Unterschieden in einzelnen Hirnbereichen möglicherweise auch die Vernetzung des Denkorgans für die Intelligenz eine Rolle spielt. 

Gehirn als soziales Netzwerk 

Die Forscher hatten bereits Anfang des Jahres festgestellt, dass bei intelligenteren Personen zwei Regionen, die mit der Verarbeitung aufgabenrelevanter Informationen in Verbindung gebracht werden, über effizientere Verbindungen mit dem Rest des Hirnnetzwerks verfügen. Eine andere Region schien dagegen weniger stark verknüpft zu sein. Um diesen Zusammenhang genauer unter die Lupe zu nehmen, werteten sie für ihre aktuelle Studie Hirnscans von mehr als 300 Personen aus.

Dabei berücksichtigten sie, dass das menschliche Gehirn modular organisiert ist. "Das ist ähnlich wie bei einem sozialen Netzwerk, das sich aus Subnetzwerken wie Familien und Freundeskreisen zusammensetzt, in denen die Personen untereinander stärker verbunden sind als zu Personen anderer Subnetzwerke. So ist auch unser Gehirn organisiert" erklärt Basten. 

Anders verknüpft
 
Basten und ihre Kollegen wollten wissen: Gibt es intelligenzabhängige Unterschiede in der Rolle einzelner Hirnregionen für die Kommunikation zwischen und innerhalb von Subnetzwerken? Oder anders ausgedrückt: Unterstützt eine Region eher den Informationsfluss innerhalb der eigenen "Clique" oder ermöglicht sie durch Verbindungen zu anderen Subnetzwerken den Informationsaustausch auch mit anderen – und wie hängt das mit der Intelligenz zusammen? 

Die Auswertung zeigte: Bei intelligenteren Personen sind bestimmte Gehirnregionen deutlich stärker am Austausch von Informationen zwischen Subnetzwerken beteiligt, sodass bedeutsame Informationen schneller und effizienter kommuniziert werden können. Auf der anderen Seite identifizierten die Forscher auch Regionen, welche bei klugen Köpfen stärker vom restlichen Netzwerk abgekoppelt sind. 

Störendes wird ausgeblendet 

Durch diese gezielte Abschirmung sind Gedanken möglicherweise besser gegen störende Einflüsse geschützt, wie das Team vermutet. "Wir gehen davon aus, dass Netzwerkmerkmale, die wir bei intelligenteren Personen in stärkerer Ausprägung gefunden haben, es den Menschen erleichtern, sich gedanklich auf etwas zu konzentrieren und dabei irrelevante, möglicherweise störende Reize auszublenden", sagt Basten.

Wie diese Unterschiede in Sachen Vernetzung zustande kommen, ist bislang jedoch unklar. "Es ist möglich, dass manche Menschen aufgrund einer biologischen Veranlagung Hirnnetzwerke ausbilden, die intelligente Leistungen wahrscheinlicher machen", sagt Basten. Genauso gut könne sich aber umgekehrt der häufigere Gebrauch des Gehirns für intelligentere Leistungen positiv auf die Ausformung der Netzwerke im Gehirn auswirken. 

"Bei allem, was wir über den Einfluss von Anlage und Umwelt auf die Intelligenz wissen, erscheint ein Wechselspiel beider Prozesse am wahrscheinlichsten", schließt die Forscherin. (Scientific Reports, 2017; doi: 10.1038/s41598-017-15795-7)


(Goethe-Universität Frankfurt am Main, 23.11.2017 - DAL)

Dienstag, 21. November 2017

"Network neuroscience".

aus Die Presse, Wien,

Das Hirn bleibt ein verzauberter Webstuhl
Intelligenz ist Flexibilität: Das betont jetzt auch eine Forscherschule namens Network Neuroscience.

Was ist Intelligenz? Es gibt bis heute keine Definition. Am ehesten können sich die Psychologen auf eine operative Festlegung einigen: Intelligenz ist das, was ein Intelligenztest misst. (So wie Zeit das ist, was eine Uhr misst – wer kennt eine bessere Definition?)

Ein Problem damit: Wenn wir einen Computer so programmieren, dass er gängige IQ-Tests perfekt löst, müssen wir ihm – oder dem Programm – dann nicht hohe Intelligenz zuschreiben? Viele Verfechter der künstlichen Intelligenz beantworten diese Frage – auch wenn sie das vielleicht nicht zugeben – mit Ja. Doch das ist unbefriedigend. Zu unserem Verständnis von Intelligenz gehört Flexibilität. Wer nur gewohnte Aufgaben lösen kann, den sehen wir eher nicht als intelligent an.

Kristallin oder fluid?

Das sehen die Verfechter der Network Neuroscience ganz ähnlich: Dieser Begriff erlebt derzeit einen Hype, kürzlich wurde ein Journal dieses Namens gegründet (vom Verlag MIT Press). Aron Barbey (University of Illinois, Urbana-Champaign) spricht von einer „Network Neuroscience Theory of Human Intelligence“, so heißt auch sein Artikel in Trends in Cognitive Sciences. Von einer Theorie im strengen Sinn kann man wohl noch nicht sprechen, eher von einem Arbeitsprogramm: Barbey meint, dass Intelligenz nicht, wie manche glauben, im präfrontalen Cortex oder in einer anderen Region sitzt, sondern im ganzen Hirn. Sie gründe auch nicht auf einem Netzwerk, sondern auf der Fähigkeit, Netzwerke im Gehirn auf- und umzubauen, von einem Zustand zum anderen. Registriert werden solche Zustände ganz klassisch mit Magnetresonanzspektroskopie, die im Grunde die Durchblutung von Hirnregionen misst.

Barbey unterscheidet kristalline Intelligenz, bei der sich die Topologie der Zustände nicht stark ändert, und fluide, die wohl etwa dem entspricht, was Modepsychologen gern Out-of-the-box-Denken nennen. Sie schwinde im Alter, sagt er.

Es erstaunt immer wieder, wie wenig wir – auch nach diversen „years of the brain“ (das letzte war in der EU 2014) und sogar einer „decade of the brain“ (von George W. Bush 1990 proklamiert) – über das Gehirn wissen. So passen die Sätze des Neurologen C. S. Sherrington aus dem Jahr 1940 noch immer: Einen „enchanted loom“ nannte er das Hirn, „einen verzauberten Webstuhl, in dem Millionen blitzender Schiffchen ein zerfließendes Muster weben, stets ein sinnhaftes Muster, aber nie ein dauerndes“.

Ob diese Poesie so bald konkret wird?


Donnerstag, 9. November 2017

Es ist ein Glück, dass man nicht alles weiß.

aus derStandard.at, 2. November 2017, 07:00

"Sollten uns wohlfühlen, nicht alles zu wissen"  
Es wäre gefährlich, Forschung stark vereinfacht zu kommunizieren, findet US-Neurowissenschafter Buonomano
 
Interview

Wien – Das menschliche Gehirn ist bei weitem nicht perfekt – ein Resultat aus der Art, wie es gebaut ist, sagt Dean Buonomano. Der Professor für Neurowissenschaften an der University of California in Los Angeles bezeichnet die Macken, mit denen wir folglich zu kämpfen haben, als "Brain Bugs": Programmfehler im Hirn. Selbst bei der Wahrnehmung von Zeit, die vergeht, könnte es sich um einen Fehler handeln. Eine aktuelle Auffassung in Physik und Zeitphilosophie suggeriert, dass der Zeitfluss eine Illusion ist. Buonomano, der Bücher zu diesen Themen verfasst hat, sprach kürzlich im Wiener Volkstheater bei der Veranstaltung TEDx Vienna.

STANDARD: Der Medizin-Nobelpreis ging dieses Jahr an Wissenschafter, die den Genabschnitt erforschten, welcher für den circadianen Rhythmus essenziell ist. Diese biologische Uhr verrät uns vereinfacht gesagt die Tageszeit. Besitzt unser Gehirn mehrere solcher Systeme zur Zeitwahrnehmung?

Buonomano: Wir wissen heute, dass unser Gehirn nicht über eine einzelne, zentrale Uhr verfügt. Das funktioniert anders als etwa analoge Uhren an der Wand oder jene in unseren Handys, die Zeitangaben von Millisekunden bis hin zu Jahren machen können. Das Gehirn hat stattdessen diverse Uhren, die auf unterschiedliche Intervalle und Aufgaben spezialisiert sind. Die circadiane Uhr besitzt gewissermaßen keinen Sekundenzeiger, und solche, die für musikalisches Zeitgefühl wichtig sind, haben keinen Stundenzeiger.

STANDARD: Ihr zweites Buch, das in diesem Jahr erschienen ist, trägt den Titel "The Time Machine". Inwiefern kann man das Gehirn als Zeitmaschine betrachten?

Buonomano: Eine der einzigartigen Eigenschaften des Menschen ist, dass wir über die Zukunft nachdenken und Pläne machen können. Das nennt man mentale Zeitreise. Außerdem ermöglicht uns das Gehirn, Informationen über die Vergangenheit – Erinnerungen – zu speichern. Zuletzt vermittelt es uns auch das Gefühl, dass Zeit vergeht. Wir haben eine bewusste Wahrnehmung des Zeitflusses. In der Physik gibt es eine große Debatte darüber, ob es sich dabei um eine Illusion handelt oder nicht.

STANDARD: Welche Standpunkte gibt es in dieser Debatte?

Buonomano: Vertreter des Eternalismus (Theorie, die das Vergehen der Zeit als irreal postuliert, Anm.) gehen davon aus, dass die Zeit nicht fließt. Vergangenheit, Gegenwart und Zukunft sind gleichermaßen real und gegeben. Es gibt etwa eine ältere Version einer Person und eine jüngere Version, die zu verschiedenen Zeitpunkten existieren und sich an unterschiedlichen Orten befinden. Der Präsentismus besagt, dass nur die Gegenwart real ist – die Vergangenheit existiert nur in unserer Erinnerung, die Zukunft wird erst eintreten.

STANDARD: Diese Ansicht erscheint aber nicht recht intuitiv.

Buonomano: Genau. Sie wirft die Frage auf, warum wir dann den Eindruck haben, dass Zeit vergeht. Zeit ist fundamental für unser Selbstverständnis, und eine der Hauptaufgaben des Gehirns ist schließlich, vorauszusagen, was zukünftig geschieht. Bei meinen Recherchen fand ich besonders interessant, dass das Konzept der Zeitreise heutzutage überall in Literatur, Filmen und der Popkultur auftaucht. Vor dem späten 19. Jahrhundert wurde eine solche Vorstellung hingegen fast nie diskutiert. Vielleicht haben die Menschen Zeitreisen früher deshalb nicht in Betracht gezogen, weil sie absurd erscheinen, wenn man nach dem Präsentismus geht. Es ist sehr natürlich für uns, zu denken, dass nur die Gegenwart real ist. Schließlich haben wir unsere Erinnerungen und handeln jetzt, um die Zukunft zu gestalten. In gewisser Weise stellt der Eternalismus sogar unseren freien Willen infrage.

STANDARD: Wie erklären Sie solche komplexen Konzepte einem Publikum, das keine Vorbildung hat?

Buonomano: Es ist eine Herausforderung. Ich denke aber, dass es gerade beim Thema Zeit insofern einfacher ist, als jeder Mensch eine Beziehung dazu hat und auf eigene Erfahrungen zurückgreifen kann. Bei Vorträgen finde ich es aber wichtig, die Dinge nicht zu sehr zu versimpeln. Ich versuche, die Leute zu stimulieren. Es beunruhigt mich ein wenig, dass in der Wissenschaftskommunikation und in Medien oft zu stark vereinfacht wird. Dabei ist die wichtigste Aussage vieler Forschungsprojekte eigentlich: Die Angelegenheit ist kompliziert. Manchmal werden Sachverhalte so dargestellt, dass man den Eindruck gewinnt, sie seien gar nicht so komplex.

STANDARD: Worin besteht die Gefahr in der zu großen Vereinfachung?

Buonomano: Viele Leute könnten denken, dass etwas entweder nur gut oder nur schlecht ist. Das passiert oft beim Thema Ernährung, man hört oder liest zum Beispiel, "Salz ist gut" oder "Salz ist schlecht". Als Forschende und als Medien sollten wir dem Publikum begreiflich machen, dass wir bei komplexen biologischen Problemen keine einfachen Antworten erwarten sollten, weil diese Dinge grundsätzlich kompliziert sind.

STANDARD: Sie referierten in Wien über "Brain Bugs", Fehler des Gehirns. Was verstehen Sie darunter?

Buonomano: Das Gehirn hat sich entwickelt, um bestimmte Aufgaben zu erfüllen, und wir sind beispielsweise sehr gut darin, Muster zu erkennen, Gesichter zu unterscheiden und zu assoziieren. Aber wir haben es auch geschafft, eine Gesellschaft und Kultur um uns herum aufzubauen, die sehr reich an Informationen ist. Wir leben im digitalen Zeitalter, treffen tausende Menschen und sind unzähligen neuen Ideen und Informationen ausgesetzt. Aber das Gehirn ist nicht sonderlich gut dafür geeignet, das alles auf rationale, effektive Weise zu verarbeiten. Auch unser Erinnerungsvermögen ist nicht perfekt.

STANDARD: Was sind die Folgen?

Buonomano: Das führt dazu, dass wir Entscheidungen oft mithilfe unseres automatischen Systems treffen, das auf Assoziationen basiert und etwas emotionaler und kurzsichtig ist. Dabei enden wir oft in Situationen, die gar nicht in unserem Interesse sind.

STANDARD: Wie sollten wir damit umgehen?

Buonomano: Ich betone gern, dass wir als Menschen deshalb so klug sind, weil wir fähig sind, unsere Unwissenheit zu erkennen. Wir sollten wertschätzen, dass Intelligenz teilweise darin besteht, zu erkennen, dass wir gewisse Dinge nicht verstehen. Wenn wir die Komplexität von Themen wie Finanzen, Gesundheitsfürsorge oder Immigration anerkennen würden, dann wären wir vielleicht etwas bescheidener, was unsere Meinungen dazu angeht. Und wir wären nicht so gespalten in zwei gegensätzliche Gruppen.

STANDARD: Wie tragen Sie zu diesem besseren Verständnis bei?

Buonomano: Mein Zugang ist, Leuten beizubringen, dass dieses Phänomen sehr natürlich ist, weil unsere Gehirne nicht perfekt sind. Wir sollten uns damit wohlfühlen, nicht alles zu wissen. Das ist beispielsweise schon so, wenn wir die Mathematik betrachten. Niemand denkt, dass er oder sie bei Rechenaufgaben besser abschneidet als ein Computer, weil eindeutig ist, wie schlecht wir sind. Wir sollten Kindern und Erwachsenen mehr darüber beibringen, wie unsere Gehirne arbeiten. Dadurch könnten sich mehr Menschen mit dem Gedanken anfreunden, dass wir nicht von Natur aus gut darin sind, Entscheidungen in Bereichen wie Politik, Wirtschaft oder Gesundheit zu treffen. Wenn man sich in dieser Hinsicht mehr Zeit gibt, hilft das dabei, die eigenen Meinungen zu reflektieren. 


Dean Buonomano (52) wurde im US-amerikanischen Providence geboren und wuchs in Brasilien auf. Nach seinem Biologiestudium in São Paulo zog er für das Doktorat wieder in die USA. Er ist Professor der Neurowissenschaften an der University of California, Los Angeles, und Verfasser der Werke "Brain Bugs: Die Denkfehler unseres Gehirns" und des noch nicht ins Deutsche übersetzten "The Time Machine: The Neuroscience and Physics of Time"

Sonntag, 5. November 2017

Logik und Vorstellung.


institution logoWahrscheinlichkeitsrechnung
- schon die Kleinsten beherrschen sie

Verena Müller 
03.11.2017 14:21 
Eine der wichtigsten Fähigkeiten unseres Gehirns ist es, aus wenigen Daten allgemeine Schlussfolgerungen über unsere Umgebung zu ziehen, um so möglichst viele Unsicherheiten zu vermeiden. Dafür schätzt es ständig ab, wie wahrscheinlich ein Ereignis ist und erkennt so Regelmäßigkeiten. Als Erwachsene haben wir dadurch eine grobe Vorstellung über die Wahrscheinlichkeit verschiedener Geschehnisse. Bisher war jedoch unklar, ab welchem Alter wir in der Lage sind, Wahrscheinlichkeiten einzuschätzen. Wissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig haben nun gezeigt: Bereits sechs Monate alte Babys haben ein Gefühl für Wahrscheinlichkeiten.

Ein Leben lang müssen wir immer wieder Entscheidungen treffen und dabei Wahrscheinlichkeiten gegeneinander abwägen. Indem wir lernen einzuschätzen, welches Ereignis wahrscheinlicher eintritt als ein anderes, werden wir besser darin, Risiken abzuschätzen und entsprechend daran unser Handeln auszurichten. Doch in welchem Alter beginnen wir, ein Gefühl für die Stochastik von Geschehnissen zu entwickeln? Sind etwa schon Babys dazu in der Lage?

Wissenschaftlerinnen des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig und der Universität Uppsala, Schweden, haben nun herausgefunden, dass bereits sechs Monate alte Babys Wahrscheinlichkeiten bewerten können. Den Kleinen gelingt es bereits aus einer Menge aus blauen und gelben Bällen herauszufiltern, welche Farbe die häufigere und damit diejenige ist, die mit größerer Wahrscheinlichkeit gezogen wird. „Die Fähigkeit, Wahrscheinlichkeiten abzuschätzen, scheint sich etwa im Alter von sechs Monaten herauszubilden“, so Ezgi Kayhan, Neurowissenschaftlerin am MPI CBS und Leiterin der zugrundeliegenden Studie. In einer früheren Studie konnten vier Monate alte Babys diese Aufgabe noch nicht lösen. Sie scheinen daher noch nicht sensibel für Wahrscheinlichkeiten zu sein.

Untersucht haben die Neurowissenschaftler diese Zusammenhänge mithilfe animierter Filme, die sie insgesamt 75 Babys im Alter von sechs, zwölf und 18 Monaten zeigten. Darin zu sehen war eine Maschine, gefüllt mit einer Menge Bälle, viele davon waren blau, wenige gelb – ähnlich einer Lottomaschine. Diese spuckte in einen Korb viele der hauptsächlich vorhandenen blauen Bälle. In einen anderen hingegen viele der kaum enthaltenen gelben Bälle. Dass die Maschine einen gelben statt eines blauen Balls ausspuckt, war dabei 625 Mal unwahrscheinlicher. Dieser zweite Behälter voller gelber Bälle spiegelte damit ein Ereignis wider, dass nur mit einer extrem geringen Wahrscheinlichkeit auftritt.

Während die Babys die Kurzfilme sahen, beobachteten die Forscher mithilfe der sogenannten Eyetracking-Methode, auf welche der beiden Körbe die kleinen Probanden länger schauten – die wahrscheinlichere oder die unwahrscheinlichere. „Wir haben festgestellt, dass die Babys, egal welcher Altersklasse, länger auf die unwahrscheinlichere Variante schauten als auf die andere. Vermutlich waren sie erstaunt darüber, dass sie vor allem aus den nur sehr wenig vorhandenen gelben Bällen bestand, sie also ein sehr unwahrscheinliches Ereignis war.“ Um sicherzustellen, dass die Kleinen sich nicht nur mehr zu der gelben Farbe hingezogen fühlten, drehten die Wissenschaftlerinnen in einigen der Versuche die Häufigkeiten beider Farben um oder verwendeten grüne und rote Bälle.

„Prinzipiell gab es bereits einige Studien dazu, ob Kleinkinder dazu in der Lage sind, Wahrscheinlichkeiten abzuschätzen. Wir waren jedoch die ersten, die die Grenzen dieser frühen Fähigkeit untersuchten“, erklärt Kayhan. Dazu testeten sie und ihr Team, ob es einen Unterschied macht, wie klar der Unterschied zwischen der wahrscheinlichen und der unwahrscheinlichen Variante auf den ersten Blick zu erkennen ist.

Und tatsächlich: Als die Forscher das Verhältnis aus blauen und gelben Kugeln und damit die Wahrscheinlichkeiten, eine der beiden Farben zu ziehen, veränderten, änderten sich auch die Blicke der Kleinen. War es nun lediglich neunfach wahrscheinlicher, dass die Maschine eine blaue statt einer gelben Kugel ausspuckte, schauten die kleinen Studienteilnehmer plötzlich länger auf die wahrscheinlichere Variante, den Korb mit vorrangig blauen Bällen.

„Diese Beobachtung war für uns sehr überraschend. Eine Erklärung dafür könnte es, dass mit steigendem Schwierigkeitsgrad auch die Informationen für die Kleinen ab einem bestimmten Level zu komplex wurden. Aus früheren Studien wissen wir, dass Babys sich in den Fällen auf ihnen bekannte Objekte oder Zusammenhänge konzentrieren, in denen sie nicht genügend Zeit haben, neue und komplexe Informationen zu verarbeiten“, sagt Kayhan. „Sobald sie dann auch diese entschlüsselt haben, können sie sich neuen Dingen widmen.“ Unabhängig von einer möglichen Erklärung wurde den Wissenschaftlerinnen anhand der Ergebnisse vor allem eines klar: Die Fähigkeit der Kleinen, mit Wahrscheinlichkeiten umzugehen, hängt nicht nur von ihrem Alter, sondern auch vom Verhältnis zwischen einem wahrscheinlichen und unwahrscheinlichen Ereignis ab.

http://www.cbs.mpg.de/Wahrscheinlichkeitsrechnung-Schon-die-Kleinsten-beherrsche...


Nota. - Ist das die ganze Ausbeute: dass Wahrscheinlichkeit eine Sache des Verhältnisses ist?! In der Logik wird zwischen Notwendigkeit, Möglichkeit und Unmöglichkeit unterschieden. Doch Logik ist Menschen- werk und wird erst nach und nach mitgeteilt - aber fix und fertig, nämlich von den Erwachsenen. Oft, selten, immer, nie sind dagegen Vorstellungen, die jedes Individuum aus eigenem Erleben formt. Wobei 'immer' ein Selbstverständliches wird, das mit der Zeit an die Grenze der Wahrnehmbarkeit rückt - obwohl es doch viel öfter geschieht als das Seltene und daher größeren Einfluss aufs Leben haben mag als jenes. Vorstellen und begreifen sind nicht nur zweierlei, sondern können auch in Gegensatz zu einander geraten...
JE

 

Samstag, 4. November 2017

Finder oder Erfinder?

Dalí The desintegration of the persistance of memory
aus Die Presse, Wien, 03.11.2017 um 18:02
 
Hirnareale mit fixer Funktion
Sonde im Gehirn führt zu bestimmter Bildillusion.


Wenn Epilepsiepatienten nicht auf Medikamente ansprechen, ist ein Ansatz, die Entstehungsorte der Störung im Gehirn zu suchen und gegebenenfalls zu entfernen. Die dazu notwendigen Sonden, die im Gehirn kleinste Bereiche stimulieren, werden von dem Spin-off der TU Graz, g.tec, gebaut, das auf Gehirn-Computer-Schnittstellen spezialisiert ist. Nun ermöglichten die Sonden bei einer Forschungskooperation mit den USA und Japan bahnbrechende Ergebnisse: Stimuliert man im Gehirn kleine Areale der visuellen Verarbeitung, kann man die Illusion bestimmter Bilder hervorrufen. Der Beweis, dass es im Gehirn Berei- che gibt, die bestimmte Aufgaben exklusiv erfüllen, gelang erstmals an Menschen: Der Proband sah auf einem Ball ein Gesicht und auf einer Schachtel einen Regenbogen, je nachdem, welches Areal stimuliert wurde. (APA/vers)


Nota. -  Was da die Presse so en passant meldet, ist ja - irre ich mich etwa? - eine Revolution in der Hirn- forschung (wenn es sich bestätigt). An bestimmten Stellen des Gehirns wären bestimmte Bilder gespei- chert, wird die Stelle stimuliert, wird das Bild "gesehen"?! Aber wie ist das Bild dort hineingekommen? Ist es lediglich eine aktualisierte Erinnerung? Dann wärs banal. Ist es eine spontane Kreation - weil die 'Stelle' immer schon dieses Bild kreiert -, dann ist es eine Senasation und stellt alles, was man bislang über Wahr- nehmung und Erkenntnis zu wissen meinte, buchstäblich auf den Kopf. (Ich vermute ganz banal die erste Variante.)
JE 




Montag, 30. Oktober 2017

Risiko ist Charaktersache.

 aus derStandard.at, 30. Oktober 2017, 12:03

Risikobereitschaft ist in der Persönlichkeit verwurzelt
Befragungen und Verhaltensexperimente mit 1.500 Probanden hinterfragen bisherige Untersuchungen

Basel – Auch wenn die menschliche Risikofreude je nach Situation schwankt, die Grundeinstellung zu Risiken dürfte ein stabiles psychologisches Merkmal sein, etwa vergleichbar mit dem Intelligenzquotient. Zu diesem Schluss kamen nun Basler Forscher zusammen mit deutschen Kollegen.

"Zwar gehen viele Forschende davon aus, dass es eine Risikodisposition gibt, aber wir haben den Nachweis dafür mit einer deutlich größeren Anzahl von Probanden und Messmethoden erbracht als frühere Studien", erklärte Jörg Rieskamp von der Uni Basel. Im Rahmen der vom Schweizerischen Nationalfonds SNF unterstützten Studie befragten und testeten die Forscher um Rieskamp über 1.500 Probanden.

Mehrfache Tests

Die Wissenschafter befragten die Teilnehmenden zum einen über ihr Risikoverhalten in hypothetischen Szenarien sowie ihr Verhalten im Alltag. Zum anderen ließen sie Verhaltensexperimente durchführen, wie die Schweizer Forscher gemeinsam mit Experten vom Max-Planck-Institut (MPI) für Bildungsforschung in Berlin am Montag mitteilten. Insgesamt absolvierten die Probanden 39 Tests.

Nach sechs Monaten wiederholten die Wissenschafter die Untersuchung mit 109 der Teilnehmenden, um festzustellen, wie stabil die Ergebnisse über die Zeit waren. "Mit statistischen Methoden konnten wir nachweisen, dass es einen übergreifenden Faktor der Risikobereitschaft gibt, der einen großen Teil des individuellen Verhaltens erklärt", so Rieskamp. "Zusätzlich gibt es aber je nach Situation Schwankungen."

Unzuverlässige Verhaltenstests

Die Untersuchung förderte zudem eine Schwachstelle von Verhaltenstests zutage, die von vielen Verhaltensökonominnen und Psychologen meist als zuverlässiger betrachtet werden als Selbstauskünfte. Bei solchen Tests geht es beispielsweise darum, durch risikofreudige Spieleinsätze einen finanziellen Gewinn zu maximieren, oder sich mit einem kleineren Gewinn zu begnügen, den man aber mit sehr viel höherer Wahrscheinlichkeit erhält.

"Viele argumentieren, in den Tests beobachte man tatsächliches Verhalten", so Rieskamp. "Unsere Studie mit vielen verschiedenen Tests hat aber gezeigt, dass sie je nach Versuchsaufbau zu völlig gegensätzlichen Ergebnissen kommen können. Die gleiche Person wird je nach Test als risikoscheu oder als risikofreudig eingestuft." Die Selbstauskunft zum Verhalten im Alltag und zu theoretischen Szenarien lieferten in der neuen Studie hingegen ein konsistenteres Bild.

"Unsere Arbeiten sind ein Weckruf, die verschiedenen Messtraditionen zu hinterfragen und insbesondere besser zu verstehen, was genau die Verhaltenstests eigentlich messen", sagte Studienautor Ralph Hertwig vom MPI. "Sie scheinen jedenfalls keine situationsübergreifende Risikopräferenz zu erfassen." Die Entdeckung, dass es eine solche gibt, erlaube nun auch, die biologischen Grundlagen von Risikobereitschaft zu untersuchen, wie die Forscher in den Fachjournalen "Science Advances" und "Nature Human Behaviour" schreiben. (APA, red,)

Nota. - Dass Risikobereitschaft und Unternehmungslust tief im Charakter begründet sind, hätte man ohnehin vermutet und frühere Tests haben es bestätigt. Bemerkenswert an dieser Studie ist darum dies: dass Tests weniger zuverlässig sind als Selbstauskünfte. Da würde man doch gerne wissen: Gilt das bloß für die Risikofreudigkeit, oder ist es eine allgemeine Regel? Letzteres wäre eine kleine Revolution in der Verhaltungsforschung.
JE