Freitag, 28. November 2014

Wo dein Gedächtnis sitzt.

aus derStandard.at, 28. 11. 14

Hirnforscher lokalisieren Entstehungsort von Erinnerungen 
Wissenschafter nutzten dafür besonders präzise Form der Magnetresonanz-Tomographie

Magdeburg - Das Gehirn nimmt ständig Informationen auf. Doch wie aus neuen Erlebnissen dauerhafte Erinnerungen entstehen, ist erst ansatzweise bekannt. Nun ist es einem internationalen Team unter der Federführung von Forschern der Universität Magdeburg und des Deutschen Zentrums für Neurodegenerative Erkrankungen (DZNE) gelungen, den Entstehungsort von Erinnerungen mit bislang unerreichter Genauigkeit zu bestimmen. Die Neurowissenschafter konnten diesen Ort auf einzelne Schaltkreise des menschlichen Gehirns eingrenzen.
Für ihre Untersuchungen nutzten die Forscher eine besonders präzise Form der Magnetresonanz-Tomographie (MRT). Die Forscher hoffen, dass ihre Studienergebnisse, die im Fachjournal "Nature Communications" veröffentlicht wurden, dazu beitragen könnten, besser zu verstehen, wie sich beispielsweise Alzheimer auf das Gedächtnis auswirkt.
Beim Gedächtnis wirken verschiedene Hirnbereiche zusammen. Heute weiß man, dass Erinnerungen hauptsächlich in der Hirnrinde gespeichert werden und sich die Schaltzentrale, die Gedächtnisinhalte erzeugt und auch wieder abruft, im Inneren des Gehirns befindet. Ort des Geschehens ist der sogenannte Hippocampus und der unmittelbar angrenzende Entorhinale Cortex. "Schon länger ist bekannt, dass diese Hirnareale an der Gedächtnisbildung beteiligt sind. Hier fließen Informationen zusammen und werden verarbeitet. Unsere Studie hat den Blick auf diese Situation weiter verfeinert", erläutert Emrah Düzel vom DZNE in Magdeburg.
Informationsflüsse im Hippocampus
Die Forscher konnten innerhalb des Hippocampus und des Entorhinalen Cortex die Gedächtnisbildung bestimmten neuronalen Schichten zuordnen. Dabei beobachteten sie, welche neuronale Schicht aktiv war. Dies gewährt Rückschlüsse darauf, ob Information in den Hippocampus hineinfloss oder aus dem Hippocampus heraus in die Hirnrinde gelangte. Bisherige MRT-Verfahren waren nicht genau genug, um diese Richtungsinformation zu erfassen. Damit haben die Neurowissenschafter erstmals nachweisen können, wo sich im Gehirn sozusagen der Eingang zum Gedächtnis befindet.

Hippocampus
Für die aktuelle Studie untersuchten die Wissenschafter die Gehirne von Probanden, die sich für einen Gedächtnistest zur Verfügung gestellt hatten. Die Forscher setzten dafür eine besondere Form der Magnetresonanz-Tomographie ein, die "Ultra-Hochfeld-MRT" bei 7 Tesla. Dadurch konnten sie die Aktivität einzelner Hirnregionen mit bislang unerreichter Genauigkeit erfassen.

Wie die Gedächtnisstörungen bei Alzheimer entstehen
"Mit dieser Messmethode können wir den Informationsfluss im Gehirn verfolgen und die Hirnbereiche, die an der Verarbeitung von Erinnerungen beteiligt sind, mit großer Detailtiefe untersuchen", so Düzel. "Davon erhoffen wir uns neue Erkenntnisse darüber, wie die für Alzheimer typischen Gedächtnisstörungen entstehen. Sind bei einer Demenz die Informationen an der Pforte zum Gedächtnis noch intakt? Setzt die Störung also erst bei der späteren Weiterverarbeitung im Gedächtnis ein? Das sind Fragen, die wir hoffen, beantworten zu können." (red,)

Donnerstag, 27. November 2014

Entscheidungen fallen im präfrontalen Kortex.

.

Wie verschiedene Hirnareale bei Entscheidungen kooperieren

Nathalie Huber 
Kommunikation 
Universität Zürich

Unsere Entscheidungen lassen sich im Gehirn abbilden. Welche Areale dabei am aktivsten sind, können Wissenschaftler der Universität Zürich in einer neuen Studie zeigen. Dabei ist offenbar der sogenannte präfrontale Kortex nicht nur erhöht aktiv bei Entscheidungen, die Selbstkontrolle erfordern, sondern generell bei der Entscheidungsfindung. Die Ergebnisse könnten für die Förderung von Entscheidungskompetenzen in schwierigen Situationen nützlich sein. 

 Der Wert eines Stücks Schokoladenkuchen ist veränderlich. Wer gerade auf Diät ist, entscheidet sich eher für das Fruchtdessert und bewertet den kalorienreichen Kuchen als ungesund. Bisherige Studien haben gezeigt, dass ein bestimmtes Netz im Gehirn aktiv ist, wenn man sich zwischen verschiedenen Auswahlmöglichkeiten entscheiden muss, deren Wert je nach Kontext variiert. Sie heben dabei die Interaktion zwischen den Neuronen zweier Hirnregionen des präfrontalen Kortex’ hervor – der Kontrollinstanz des Gehirns an der Stirnseite.

Präfrontaler Kortex bei allen Entscheidungen erhöht aktiv 

Sarah Rudorf und Todd Hare vom Institut für Volkswirtschaftslehre der Universität Zürich können nun in ihrer neuen Studie jene Gehirnareale bestimmen, die während des Prozesses der Entscheidungsfindung am aktivsten sind. Ihre Ergebnisse weisen darauf hin, dass die neuronalen Interaktionen zwischen dem sogenannten dorsolateralen und ventromedialen präfrontalen Kortex nicht nur dann eine zentrale Rolle spielen, wenn zwischen mehreren Möglichkeiten abgewogen werden muss, sondern ganz allgemein für eine flexible Entscheidungsfindung ausschlaggebend sind. Dies widerspricht der Meinung, dass eine erhöhte Aktivität des präfrontalen Kortex’ nur dann auftritt, wenn Selbstbeherrschung verlangt ist, um zwischen gegensätzlichen Präferenzen entscheiden zu können.

Bisher wurden in den Experimenten nur Situationen betrachtet, in denen Personen gegensätzliche Wünsche in Einklang bringen müssen, um ein Ziel zu erreichen. Beispielsweise haben Probanden finanzielle Gewinne gegen Fairnessinteressen abzuwägen oder unmittelbare Gewinne gegen langfristige Auszahlungen. Sara Rudorf und Todd Hare fragten sich, was sich im Gehirn abspielt, wenn keine widersprüchlichen Wünsche gegeben sind und keine Selbstkontrolle verlangt wird.

Für ihre Studie untersuchten die Wissenschaftler mittels funktioneller Magnetresonanztomographie die Gehirne von 28 Probanden, während dem diese Auswahlfragen beantworteten. Die Teilnehmerinnen und Teilnehmer konnten sich dabei für Handlungen entscheiden, die stets mit einem finanziellen Gewinn verbunden waren. Allerdings änderten sich im Verlauf der Untersuchung mehrmals die Regeln, wonach eine Handlung die grösste Auszahlung mit sich brachte.

«Entscheidungen, die Selbstbeherrschung verlangen, sind überaus wichtig, da sie das körperliche, gesellschaftliche und finanzielle Wohlergehen einer Person direkt beeinflussen», erklärt Sarah Rudorf. Dank der Bestimmung der Mechanismen im Gehirn, die nicht nur bei Entscheidungen, die Selbstbeherrschung verlangten, sondern auch bei generellen Entscheidungen zum Tragen kommen, könnten sich neue Anknüpfpunkte für Therapien auftun. «Man könnte Schulungsprogramme entwickeln, um bestimmte Entscheidungskompetenzen für schwierige Situationen zu fördern, in denen es auf Selbstbeherrschung ankommt», schliesst Todd Hare.

Literatur:
Sarah Rudorf und Todd Hare. Interactions between Dorsolateral and Ventromedial Prefrontal Cortex Underlie Context-Dependent Stimulus Valuation in Goal-Directed Choice.
Journal of Neuroscience, November 26, 2014, 34(48):15988 –15996.

Kontakt:
Prof. Todd Hare
Institut für Volkswirtschaftslehre
Universität Zürich
Tel. +41 44 634 10 17 
E-Mail: todd.hare@econ.uzh.ch

Weitere Informationen: http://www.mediadesk.uzh.ch

Dienstag, 25. November 2014

Get me off Your Mailng List.

aus derStandard.at, 24. November 2014, 15:26

Wie "Get me off Your Fucking Mailing List" zum "Fachartikel" wurde
Magazin akzeptiert einen Anti-Spam-Brief, der nur aus einem einzigen Satz besteht, als "exzellent" 

Der Begriff "Predatory open access publishing" bezeichnet im Englischen ein unseriöses Geschäftsmodell, in dem vermeintliche Fachjournale - gegen eine Gebühr für den Autor, versteht sich - Artikel veröffentlichen, ohne diese dem branchenüblichen Peer-Review-Verfahren zu unterziehen. Das weitgehende bis vollständige Fehlen von Kontrolle kann im Extremfall dazu führen, dass auch vollkommener Nonsens veröffentlicht wird. Über ein besonders schönes Beispiel dafür berichtet der Blog io9.com.

Die Form gewahrt

Ein Merkmal solcher Journale ist, dass sie aggressiv Werbung betreiben und ihre erhoffte Akademiker-Kundschaft mit der Aufforderung, bei ihnen zu publizieren, zuspammen. Selbiges tun auch Konferenzen der weniger seriösen Art, und der Einladung zu einer solchen Konferenz antworteten im Jahr 2005 die beiden US-Computerwissenschafter David Mazières und Eddie Kohler in origineller Weise:

Sie verfassten ein"Paper", das formal absolut korrekt gegliedert ist, aber nur aus einem einzigen Satz in vielfacher Wiederholung besteht: "Get me off Your Fucking Mailing List", dazwischen eingestreut ein einsames "Introduction" und ein "Summary". Sogar zwei Infografiken sind enthalten, genauer gesagt grafische Umsetzungen der Worte - erraten - "Get me off Your Fucking Mailing List".
grafik: mazières und kohler

Vor Kurzem hat dieser Anti-Spam-Brief ein unerwartetes zweites Leben verliehen bekommen und es mittlerweile nicht nur in die Schlagzeilen, sondern sogar schon zu einem eigenen Wikipedia-Eintrag gebracht. Der australische IT-Wissenschafter Peter Vamplew erinnerte sich nämlich an den Brief von Mazières und Kohler, als er vom Pseudo-Fachmagazin "International Journal of Advanced Computer Technology" angemailt wurde. Er leitete den Text ohne weiteren Kommentar an das Journal weiter und dachte sich, man würde dort seine Botschaft schon verstehen.
Womit er nicht gerechnet hatte, war die Antwort: Der Text wurde vom "International Journal of Advanced Computer Technology" als Artikel akzeptiert. Er wäre sogar veröffentlicht worden, hätte Vamplew die geforderte Gebühr bezahlt.
Und wer sagt, dass es bei diesen Journalen keine Peer Review gäbe? Jeffrey Beall von der Universität Colorado, ein bekannter Kritiker unseriöser Open-Access-Journale, veröffentlichte auf "Scholarly Open Access" das Antwortschreiben des Journals. Darin wurde dem Paper von einem nicht genannten "Experten" bescheinigt, dass es sich "exzellent" zur Veröffentlichung eigne ...
(jdo)

Montag, 24. November 2014

Innere Uhr und soziale Zeit.

institution logo

Wolfgang Müller M.A.
AWMF Presse- und Öffentlichkeitsarbeit
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften    

11.11.2014 13:08

Köln. Die Auswirkungen von unzureichendem und nicht erholsamem Schlaf auf die Gesundheit und Leistungsfähigkeit des Menschen ist das Hauptthema der 22. Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM). Dabei ergeben sich immer wieder Beziehungen zur Chronotypologie des Menschen, zur Prägung des Menschen durch seine innere Uhr.

Einer der bekanntesten Forscher auf dem Gebiet der Chronobiologie in Deutschland ist Prof. Till Roenneberg vom Institut für Medizinische Psychologie an der Ludwig-Maximilians-Universität München. Im folgenden Interview plädiert Prof. Roenneberg u.a. für flexible Arbeitszeitmodelle, Verständnis für die Bedürfnisse von Schülern und mehr Respekt vorm Schlaf.

- Professor Roenneberg, kommt unser Schlaf denn im Alltag zu kurz?

Unter der Arbeitswoche auf jeden Fall. Die inneren Uhren der meisten Menschen in Industrieländern gehen nach, weil wir ihnen zu wenig Kontrast zwischen Tageslicht und Dunkelheit geben. Wir halten uns fast nur noch in Gebäuden auf, wo die Lichtintensität bis zu tausendmal schwächer ist als tagsüber unter freiem Himmel. Nach Sonnenuntergang setzen wir uns dann immer noch künstlichem Licht aus. Wir leben also in einer Dauerdämmerung. Unter diesen Umständen hinkt unsere innere Uhr hinterher, so dass wir zwar immer später einschlafen können, aber immer noch zu traditionell frühen Zeiten zur Arbeit gehen müssen. Wir sind also an Arbeitstagen immer mehr auf Wecker angewiesen und schlafen immer weniger, und versuchen an freien Tagen unseren Schlafmangel wieder auszugleichen.

- Sie haben den Begriff des „sozialen Jetlag“ geprägt, also der Divergenz unserer inneren Uhr von sozialen Alltagsstrukturen. Wie kann dieser überwunden werden?

Schuld am sozialen Jetlag ist vor allem unser Lichtverhalten. Als wir noch vorwiegend draußen gearbeitet haben und nachts kein elektrisches Licht anzünden konnten, war unsere Innenzeit mit der Außenzeit, mit den sozialen Zeitstrukturen im Einklang. Wir erwachten morgens früh von alleine und schliefen abends früh genug ein, um unser Schlafsoll zu erfüllen. Heute stimmt unsere Innenzeit nicht mehr mit der sozialen Zeit überein, die Innenzeit wird immer später und die soziale Zeit bleibt relativ konstant. Dem sozialen Jetlag können wir mit zwei Maßnahmen entgegenwirken: Einmal sollten wir die Arbeitszeiten auf allen Ebenen und in allen Sparten unserer Wirtschaft flexibilisieren, so dass die Menschen wieder in dem von der inneren Uhr vorgegebenen Zeitfenster schlafen können und keinen Wecker brauchen. Dann müssen sie auch nicht die Hälfte ihrer arbeitsfreien Tage verschlafen, um das arbeitswöchentliche Defizit auszugleichen.

Zum anderen sollte die Architektur und die Lichtindustrie wieder viel (blauhaltiges) Tageslicht vom Dach in die Räume „spiegeln“ (große Fenster sind dafür nicht genug und eine elektrische Lösung ist zu teuer und umweltschädlich). Die künstliche Beleuchtung muss intelligent dynamisch sein. Das heißt, sie muss nach Sonnenuntergang die Blaulichtanteile aus der Beleuchtung nehmen, ohne unsere Sehleistung zu schwächen. Das sind sicherlich schwierige Aufgaben, ich bin aber optimistisch, dass diese Fortschritte machbar sind.

- Welches sind für Sie die vielversprechendsten chronobiologischen Forschungen im Moment?

Das Wunderbare an der Chronobiologie ist ihre Vielseitigkeit und Interdisziplinarität – von der Molekularbiologie und der Metabolismus-Forschung bis zur Arbeitsmedizin und Kognitionsforschung. Auf der molekularen Ebene entdecken Chronobiologen gerade biochemische Uhrwerke in der Zelle, die wahrscheinlich in der Evolution viel früher entstanden sind als die genetischen Uhrwerke, die Ende des letzten Jahrhunderts als erstes entdeckt wurden. Auf der physiologisch-medizinischen Ebene bringt die Chronobiologie erste Erkenntnisse ans Licht wie die innere Uhr mit dem Stoffwechsel zusammenarbeitet und wie sie an der Entstehung von Krankheiten beteiligt ist. Auf der arbeitsmedizinischen Ebene beginnen wir langsam zu verstehen, wie wir Arbeitszeiten individuell anpassen können, so dass selbst Schichtarbeit weniger gesundheitsschädlich werden könnte. Es sind spannende Zeiten in der chronobiologischen Forschung.

- Auf dem Jahreskongress der DGSM werden Sie über das „Human Sleep Project“ berichten. Womit beschäftigt sich dieses Projekt und welche ersten Ergebnisse konnten Sie verzeichnen?

Wir haben in der Chronobiologie die Erfahrung gemacht, dass man unglaublich viel lernen kann, wenn man die Forschung aus dem Labor in den Alltag trägt. Dies hat sich das „Human Sleep Project“ (HSP) nun auch für die Erforschung des Schlafs zur Aufgabe gemacht. Obwohl wir teilweise die biochemischen und neuronalen Prozesse, die Schlaf initiieren, steuern und aufrecht erhalten bis ins Detail kennen, haben wir immer noch keine Antworten auf die einfachsten Fragen. Wie viel Schlaf braucht denn ein Individuum oder wie kann man denn Schlafqualität im Alltag objektiv messen, sind Beispiele für solche grundlegenden Fragen. Im HSP wollen wir den Schlaf im Kontext, das heißt im individuellen Alltag über viele Wochen in Tausenden von Menschen messen. Hierfür müssen zahlreiche neue Methoden entwickelt werden, die dieses ambitionierte Ziel möglich machen. Prinzipiell steht eine Internet-Plattform im Zentrum des HSP über die jeder Interessierte seine Daten hochladen kann (z.B. Aufzeichnungen der Bewegungsaktivität) und dann eine circadiane und eine Schlafanalyse erhalten. So wird das HSP eine umfassende Datenbank anlegen, die wissenschaftlich genutzt werden kann, und die Teilnehmer können ihr Verhalten analysieren, verstehen und eventuell zu ihren Gunsten ändern. Die ersten Erfolge der Methodenentwicklung und die ersten Ergebnisse einer solchen Datenbank werden Inhalt meines Vortrags auf dem DGSM-Kongress sein.

- Sie plädieren dafür, dass zumindest für Oberstufenschüler die Schule eine Stunde später beginnen soll und dass Arbeitgeber offen sein sollten für einen flexiblen Beginn ihrer Beschäftigten je nach deren Chronotyp. Ließe sich das gesellschaftlich durchsetzen?

Ebenso wie ich für eine Flexibilisierung am Arbeitsplatz bin, plädiere ich dafür, dass die Schulzeiten auf die biologischen Bedürfnisse von Jugendlichen eingehen – die inneren Uhren von 14 bis 21 Jährigen gehören zu den spätesten in der Bevölkerung (aus biologischen Gründen!). Ziel eines späteren Schulbeginns ist eine Verbesserung der Lernsituation von Jugendlichen. Spättypen erreichen nachweislich schlechtere Abiturnoten als Frühtypen. Dieser Diskrimination muss ein Ende gesetzt werden. Außerdem kann sich ein Land, dessen einziger Rohstoff in den Gehirnen der Menschen und damit in ihrer Ausbildung liegt, keine Mängel in der Lehr- und Lernwelt erlauben. Diese Welten müssen daher auch zeitlich optimiert werden und zwar vor allem für die Lernenden und nicht so sehr für die Lehrenden. Ich schlage seit Jahren in Deutschland vor, mit ausgewählten Schulen Pilotprojekte durchzuführen und wissenschaftlich zu begleiten. Leider ist es dazu nie gekommen. Meine Kollegen in England führen nun solche Versuche in großem Stil an vielen Schulen durch. Dabei wäre es hierzulande viel wichtiger – in England beginnen die meisten Schulen nämlich erst um 9.00 Uhr!

- Wie könnte man die besondere Gefährdung von Schicht- und Nachtarbeitern verbessern?

Indem man bei der Schichtplanung auf den Chronotyp des einzelnen Arbeitnehmers eingeht und indem man genaue Messungen macht, welche Rotationspläne für welchen Menschen (Spät- und Frühtyp, jung und alt) am geeignetsten sind. Beides wird derzeit intensiv erforscht und wird potentiell die Gefährdung von Schichtarbeitern drastisch verringern. Wichtig sind dabei aber auch rechtliche und gesellschaftliche Veränderungen. Sonderzuschläge sollten nicht mehr nur für die Nachtschichten bezahlt werden, sondern einfach und allein für die Forderung des Arbeitgebers in Schichten zu arbeiten. Nur wenn die alleinigen finanziellen Anreize für die Nachtschichten wegfallen, lassen sich gesundheitsförderliche Schichtpläne durchsetzten. Außerdem sollten Mittel und Wege gefunden werden, die wenigstens in der Industrie Arbeiten zwischen drei und sechs Uhr unnötig machen. Diese Maßnahmen werden die Situation von Schichtarbeitern mit Sicherheit verbessern.

- Welche Forderungen stellen Sie hinsichtlich der Berücksichtigung von chronobiologischen Aspekten im Lebens- und Arbeitsrhythmus der Menschen an Politik und Gesellschaft?

Mehr Flexibilität, mehr Toleranz, Fördermaßnahmen für neue Lichtarchitektur. Mehr Respekt vor dem Schlaf, der dem Wachsein nichts nimmt sondern ihm zuträgt.

- Noch eine letzte Frage: Können aus ihrer Sicht die neuen Apps oder iHealth Tracker irgendetwas zu einer besseren Schlafqualität beitragen?

Im Zuge des Ausbruchs der Forschung aus dem Versuchslabor in die reale Welt – in den alltäglichen Kontext – helfen alle Selbst-Mess-Geräte. Nur sind oft die Methoden, die diese Geräte verwenden, um Schlaf zu analysieren weder transparent noch wissenschaftlich validiert. Beides gehört zu den Aufgaben des Human Sleep Projekts. Diagnosen des individuellen Schlafverhaltens sollten nur akademisch ausgebildete Fachkräfte geben, mit Hilfe von transparenten und validierten Methoden. Das heißt, die vielen Geräte sind hervorragend, die Auswertung der gesammelten Daten sollte man unabhängigen Spezialisten überlassen. Die Daten-Plattform des Human Sleep Projects wird dafür die notwendigen Voraussetzungen schaffen.

Prof. Till Roenneberg hält auf der Jahrestagung der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin (DGSM) am 5. Dezember 2014 um 9 Uhr im Congresssaal I+II des Congresscentrum Ost Koelnmesse in Köln einen Vortrag mit dem Titel „The Human Sleep Project – Rahmen, Ziele und erste Ergebnisse“. Medienvertreter sind herzlich dazu eingeladen!

Kontakt für Rückfragen: Conventus Congressmanagement, Presse- und Öffentlichkeitsarbeit, Romy Held, Tel.: 03641/3116280, romy.held@conventus.de

Samstag, 22. November 2014

Nicht im Wasser, sondern in der Erdkruste.


institution logo
Das Leben begann in der Erdkruste 

Beate Kostka M.A. 
Ressort Presse - Stabsstelle des Rektorats
Universität Duisburg-Essen 

Wo und wie entstand auf unserem blauen Planeten das Leben? In der Erdkruste, behaupten der Geologe Prof. Dr. Ulrich Schreiber und der Physikochemiker Prof. Dr. Christian Mayer von der Universität Duisburg-Essen (UDE), und können das auch beweisen. Ihre aufsehenerregende These macht gerade in Expertenkreisen Furore.

Worum geht es? Was auf der jungen Erde vor mehr als 30 Millionen Jahren los war, lässt sich heute nur sehr schwer rekonstruieren. Erst recht, welche Bedingungen für die Entstehung von Leben vorherrschten. Wissenschaftler beschränkten sich deshalb bislang eher auf eng begrenzte Aussagen zu einzelnen Reaktionen. Als möglicher Ort für das Aufkommen erster organischer Materie wurden alle möglichen Lokalitäten auf der Erdoberfläche diskutiert: von der Tiefsee bis hin zu flachen Tümpeln. In letzter Zeit wurden mangels plausibler Alternativen sogar außerirdische Regionen, wie der Mars oder der Weltraum insgesamt, als Lösung vorgeschlagen.

Vernachlässigt wurde dagegen der Bereich der Erdkruste. Eigentlich unlogisch, denn genau hier, in den tiefreichenden tektonischen Störungszonen mit Kontakt zum Erdmantel, sind die Verhältnisse optimal, so Prof. Schreiber. Von dort steigen Wasser, Kohlendioxid und andere Gase auf, wie heute noch in der Eifel. Sie enthalten alle erforderlichen Stoffe, die man für organisch-biologische Moleküle benötigt. Und mit ihnen begann das Leben.

Das überzeugendste Argument, dass es in der Erdkruste losging, ist das Kohlendioxid. Denn ab einer Tiefe von etwa 800 Metern wird es zugleich flüssig und gasförmig („überkritisch“). Mayer: „Mit diesem besonderen Zustand können wir viele Reaktionen erklären, die im Wasser nicht funktionieren. Kohlendioxid wirkt dann nämlich wie ein organisches Lösungsmittel und erweitert die Zahl der möglichen chemischen Reaktionen erheblich.“ Darüber hinaus bildet es mit Wasser Grenzflächen, die schrittweise zu einer Doppelschicht-Membran führen, das wichtigste Strukturelement der lebenden Zelle. 

Neu ist, so Prof. Mayer, dass das UDE-Modell den Entstehungsprozess umfassend beschreibt und mehrere Probleme löst: die Molekülherkunft, die Aufkonzentrierung, die Energieversorgung und die Membranbildung. Im Labor ließen sich bereits diese grundlegenden Schritte auf dem Weg zu einer Zelle nachweisen: Seien es erste zellähnliche Strukturen oder die Entstehung komplexer Moleküle wie Proteine und Enzyme. „Besonders attraktiv für das Erklärungsmodell ist zudem die Tatsache, dass diese Entstehungsbedingungen schon in bestimmten Gesteinen aus der Frühzeit der Erde nachgewiesen werden konnten“, so Chemieprof. Oliver Schmitz.

In winzigen Flüssigkeitseinschlüssen, wie sie in uralten australischen Gangquarzen vorkommen, fanden die Wissenschaftler eine Vielzahl organischer Stoffe aus der Frühzeit der Erde. Weil sie während der Kristallbildung eingeschlossen wurden, haben sie sich bis heute erhalten. Sie helfen dabei, die Ergebnisse der Laborversuche mit der Wirklichkeit abzugleichen. 

Weitere Informationen: 
Prof. Dr. Ulrich Schreiber, Geologie, T. 0201/183-3100, ulrich.schreiber@uni-due.de, Prof. Dr. Christian Mayer, Physikalische Chemie, T. 0201/183-2570, christian.mayer@uni-due.de, Prof. Dr. Oliver Schmitz, Applied Analytical Chemistry, T. 0201/183-3950, oliver.schmitz@uni-due.de 

Redaktion: Beate H. Kostka, Tel. 0203/379-2430

Weitere Informationen: https://www.uni-due.de/geologie/forschung/origin.shtml

Donnerstag, 20. November 2014

Die Bildung von Neuronen.

aus derStandard.at, 6. November 2014, 18:32

Forscher beobachten Entwicklungsprozess von Gehirnzellen
Wissenschafter des IST Austria fanden heraus, wann, wie oft und wie sich Stammzellen teilen, um Nervenzellen einer bestimmten Hirnregion zu bilden


Klosterneuburg- Die Entwicklung von Gehirnzellen folgt einem strengen Programm. Dabei ist festgelegt, wann, wie oft und wie sich Vorläuferzellen teilen, um die Nervenzellen einer bestimmten Hirnregion zu bilden. Diese Abfolge konnten Forscher des Institute of Science and Technology (IST) Austria in Klosterneuburg nun mithilfe einer speziellen Methode beobachtet, berichten sie im Fachjournal "Cell".

Dem internationale Forscherteam um den Neurobiologen Simon Hippenmeyer gelang es, mit bisher unerreichter Auflösung mitzuverfolgen, wie sich die Nervenzellen (Neuronen) des Neocortex bilden. Der Neocortex bildet den multisensorischen und motorischen Teil der Großhirnrinde von Säugetieren und macht beim Mensch den größten Teil des Gehirns aus.

Sichtbar eingefärbt

Am Beginn der Entwicklung stehen Stammzellen, sogenannte "Radiale Gliavorläuferzellen" (RGP). Wie sich diese teilen, haben die Forscher mithilfe der sogenannten "Mosaic Analysis with Double Markers" (MADM) untersucht. Mithilfe dieser Technik lassen sich im dichten Gehirngewebe individuelle Neuronen und ihre feinen Äste rot und grün einfärben, wodurch mit dem Fluoreszenzmikroskop wiederum die Entwicklung einzelner Zellen verfolgt werden kann, erklärt Hippenmeyer.

So fanden die Forscher heraus, dass die RGP einem auffallend vorherbestimmten und koordinierten Entwicklungsprogramm folgen. Demnach teilen sich zunächst alle Gliavorläuferzellen symmetrisch: Aus einer entstehen also zwei. So wird ein größerer Pool an derartigen Stammzellen geschaffen. Nach einiger Zeit beginnen diese, sich asymmetrisch zu teilen: Es entsteht erneut eine RGP und eine Nervenzelle. Sobald die Stammzellen in diese Phase eintreten, beginnt offenbar ein bestimmtes Programm zu laufen und die RGP produziert eine definierte Einheit von rund acht Neuronen, so Hippenmeyer.

Weitreichende Verknüpfungen

Die Wissenschafter gehen davon aus, dass die RGP eine große Anzahl verschiedener, wenn nicht sogar alle Neuronen-Typen des Neocortex bilden. Im Laufe der Hirnentwicklung bleiben vereinfacht gesagt früh produzierte Neuronen nahe an der aus RGP gebildeten Schicht, während später hergestellte Nervenzellen an den "Frühgeborenen" vorbei wandern und weiter außen gelegene Schichten bilden. Dabei unterscheiden sie sich auch in ihrer Funktion: Während frühgebildete Neuronen hauptsächlich Verbindungen mit anderen Gehirnarealen außerhalb des Neocortex bilden, verknüpfen sich die "Spätgeborenen" vor allem mit anderen Nervenzellen innerhalb des Neocortex auf derselben oder der gegenüberliegenden Gehirnhälfte.

Etwa jede sechste RGP ist nach Ablauf des Neuronen-Produktionsprogramms noch fähig, sogenannte Gliazellen zu bilden. Von diesen gibt es im Gehirn deutlich mehr als Neuronen, sie haben eine wichtige Stütz- und Versorgungsfunktion für die Nervenzellen. Auch hier könnte diese deterministische Form der Produktion eine wichtige Rolle dabei spielen, das richtige Verhältnis von Neuronen zu Gliazellen sicherzustellen. (APA/red, )


Link Cell

Montag, 17. November 2014

Sie wird nicht heller.





















aus Die Presse, Wien, 15. 11. 2014

Wo bleibt die dunkle Materie? 
Nur fünf Prozent des Universums seien sichtbar, sagt die Kosmologie, der Rest sei dunkle Energie und dunkle Materie. Jene ist extrem seltsam, aber auch diese lässt rätseln. 

von Thomas Kramar 

"There's no dark side of the moon really, as a matter of fact it's all dark." Mit diesen gemurmelten Worten endet das berühmte Pink-Floyd-Album „Dark Side Of The Moon“ aus dem Jahr 1973; wenn man grob rundet, könnte man sie als Kurzfassung des Weltbilds sehen, das die Kosmologie uns im Jahr 2014 bietet. Diesem zufolge ist zwar nicht alles dunkel im Universum, aber immerhin 95,1 Prozent von dessen Energie respektive Masse, was, wie uns Einstein gelehrt hat, aufs Selbe hinausläuft. Das heißt: Nur 4,9 Prozent des Universums sind für uns sichtbar, bestehen also im Wesentlichen aus Atomen. Der Rest ist dunkel: 26,8 Prozent dunkle Materie, 68,3 Prozent dunkle Energie. Diese Aufteilung bescherte uns das Planck-Weltraumteleskop, das 2012 die kosmische Hintergrundstrahlung maß. Davor galten die Daten der Raumsonde WMAP, sie ergaben 72 Prozent dunkle Energie und 23 Prozent dunkle Materie.

Was die dunkle Energie sein soll, darüber sind sich die Physiker weder im Klaren noch einig. Klar ist nur, wozu sie dienen soll: Sie soll erklären, wieso sich das Universum nicht nur ausdehnt, sondern auch immer schneller ausdehnt. Dass es das tut, glauben die Kosmologen seit 1998, sie schlossen es aus Messungen an Supernovas. Im selben Jahr erfand der Astrophysiker Michael Turner den Begriff dunkle Energie. Am ehesten kann man sie sich als Feld vorstellen, das den Raum gleichmäßig erfüllt, nur mit sehr seltsamen Eigenschaften.

Defizit in der Milchstraße. 

Die dunkle Materie ist nicht nur etwas fassbarer, sondern auch schon länger im Munde der Physiker: seit 1932. Der niederländische Astronom Jan Hendrik Oort prägte den Begriff. Er fand heraus, dass die Sonne nicht im Zentrum der Milchstraße sitzt (sondern in deren Außenbezirken) und – wie alle Sterne der Milchstraße – um dieses Zentrum rotiert. Zusammengehalten wird die Milchstraße, wie alle größeren Gebilde im All, durch die Schwerkraft, also durch die Anziehungskraft, die ihre Sterne (und sonstige Bewohner) aufeinander ausüben. Doch, so Oort, die Massen der bekannten Sterne in der Scheibe der Milchstraße reichen nicht aus, um zu erklären, warum diese so dünn ist.
Ähnliches befand der Schweizer Physiker Fritz Zwicky 1933 über ein wesentlich größeres und ferneres Objekt: den Comahaufen, der aus über hundert Galaxien besteht. Auch er hat nicht genug sichtbare Masse, um zu erklären, dass er zusammenhält.
Da wird man halt einige Sterne übersehen haben, wird sich so mancher Leser denken. Und das ist auch schon die handgreiflichste Erklärung für die dunkle Materie: Sie sei nicht grundsätzlich unsichtbar, sie bestehe aus ganz normalen Teilchen, denen die elektromagnetische Wechselwirkung nicht fremd ist; man sehe die entsprechenden Objekte schlicht und einfach nicht, weil sie nicht leuchten und auch nicht genug beleuchtet werden.
Die Astronomen denken da etwa an Braune Zwerge, das sind Sterne, die zu klein sind, um je mit der Wasserstofffusion zu beginnen, die also auch nicht leuchten. Im Allgemeinen nennt man solche Objekte Machos, das ist ein Akronym für „massive astrophysical compact halo objects“, Halo steht für den kugelförmigen Teil von Galaxien.
Die Suche nach diesen Machos verlief enttäuschend, heute glaubt man nicht mehr, dass sie ins Gewicht fallen, wenn's um die dunkle Materie geht. Das Gegenteil eines Macho nennt man auf Englisch einen Wimp, einen Schwächling, und die Physiker haben ein entsprechendes Akronym: Sie kürzen „weakly interacting massive particles“ mit Wimps ab. Diese – bisher hypothetischen – Teilchen sollen einem bekannten, aber ziemlich geisterhaften Teilchen, dem Neutrino, insofern ähneln, als sie wie dieses nur die schwache Kernkraft und die Gravitation spüren, aber nicht die anderen beiden Grundkräfte der Physik: starke Kernkraft und Elektromagnetismus.

Supersymmetrie. 

Es gibt eine beliebte, weil elegante Theorie, die solche Wimps bescheren könnte: die Supersymmetrie. Nach dieser Theorie gibt es zu jedem bekannten Elementarteilchen ein Pendant, das sich von diesem im Spin wesentlich unterscheidet. Zum Beispiel zum Neutrino ein Neutralino, zu den Quarks sogenannte Squarks, zum Elektron ein Selektron, zum Photon ein Photino. Damit würde sich der Zoo der Elementarteilchen verdoppeln. Allerdings weiß man nicht, welche Massen diese supersymmetrischen Teilchen haben sollen, und man hat bisher in allen Teilchenbeschleunigern keine Spur von ihnen gefunden.
Und auch nicht bei anderen Experimenten, die darauf beruhen, dass solche Wimps – wie die Neutrinos – zwar nur selten und schwach mit anderen Teilchen in Wechselwirkung treten, aber eben doch manchmal. Ein solches Experiment läuft etwa in den Black Hills von Dakota, ungefähr eine Meile unter dem Erdboden, im Large Underground Xenon Experiment, lichtvoll als Lux abgekürzt. Dort warten 350 Kilo flüssiges Xenon unter strenger Beobachtung darauf, dass ein Wimp daherkommt und mit einem Xenon-Atomkern in Wechselwirkung tritt.
Bisher vergeblich. „Es ist ein signifikanter Fehlschlag“, bekannten die Lux-Forscher vor einem Jahr: „Wir sollten schon tausende Ereignisse gesehen haben, aber wir sehen einfach keines.“ Sie widersprachen damit Berichten von ähnlichen Experimenten, man hätte vielleicht ein Wimp-Ereignis beobachtet, und sie schlossen dezidiert aus, dass Wimps, die leichter sind als zehn Protonen, in Dakota aufgetaucht sind.
Was auch Theoretikern zu denken gibt. „Wir suchen jetzt schon ganz schön lang nach Wimps“, sagt Yonit Hochberg vom Berkeley Laboratory, „aber wir haben noch keine gefunden. Daher glaube ich, dass es wichtig ist, outside the boxzu denken.“ Das tat er. Ihm schweben Teilchen vor, die miteinander sehr stark wechselwirken – und auch mit den bekannten Teilchen, wenn auch nur sehr schwach (Physical Review Letters 113, 171301). Er nennt sie Simps, für „strongly interacting massive particles“. Sie hätten eine skurrile Eigenschaft – wenn drei Simps zusammenstoßen, kommen zwei Simps heraus – und eine den Kosmologen sehr willkommene: Sie würden eine Verteilung von Galaxien ergeben, die der beobachteten Verteilung entspricht.

Neutrinos sind zu heiß. 

Nicht zuletzt das erwartet man sich ja von der dunklen Materie: Sie soll erklären, warum sich die heutigen Strukturen im Universum so gebildet haben, wie sie es getan haben: Bottom-up nämlich, erst Sterne, dann Galaxien, dann Galaxienhaufen. Das war auch das wesentliche Argument dafür, dass die – eigentlich als Kandidaten naheliegenden – Neutrinos heute nicht als Hauptbestandteil der dunklen Materie infrage kommen: Sie sind zu schnell, zu leicht, zu heiß, sie würden ein Top-down-Szenario der Strukturbildung bringen.
Diesen Nachteil kann offenbar ein unübersehbarer Vorteil nicht aufwiegen: Man kennt sie, man kann sie beobachten, messen. Das kann man von anderen Kandidaten – zu nennen wären noch weitere hypothetische Teilchen wie Axionen – nicht sagen. So bleibt, ganz abgesehen von der noch rätselhafteren dunklen Energie, ein Großteil der Materie im All vorderhand dunkel. Was für ein seltsames Weltbild.


Samstag, 15. November 2014

Evolution und Informatik.


Foto: Ingo Rechenberg 
institution logo

Darwin als Inspirationsquelle für Informatiker

Claudia Hilbert
Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena
    Interdisziplinäres Symposium zu Evolutionstechniken vom 18.-20. November an der Universität Jena
    Mutation, Zufall, Auslese: Solche Begriffe sind vor allem aus der Evolutionsbiologie bekannt. Zunehmend lassen sich jedoch auch Informatiker und Ingenieure bei der Entwicklung von Algorithmen von der Natur inspirieren. Eine wichtige Grundlage hierfür legte im Herbst 1964 der damalige Student Ingo Rechenberg: Bei einem Experiment im Windkanal bestimmten er und sein Kommilitone Hans-Paul Schwefel mithilfe des Evolutionsprinzips die ideale Form von Flügeltragflächen mit geringstem Widerstand. „Hätten sie die verschiedenen Einstellungen des Flugzeugflügels systematisch getestet, hätte es Jahre gedauert. Doch durch das Spiel von Zufall und Auslese benötigten sie nur wenige Stunden“, erklärt Wissenschaftshistoriker PD Dr. Rudolf Seising vom Ernst-Haeckel-Haus der Universität Jena. Am 18. November 1964 berichtete schließlich auch der SPIEGEL in dem Artikel „Zickzack nach Darwin“ darüber.

    Genau 50 Jahre später erinnert ein interdisziplinäres Symposium an der Universität Jena an das Windkanal-Experiment und beleuchtet Evolution, Technik und Informatik in Geschichte, Gegenwart und Zukunft. Die Tagung „Ein halbes Jahrhundert Zickzack mit Darwin. Evolution – Evolutionäre Algorithmen – Artificial Life“ vom 18. bis 20. November richtet sich an Fachwissenschaftler und Studierende aus den Bereichen Biologie, Informatik, Technik und Philosophie sowie an die interessierte Öffentlichkeit. 

    Veranstalter des Symposiums sind das Institut für Informatik und das Institut für Geschichte der Medizin, Naturwissenschaft und Technik – Ernst-Haeckel-Haus der Universität Jena. Wissenschaftler vor allem deutscher Hochschulen sowie aus Sheffield und Brüssel berichten über Evolutionstheorien in der Biologie, Anwendungen des Evolutionsprinzips in der Informatik und über aktuelle Entwicklungen im Bereich „Artificial Life“. Darüber hinaus beschäftigt sich das Symposium mit philosophischen und ethischen Fragen, beispielsweise zum moralischen Status künstlichen Lebens und zum Thema Schwarmintelligenz. 

    Auch Ingo Rechenberg und Hans-Paul Schwefel – inzwischen emeritierte Professoren in Berlin und Dortmund – sind zu Gast: Rechenbergs Vortrag über die „Sternstunden der Theorie der Evolutionsstrategie“ beginnt am 18. November um 17 Uhr, anschließend findet eine Podiumsdiskussion mit ihm und Hans-Paul Schwefel statt. „Die beiden gelten als Pioniere der Evolutionstechnik und es ist eine absolute Besonderheit, sie gemeinsam bei einer Tagung zu erleben“, betont Rudolf Seising.

    Der Wissenschaftshistoriker hat das Symposium initiiert und gemeinsam mit seinem Kollegen aus dem Ernst-Haeckel-Haus, Dr. Thomas Bach, und dem Lehrstuhlinhaber für Theoretische Informatik, Prof. Dr. Tobias Friedrich, organisiert. „Unser Ziel ist es, die einzelnen Fachwissenschaften auch einmal historisch zu betrachten und so die Forscher der verschiedenen Disziplinen zusammenzubringen“, erläutert Bach, der kommissarischer Leiter des Ernst-Haeckel-Hauses ist. Tobias Friedrich ergänzt: „Sich mit der Geschichte des eigenen Forschungsgebietes zu beschäftigen, ist nicht nur unglaublich spannend, sondern es erweitert auch den eigenen Horizont.“

    Das Symposium beginnt am 18. November um 15 Uhr und ist gleichzeitig als Workshop im Rahmen des EU-Projektes „SAGE (Speed of Adaption in Population Genetics and Evolutionary Computation)“ konzipiert, an dem Tobias Friedrich beteiligt ist. Ein internationales Forscherteam untersucht darin, wie sich der Erfolg der Evolution auf die Informatik übertragen lässt.

    Die Vorträge und die Podiumsdiskussion am 18. November finden im Großen Tagungsraum im JenTower (29. OG, Leutragraben 1) statt, die Veranstaltungen an den beiden anderen Tagen im Großen Saal im Haus auf der Mauer (Johannisplatz 26). Der Eintritt ist frei.

    Mehr Informationen sind zu finden unter: http://evolutionsstrategien.tumblr.com

    Kontakt:
    Prof. Dr. Tobias Friedrich
    Institut für Informatik der Universität Jena
    Ernst-Abbe-Platz 2, 07743 Jena
    Tel.: 03641 / 946320
    E-Mail: friedrich[at]uni-jena.de 

    PD Dr. Rudolf Seising, Dr. Thomas Bach
    Ernst-Haeckel-Haus der Universität Jena
    Berggasse 7, 07743 Jena
    Tel.: 03641 / 949500 bzw. 949503
    E-Mail: rudolf.markus.seising[at]uni-jena.de, thomas.bach[at]uni-jena.de

    Freitag, 14. November 2014

    Lächeln: Ausdruck oder Kommunikation?

    aus scinexx

    Lächeln schafft Vertrauen
    Als authentisch empfundenes Lächeln fördert die Bereitschaft zur Zusammenarbeit

    Ein Lächeln sagt mehr als tausend Worte: Empfinden wir das Lächeln unseres Gegenüber als ehrlich, dann halten wir ihn automatisch auch für vertrauenswürdiger. Dies hat ein internationales Forscherteam nun in einem Verhaltensexperiment bestätigt. Mitmenschen sind demnach kooperativer, wenn man ihnen mit einem überzeugenden Lächeln begegnet. Die Studie zeigt aber auch: Wir lächeln nicht nur, wenn wir es ehrlich meinen, sondern vor allem dann, wenn es sich lohnt.

    Lächeln ist ein elementarer Bestandteil der Kommunikation zwischen Menschen in jeder Gesellschaft. Der Ursprung und die genaue Bedeutung dieser Geste sind allerdings nicht vollständig geklärt. Manche Forscher vermuten, dass das Lächeln im Laufe der Evolution aus einer Art Unterwerfungsgeste heraus entstanden ist, wie bei Affen beobachtet werden kann. Sozial tiefer gestellte Tiere ziehen dabei ihre Lippen zurück und stellen ihre Zahnreihen bloß. Dadurch zeigen sie ihre Unterwürfigkeit gegenüber dominanten Artgenossen an.

    Kommunikation oder Ausdruck der Gefühle?

    Beim Menschen könnte sich die soziale Funktion des Lächelns erweitert und teilweise umgekehrt haben: Auch dominante Individuen verwenden eine imitierte Unterwerfungsgeste und signalisieren dadurch, dass sie vertrauenswürdig sind. Es ist jedoch immer noch unklar, ob das menschliche Lächeln tatsächlich der Kommunikation dient oder ob es lediglich ein unwillkürlicher Ausdruck der eigenen Gefühlslage ist.

    Manfred Milinski vom Max-Planck-Institut für Evolutionsbiologie in Plön und seine Kollegen haben deshalb zusammen ein Verhaltensexperiment entwickelt, mit dem sie die Wirkung des Lächelns auf die Kooperationsbereitschaft messen können. Jeweils zwei Versuchsteilnehmer mussten dabei zusammenarbeiten, um einen geringen Geldbetrag zu erhalten. Nur einer der beiden Probanden bekam von den Forschern zunächst vier Euro zur Verfügung gestellt. Der andere Teilnehmer, der sogenannte Treuhänder, stellte sich dann in einem kurzen Videoclip vor und bat seinen Mitspieler, ihm den Geldbetrag zu schicken. Der Text war dabei vorgegeben, es kam also ganz auf die vermittelte Glaubwürdigkeit an – und besonders auf das Lächeln.

    Vertrauen zahlt sich aus

    Der erste Proband hatte nun die Wahl, ob er dem Treuhänder vertraut und ihm das Geld zunächst überlässt, oder ob er es für sich behält. Vertrauen auf den Versuchspartner konnte sich auszahlen: Entschied sich der sogenannte Sender dazu, dem Treuhänder das Geld zu schicken, verdreifachten die Forscher den Betrag. Nun konnte wiederum der Treuhänder entscheiden, wie ehrlich er vorgeht. Er konnte dem Sender ein Drittel oder die Hälfte des Geldes zurückschicken, oder auch einfach alles für sich behalten. Mit einem vertrauenswürdigen Treuhänder erhielt der Sender so mehr Geld, als wenn er den ursprünglichen Einsatz behalten hätte.

    Die Wissenschaftler dokumentierten zunächst, wie die Sender und auch unbeteiligte Probanden den vorgeführten Videoclip bewerteten. Diese mussten angeben, für wie attraktiv, intelligent und vertrauenswürdig sie die Person in dem Video halten und ob sie deren Lächeln als authentisch empfinden. "Die Personen, deren Lächeln als echt empfunden wurde, galten auch als vertrauenswürdig", fasst Milinksi die Beobachtungen zusammen. Und das zu Recht, denn im Schnitt erwiesen sich diese Menschen auch als kooperativer.

    Höherer Gewinn führt zu häufigerem Lächeln

    "Am Lächeln schätzte der Sender tatsächlich die Wahrscheinlichkeit ab, mit der der Treuhänder mit ihm teilen würde", so der Wissenschaftler weiter. Ein als authentisch empfundenes Lächeln sei demnach ein ehrlich gemeintes Signal: Es dient der Kommunikation und zeigt die eigene Kooperationsbereitschaft an. Wenn es auf gerechtfertigtes Vertrauen ankommt, solle das Lächeln andere zur Zusammenarbeit animieren.

    In einem weiteren Durchgang verdoppelten die Wissenschaftler den Einsatz von vier auf acht Euro. Bei Spielen mit möglichem höheren Gewinn lächelten die Treuhänder häufiger in einer als authentisch empfundenen Art und Weise. Offenbar fällt es leichter, ehrlich zu lächeln, wenn ein höherer Gewinn winkt. Da das authentische Lächeln unbewusst entsteht und als nicht willentlich beeinflussbar gilt, scheint es Kosten zu haben, die man unbewusst nur aufbringt, wenn es sich auszahlt – und man es ehrlich meint. (Evolution and Human Behavior, 2014; doi: 10.1016/j.evolhumbehav.2014.08.001)

    (Max-Planck-Gesellschaft, 07.11.2014 - AKR)


    Nota. - Ausdruck oder Kommunikation? 
    Oder fragen wir anders: Welchen Erkenntniswert hätte die Antwort auf diese Frage?
    (Man lächelt wohl auch am Telefon oder wenn man mit sich allein ist; lohnt sich das?)
    JE


    Donnerstag, 13. November 2014

    Inhibitorische Kontrolle: "Der Mensch kann nein sagen."


    aus scinexx

    Zweisprachigkeit wirkt wie Gehirnjogging
    Das Gehirn lernt, irrelevante Informationen effektiver auszublenden

    Besser als jedes Sudoku oder Kreuzworträtsel: Wer zwei Sprachen lernt und spricht, trainiert seine Denkleistung. Denn das Gehirn lernt bei Zweisprachigen, irrelevante Informationen effektiver auszublenden, wie US-Forscher herausgefunden haben. Das spart Ressourcen und könnte auch erklären, warum zweisprachige Alzheimer-Patienten erst später Symptome entwickeln.

    Zweisprachigkeit trainiert das Gehirn

    Wenn wir ein gesprochenes Wort hören, geschieht in unserem Gehirn ähnliches wie beim Tippen einer SMS oder der Eingabe eines Suchworts bei google: Das Gehirn sucht schon während der ersten Silbe nach passenden Wörtern und hält sie vor. Hören wir beispielsweise "Wo…", dann aktiviert das Gehirn bereits "Wolke", "Woche" oder "Wolle". Ist das Wort dann vollständig erklungen, werden im Gehirn die falschen Alternativen unterdrückt, so dass das richtige Wort quasi gewinnt.



    "Diese Auswahl ist entscheidend für unser Sprachverständnis, denn ein Wort kann nicht richtig verstanden werden, solange nicht die richtige Entsprechung ausgewählt wurde", erklären Victoria Marian von der Northwestern University in Evanston und ihre Kollegen.

    Doppelte Arbeit bei Zweisprachigen

    Noch besser muss dieser Filter allerdings bei Zweisprachigen arbeiten, denn bei ihnen sind beide Sprachen gleichzeitig aktiv. Das Gehirn muss bei ihnen deshalb die falschen Alternativen in gleich zwei Sprachen unterdrücken. "Das ist wie eine Ampel: Zweisprachige müssen ständig einer Sprache grün und der anderen rot anzeigen", so Marian. Wie sich dieser Zwang zur ständigen Selektion auf die Denkleistung und das Gehirn auswirkt, haben sie und ihre Kollegen nun erstmals genauer mit Hilfe der funktionellen Magnet-Resonanz-Tomografie untersucht.

    Für ihre Studie absolvierten 17 spanisch-englisch bilinguale und 18 nur englisch sprechende Probanden Sprachaufgaben, während sie im Hirnscanner lagen. Sie hörten jeweils ein gesprochenes Wort, während vier Bilder auf einem Bildschirm erschienen. Eines davon stellte das im Wort Benannte dar, die anderen zeigten entweder völlig andere Objekte oder aber mindestens ein Bild, dessen Bezeichnung ähnlich klang wie das gehörte Wort. Erklang beispielsweise "Wolke", dann war eine Wolke, aber auch ein Wollknäuel zu sehen. Die Probanden sollten durch Knopfdruck das Bild markieren, das das richtige Objekt zeigte.

    Die markierten Hirnareale waren bei einsprachigen Probanden aktiver als bei zweisprachigen

    Sparsamere Aktivität bei Zweisprachigen

    Das Ergebnis: Zwischen den Probanden gab es deutliche Unterschiede. Bei den Einsprachigen wurden zusätzliche Hirnareale aktiv, wenn Bilder ähnlich klingender Begriffe zu sehen waren. Die Aktivität stieg dann vor allem in den Bereichen der Hirnrinde, die für die Handlungskontrolle zuständig sind, wie die Forscher berichten. Bei den Bilingualen war dies nicht der Fall, bei ihnen blieb die Hirnaktivität relativ gleich.

    Nach Ansicht der Wissenschaftler deuten diese Unterschiede darauf hin, dass die Entscheidung darüber, welches intern aktivierte Wort das richtige ist, bei zweisprachigen Personen quasi automatisch abläuft. "Denn wenn man das die ganze Zeit tun muss, dann wird man sehr gut darin, die Wörter zu unterdrücken, die man nicht benötigt", erklärt Marian. Das Gehirn Einsprachiger ist dagegen weniger geübt darin, irrelevante Information zu unterdrücken. "Deshalb läuft diese Selektion bei ihnen nicht automatisch ab, sondern es müssen weitere kognitive Ressourcen dafür mobilisiert werden."


    Effektiver im Alltag

    Das aber könnte bedeuten, dass das Gehirn zweisprachiger Menschen auch bei anderen Anwendungen solcher Filter effektiver arbeitet. "Die inhibitorische Kontrolle ist eines der Kernmerkmale der geistigen Leistung", erklärt Marian. "Ob wir Autofahren oder einen chirurgischen Eingriff durchführen: Immer ist es wichtig, sich auf das zu konzentrieren, was wichtig ist und das zu ignorieren, das unwichtig ist." Tatsächlich zeigen Studien, dass Zweisprachige besser Stimmen aus Störgeräuschen heraushören können.

    Nach Ansicht der Forscher trägt das ständige Selektieren und Unterdrücken der konkurrierenden Sprachen dazu bei, diese inhibitorische Fähigkeit des Gehirns zu stärken. Und das könnte auch erklären, warum zweisprachige Menschen
    erst später Symptome einer Alzheimer-Demenz zeigen: Ihr Gehirn hat genügend Ressourcen, um die Defizite eine Zeitlang auszugleichen. "Eine andere Sprache zu lernen und zu nutzen liefert quasi nebenbei ein Gehirnjogging", so Marian. "Und für diese Art des Trainings ist es nie zu spät." (Brain and Language, 2014)

    (Northwestern University, 13.11.2014 - NPO)


    Nota. - Eigentlich interessant ist an diesem Experiment, dass das Ja zu dem passenden Wort in Wirklichkeit aus einem vielfachen Nein zu den andern Wörtern besteht. Positio und negatio sind nicht gleich-originär, auf einer Tabula rasa wird nicht entweder ein Plus oder ein Minus eingetragen. Sondern die Anmutungen (alias Einfälle) "sind immer schon da", der Entschluss für dieses ist reell immer nur das Ausscheiden der andern Möglichkeiten. Der Mensch muss sein Leben führen heißt: er muss wählen. Wählen heißt nein sagen können.
    JE

    Montag, 10. November 2014

    Pythagoras war nicht an allem schuld.

    In der «Theoria Musicae» (Venedig 1492) tritt Pythagoras als Harmonielehrer in Aktion.
    aus nzz.ch, 30.10.2014, 05:30 Uhr                            In der «Theoria Musicae» (Venedig 1492) lehrt Pythagoras Harmonie

    Pythagoras und die Disharmonie der Welt
    Aus dem Lande der Legenden

    von 

    Pythagoras, der sagenumwobene Philosoph aus dem sechsten vorchristlichen Jahrhundert, habe eines Tages erstaunt vor einer Schmiede innegehalten und mit steigender Erregung dem Lärm eifrigen Gehämmers gelauscht, so die Legende. Er habe nämlich gehört, «wie aus den verschiedenen Tönen bloss eine einzige Harmonie hervortönte». Was verursachte diese Harmonie? Pythagoras untersuchte die Form der Hämmer und liess die Schmiede ihre Hämmer tauschen, doch der gefällige Mehrklang blieb unverändert. Die Harmonie musste somit in den Hämmern selbst liegen. Seine Suche nach der Ursache des Wohlklangs führte Pythagoras zu einem erstaunlichen Ergebnis: Die Gewichte der Hämmer standen in einem präzisen numerischen Verhältnis zueinander, nämlich zwei zu eins für die Oktave, drei zu zwei für die Quinte; und vier zu drei für die Quart.

    Harmonische Verhältnisse

    Dass diese Geschichte eine blosse Legende ist, ist auch daraus ersichtlich, dass das erwähnte Verhältnis zwischen Hammergewicht und Tonhöhe empirisch-physikalisch nicht stimmt. Laut der Erzählung fand Pythagoras bald ähnliche Verhältnisse bei Saiten, welche – durch verschiedene Gewichte gespannt oder aber bei gleicher Spannung passend gekürzt – dieselben harmonischen Verhältnisse aufwiesen. Mit dieser – dieses Mal richtigen – Entdeckung war eine mathematische Harmonielehre geboren, die als «Musica» noch bis in die frühe Neuzeit auf mathematischer Basis als eine der sieben freien Künste an allen höheren Schulen gelehrt werden sollte. Sie begründete zugleich eine Weltsicht, in der alles Gute und Schöne – alles Harmonische also – das Ergebnis mathematischer Proportionen sein musste. Noch im 18. Jahrhunderte bemerkte Immanuel Kant bewundernd, dass Pythagoras mit dieser Idee «ein Projekt entwarf und zustande brachte, das seinesgleichen noch nie gehabt hatte».

    Spätere Versionen dieser legendären Heureka-Szene bei der Schmiede sprechen von fünf Hämmern, die Pythagoras gehört haben soll, wovon einer allerdings lautlich nicht zu den anderen passte. Dieser fünfte Hammer, so erzählt beispielsweise Boethius etwa tausend Jahre später, «wurde verworfen, welcher allen inconsonierend war». Daniel Heller-Roazen hat diesem angeblich aus den Annalen der Geschichte verbannten fünften Hammer ein Buch gewidmet, sozusagen zur Rehabilitation dieses Störenfrieds. Dieses «Sein ohne Mass», zu dessen Symbol Heller-Roazen den fünften Hammer hochstilisiert, habe die wissenschaftlichen und philosophischen Systeme wie ein dunkler Schatten bis in die Moderne verfolgt. Alles, was nicht in saubere Proportionen habe gebracht werden können, sei als irrational, disproportional oder unsagbar verworfen oder, im besten Fall – nämlich bei Kant –, zur Basis der Kategorie des Sublimen erklärt worden.

    Der Autor, Professor für vergleichende Literaturwissenschaft an der Universität Princeton, hätte ein wuchtiges Thema gefunden, wenn die pythagoräische Zahlenlehre in der von ihm behaupteten Ausschliesslichkeit tatsächlich bis in die Neuzeit hinein das Denken über Mass, Zahl und Sein dominiert hätte. Denn es ist wahr, dass für einen strikt pythagoräischen Arithmetiker (wie dies beispielsweise Giordano Bruno gewesen ist) die Eins keine Zahl, sondern die allerletzte Grundeinheit ist, die nicht weiter geteilt werden kann. In dieser Perspektive werden Brüche unmöglich und ist die Welt generell durch Missverhältnisse geprägt. Doch erstens waren nicht alle Arithmetiker Pythagoräer, zweitens ist Pythagoras (wie das nach ihm benannte Theorem beweist) ja auch als Stifter der Geometrie ins europäische Schulprogramm eingegangen, und überhaupt waren Antike, Mittelalter und frühe Neuzeit viel uneinheitlicher, als Heller-Roazen lieb ist. So hatte Pythagoras zwar bis ins 17. Jahrhundert einen festen Platz in den propädeutischen freien Künsten der europäischen Universitäten. Doch im darauffolgenden Philosophieunterricht, zu dem auch die Unterweisung in Naturphilosophie gehörte, herrschte die Ansicht des Aristoteles vor, mathematische Grössen seien keineswegs Archetypen, sondern blosse Abstraktionen physikalischer Vorgänge.

    In der Tonlage des Entdeckers

    Heller-Roazen irrt aber nicht bloss in der Rückschau; seine Thesen zur Gegenwart sind genauso fragwürdig. Die Behauptung, «das homogene Universum der modernen Wissenschaft» lasse keine «Entität» mehr zu, die «mit einer Zahl oder einem Zahlenverhältnis gleichgesetzt werden» könne, ist irrig, denn was anderes sind die Naturkonstanten als genau solche Entitäten? – Der Autor beginnt seine Geschichte schwungvoll und in der Tonlage des erregten Entdeckers. Acht Lektionen will er uns erteilen; und damit dem Leser die Zahlensymbolik seiner Kapiteleinteilung nicht entgeht, stellt er dem Buch eine Definition der Oktave voran. Dass diese von Jean-Jacques Rousseau stammt, soll ihr die Banalität nehmen.

    Doch irgendwann, zwischen Kepler und Kant, verzweifelt der Autor ob der Anstrengung seines Versuchs, die ganze Geschichte menschlichen Irrens aus Pythagoras' angeblicher Verleugnung des fünften Hammers abzuleiten. Das zirpende Vibrato seiner ersten Kapitel geht über in ein Glissando und endet in einem dumpfen Murmeln. Irgendwann hört das Buch auf.

    Daniel Heller-Roazen: Der fünfte Hammer. Pythagoras und die Disharmonie der Welt. Aus dem Englischen von Horst Brühmann. S. Fischer, Frankfurt am Main 2014. 256 S., Fr. 34.90.