Donnerstag, 20. November 2014

Die Bildung von Neuronen.

aus derStandard.at, 6. November 2014, 18:32

Forscher beobachten Entwicklungsprozess von Gehirnzellen
Wissenschafter des IST Austria fanden heraus, wann, wie oft und wie sich Stammzellen teilen, um Nervenzellen einer bestimmten Hirnregion zu bilden


Klosterneuburg- Die Entwicklung von Gehirnzellen folgt einem strengen Programm. Dabei ist festgelegt, wann, wie oft und wie sich Vorläuferzellen teilen, um die Nervenzellen einer bestimmten Hirnregion zu bilden. Diese Abfolge konnten Forscher des Institute of Science and Technology (IST) Austria in Klosterneuburg nun mithilfe einer speziellen Methode beobachtet, berichten sie im Fachjournal "Cell".

Dem internationale Forscherteam um den Neurobiologen Simon Hippenmeyer gelang es, mit bisher unerreichter Auflösung mitzuverfolgen, wie sich die Nervenzellen (Neuronen) des Neocortex bilden. Der Neocortex bildet den multisensorischen und motorischen Teil der Großhirnrinde von Säugetieren und macht beim Mensch den größten Teil des Gehirns aus.

Sichtbar eingefärbt

Am Beginn der Entwicklung stehen Stammzellen, sogenannte "Radiale Gliavorläuferzellen" (RGP). Wie sich diese teilen, haben die Forscher mithilfe der sogenannten "Mosaic Analysis with Double Markers" (MADM) untersucht. Mithilfe dieser Technik lassen sich im dichten Gehirngewebe individuelle Neuronen und ihre feinen Äste rot und grün einfärben, wodurch mit dem Fluoreszenzmikroskop wiederum die Entwicklung einzelner Zellen verfolgt werden kann, erklärt Hippenmeyer.

So fanden die Forscher heraus, dass die RGP einem auffallend vorherbestimmten und koordinierten Entwicklungsprogramm folgen. Demnach teilen sich zunächst alle Gliavorläuferzellen symmetrisch: Aus einer entstehen also zwei. So wird ein größerer Pool an derartigen Stammzellen geschaffen. Nach einiger Zeit beginnen diese, sich asymmetrisch zu teilen: Es entsteht erneut eine RGP und eine Nervenzelle. Sobald die Stammzellen in diese Phase eintreten, beginnt offenbar ein bestimmtes Programm zu laufen und die RGP produziert eine definierte Einheit von rund acht Neuronen, so Hippenmeyer.

Weitreichende Verknüpfungen

Die Wissenschafter gehen davon aus, dass die RGP eine große Anzahl verschiedener, wenn nicht sogar alle Neuronen-Typen des Neocortex bilden. Im Laufe der Hirnentwicklung bleiben vereinfacht gesagt früh produzierte Neuronen nahe an der aus RGP gebildeten Schicht, während später hergestellte Nervenzellen an den "Frühgeborenen" vorbei wandern und weiter außen gelegene Schichten bilden. Dabei unterscheiden sie sich auch in ihrer Funktion: Während frühgebildete Neuronen hauptsächlich Verbindungen mit anderen Gehirnarealen außerhalb des Neocortex bilden, verknüpfen sich die "Spätgeborenen" vor allem mit anderen Nervenzellen innerhalb des Neocortex auf derselben oder der gegenüberliegenden Gehirnhälfte.

Etwa jede sechste RGP ist nach Ablauf des Neuronen-Produktionsprogramms noch fähig, sogenannte Gliazellen zu bilden. Von diesen gibt es im Gehirn deutlich mehr als Neuronen, sie haben eine wichtige Stütz- und Versorgungsfunktion für die Nervenzellen. Auch hier könnte diese deterministische Form der Produktion eine wichtige Rolle dabei spielen, das richtige Verhältnis von Neuronen zu Gliazellen sicherzustellen. (APA/red, )


Link Cell

Montag, 17. November 2014

Sie wird nicht heller.





















aus Die Presse, Wien, 15. 11. 2014

Wo bleibt die dunkle Materie? 
Nur fünf Prozent des Universums seien sichtbar, sagt die Kosmologie, der Rest sei dunkle Energie und dunkle Materie. Jene ist extrem seltsam, aber auch diese lässt rätseln. 

von Thomas Kramar 

"There's no dark side of the moon really, as a matter of fact it's all dark." Mit diesen gemurmelten Worten endet das berühmte Pink-Floyd-Album „Dark Side Of The Moon“ aus dem Jahr 1973; wenn man grob rundet, könnte man sie als Kurzfassung des Weltbilds sehen, das die Kosmologie uns im Jahr 2014 bietet. Diesem zufolge ist zwar nicht alles dunkel im Universum, aber immerhin 95,1 Prozent von dessen Energie respektive Masse, was, wie uns Einstein gelehrt hat, aufs Selbe hinausläuft. Das heißt: Nur 4,9 Prozent des Universums sind für uns sichtbar, bestehen also im Wesentlichen aus Atomen. Der Rest ist dunkel: 26,8 Prozent dunkle Materie, 68,3 Prozent dunkle Energie. Diese Aufteilung bescherte uns das Planck-Weltraumteleskop, das 2012 die kosmische Hintergrundstrahlung maß. Davor galten die Daten der Raumsonde WMAP, sie ergaben 72 Prozent dunkle Energie und 23 Prozent dunkle Materie.

Was die dunkle Energie sein soll, darüber sind sich die Physiker weder im Klaren noch einig. Klar ist nur, wozu sie dienen soll: Sie soll erklären, wieso sich das Universum nicht nur ausdehnt, sondern auch immer schneller ausdehnt. Dass es das tut, glauben die Kosmologen seit 1998, sie schlossen es aus Messungen an Supernovas. Im selben Jahr erfand der Astrophysiker Michael Turner den Begriff dunkle Energie. Am ehesten kann man sie sich als Feld vorstellen, das den Raum gleichmäßig erfüllt, nur mit sehr seltsamen Eigenschaften.

Defizit in der Milchstraße. 

Die dunkle Materie ist nicht nur etwas fassbarer, sondern auch schon länger im Munde der Physiker: seit 1932. Der niederländische Astronom Jan Hendrik Oort prägte den Begriff. Er fand heraus, dass die Sonne nicht im Zentrum der Milchstraße sitzt (sondern in deren Außenbezirken) und – wie alle Sterne der Milchstraße – um dieses Zentrum rotiert. Zusammengehalten wird die Milchstraße, wie alle größeren Gebilde im All, durch die Schwerkraft, also durch die Anziehungskraft, die ihre Sterne (und sonstige Bewohner) aufeinander ausüben. Doch, so Oort, die Massen der bekannten Sterne in der Scheibe der Milchstraße reichen nicht aus, um zu erklären, warum diese so dünn ist.
Ähnliches befand der Schweizer Physiker Fritz Zwicky 1933 über ein wesentlich größeres und ferneres Objekt: den Comahaufen, der aus über hundert Galaxien besteht. Auch er hat nicht genug sichtbare Masse, um zu erklären, dass er zusammenhält.
Da wird man halt einige Sterne übersehen haben, wird sich so mancher Leser denken. Und das ist auch schon die handgreiflichste Erklärung für die dunkle Materie: Sie sei nicht grundsätzlich unsichtbar, sie bestehe aus ganz normalen Teilchen, denen die elektromagnetische Wechselwirkung nicht fremd ist; man sehe die entsprechenden Objekte schlicht und einfach nicht, weil sie nicht leuchten und auch nicht genug beleuchtet werden.
Die Astronomen denken da etwa an Braune Zwerge, das sind Sterne, die zu klein sind, um je mit der Wasserstofffusion zu beginnen, die also auch nicht leuchten. Im Allgemeinen nennt man solche Objekte Machos, das ist ein Akronym für „massive astrophysical compact halo objects“, Halo steht für den kugelförmigen Teil von Galaxien.
Die Suche nach diesen Machos verlief enttäuschend, heute glaubt man nicht mehr, dass sie ins Gewicht fallen, wenn's um die dunkle Materie geht. Das Gegenteil eines Macho nennt man auf Englisch einen Wimp, einen Schwächling, und die Physiker haben ein entsprechendes Akronym: Sie kürzen „weakly interacting massive particles“ mit Wimps ab. Diese – bisher hypothetischen – Teilchen sollen einem bekannten, aber ziemlich geisterhaften Teilchen, dem Neutrino, insofern ähneln, als sie wie dieses nur die schwache Kernkraft und die Gravitation spüren, aber nicht die anderen beiden Grundkräfte der Physik: starke Kernkraft und Elektromagnetismus.

Supersymmetrie. 

Es gibt eine beliebte, weil elegante Theorie, die solche Wimps bescheren könnte: die Supersymmetrie. Nach dieser Theorie gibt es zu jedem bekannten Elementarteilchen ein Pendant, das sich von diesem im Spin wesentlich unterscheidet. Zum Beispiel zum Neutrino ein Neutralino, zu den Quarks sogenannte Squarks, zum Elektron ein Selektron, zum Photon ein Photino. Damit würde sich der Zoo der Elementarteilchen verdoppeln. Allerdings weiß man nicht, welche Massen diese supersymmetrischen Teilchen haben sollen, und man hat bisher in allen Teilchenbeschleunigern keine Spur von ihnen gefunden.
Und auch nicht bei anderen Experimenten, die darauf beruhen, dass solche Wimps – wie die Neutrinos – zwar nur selten und schwach mit anderen Teilchen in Wechselwirkung treten, aber eben doch manchmal. Ein solches Experiment läuft etwa in den Black Hills von Dakota, ungefähr eine Meile unter dem Erdboden, im Large Underground Xenon Experiment, lichtvoll als Lux abgekürzt. Dort warten 350 Kilo flüssiges Xenon unter strenger Beobachtung darauf, dass ein Wimp daherkommt und mit einem Xenon-Atomkern in Wechselwirkung tritt.
Bisher vergeblich. „Es ist ein signifikanter Fehlschlag“, bekannten die Lux-Forscher vor einem Jahr: „Wir sollten schon tausende Ereignisse gesehen haben, aber wir sehen einfach keines.“ Sie widersprachen damit Berichten von ähnlichen Experimenten, man hätte vielleicht ein Wimp-Ereignis beobachtet, und sie schlossen dezidiert aus, dass Wimps, die leichter sind als zehn Protonen, in Dakota aufgetaucht sind.
Was auch Theoretikern zu denken gibt. „Wir suchen jetzt schon ganz schön lang nach Wimps“, sagt Yonit Hochberg vom Berkeley Laboratory, „aber wir haben noch keine gefunden. Daher glaube ich, dass es wichtig ist, outside the boxzu denken.“ Das tat er. Ihm schweben Teilchen vor, die miteinander sehr stark wechselwirken – und auch mit den bekannten Teilchen, wenn auch nur sehr schwach (Physical Review Letters 113, 171301). Er nennt sie Simps, für „strongly interacting massive particles“. Sie hätten eine skurrile Eigenschaft – wenn drei Simps zusammenstoßen, kommen zwei Simps heraus – und eine den Kosmologen sehr willkommene: Sie würden eine Verteilung von Galaxien ergeben, die der beobachteten Verteilung entspricht.

Neutrinos sind zu heiß. 

Nicht zuletzt das erwartet man sich ja von der dunklen Materie: Sie soll erklären, warum sich die heutigen Strukturen im Universum so gebildet haben, wie sie es getan haben: Bottom-up nämlich, erst Sterne, dann Galaxien, dann Galaxienhaufen. Das war auch das wesentliche Argument dafür, dass die – eigentlich als Kandidaten naheliegenden – Neutrinos heute nicht als Hauptbestandteil der dunklen Materie infrage kommen: Sie sind zu schnell, zu leicht, zu heiß, sie würden ein Top-down-Szenario der Strukturbildung bringen.
Diesen Nachteil kann offenbar ein unübersehbarer Vorteil nicht aufwiegen: Man kennt sie, man kann sie beobachten, messen. Das kann man von anderen Kandidaten – zu nennen wären noch weitere hypothetische Teilchen wie Axionen – nicht sagen. So bleibt, ganz abgesehen von der noch rätselhafteren dunklen Energie, ein Großteil der Materie im All vorderhand dunkel. Was für ein seltsames Weltbild.


Samstag, 15. November 2014

Evolution und Informatik.


Foto: Ingo Rechenberg 
institution logo

Darwin als Inspirationsquelle für Informatiker

Claudia Hilbert
Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena
    Interdisziplinäres Symposium zu Evolutionstechniken vom 18.-20. November an der Universität Jena
    Mutation, Zufall, Auslese: Solche Begriffe sind vor allem aus der Evolutionsbiologie bekannt. Zunehmend lassen sich jedoch auch Informatiker und Ingenieure bei der Entwicklung von Algorithmen von der Natur inspirieren. Eine wichtige Grundlage hierfür legte im Herbst 1964 der damalige Student Ingo Rechenberg: Bei einem Experiment im Windkanal bestimmten er und sein Kommilitone Hans-Paul Schwefel mithilfe des Evolutionsprinzips die ideale Form von Flügeltragflächen mit geringstem Widerstand. „Hätten sie die verschiedenen Einstellungen des Flugzeugflügels systematisch getestet, hätte es Jahre gedauert. Doch durch das Spiel von Zufall und Auslese benötigten sie nur wenige Stunden“, erklärt Wissenschaftshistoriker PD Dr. Rudolf Seising vom Ernst-Haeckel-Haus der Universität Jena. Am 18. November 1964 berichtete schließlich auch der SPIEGEL in dem Artikel „Zickzack nach Darwin“ darüber.

    Genau 50 Jahre später erinnert ein interdisziplinäres Symposium an der Universität Jena an das Windkanal-Experiment und beleuchtet Evolution, Technik und Informatik in Geschichte, Gegenwart und Zukunft. Die Tagung „Ein halbes Jahrhundert Zickzack mit Darwin. Evolution – Evolutionäre Algorithmen – Artificial Life“ vom 18. bis 20. November richtet sich an Fachwissenschaftler und Studierende aus den Bereichen Biologie, Informatik, Technik und Philosophie sowie an die interessierte Öffentlichkeit. 

    Veranstalter des Symposiums sind das Institut für Informatik und das Institut für Geschichte der Medizin, Naturwissenschaft und Technik – Ernst-Haeckel-Haus der Universität Jena. Wissenschaftler vor allem deutscher Hochschulen sowie aus Sheffield und Brüssel berichten über Evolutionstheorien in der Biologie, Anwendungen des Evolutionsprinzips in der Informatik und über aktuelle Entwicklungen im Bereich „Artificial Life“. Darüber hinaus beschäftigt sich das Symposium mit philosophischen und ethischen Fragen, beispielsweise zum moralischen Status künstlichen Lebens und zum Thema Schwarmintelligenz. 

    Auch Ingo Rechenberg und Hans-Paul Schwefel – inzwischen emeritierte Professoren in Berlin und Dortmund – sind zu Gast: Rechenbergs Vortrag über die „Sternstunden der Theorie der Evolutionsstrategie“ beginnt am 18. November um 17 Uhr, anschließend findet eine Podiumsdiskussion mit ihm und Hans-Paul Schwefel statt. „Die beiden gelten als Pioniere der Evolutionstechnik und es ist eine absolute Besonderheit, sie gemeinsam bei einer Tagung zu erleben“, betont Rudolf Seising.

    Der Wissenschaftshistoriker hat das Symposium initiiert und gemeinsam mit seinem Kollegen aus dem Ernst-Haeckel-Haus, Dr. Thomas Bach, und dem Lehrstuhlinhaber für Theoretische Informatik, Prof. Dr. Tobias Friedrich, organisiert. „Unser Ziel ist es, die einzelnen Fachwissenschaften auch einmal historisch zu betrachten und so die Forscher der verschiedenen Disziplinen zusammenzubringen“, erläutert Bach, der kommissarischer Leiter des Ernst-Haeckel-Hauses ist. Tobias Friedrich ergänzt: „Sich mit der Geschichte des eigenen Forschungsgebietes zu beschäftigen, ist nicht nur unglaublich spannend, sondern es erweitert auch den eigenen Horizont.“

    Das Symposium beginnt am 18. November um 15 Uhr und ist gleichzeitig als Workshop im Rahmen des EU-Projektes „SAGE (Speed of Adaption in Population Genetics and Evolutionary Computation)“ konzipiert, an dem Tobias Friedrich beteiligt ist. Ein internationales Forscherteam untersucht darin, wie sich der Erfolg der Evolution auf die Informatik übertragen lässt.

    Die Vorträge und die Podiumsdiskussion am 18. November finden im Großen Tagungsraum im JenTower (29. OG, Leutragraben 1) statt, die Veranstaltungen an den beiden anderen Tagen im Großen Saal im Haus auf der Mauer (Johannisplatz 26). Der Eintritt ist frei.

    Mehr Informationen sind zu finden unter: http://evolutionsstrategien.tumblr.com

    Kontakt:
    Prof. Dr. Tobias Friedrich
    Institut für Informatik der Universität Jena
    Ernst-Abbe-Platz 2, 07743 Jena
    Tel.: 03641 / 946320
    E-Mail: friedrich[at]uni-jena.de 

    PD Dr. Rudolf Seising, Dr. Thomas Bach
    Ernst-Haeckel-Haus der Universität Jena
    Berggasse 7, 07743 Jena
    Tel.: 03641 / 949500 bzw. 949503
    E-Mail: rudolf.markus.seising[at]uni-jena.de, thomas.bach[at]uni-jena.de

    Freitag, 14. November 2014

    Lächeln: Ausdruck oder Kommunikation?

    aus scinexx

    Lächeln schafft Vertrauen
    Als authentisch empfundenes Lächeln fördert die Bereitschaft zur Zusammenarbeit

    Ein Lächeln sagt mehr als tausend Worte: Empfinden wir das Lächeln unseres Gegenüber als ehrlich, dann halten wir ihn automatisch auch für vertrauenswürdiger. Dies hat ein internationales Forscherteam nun in einem Verhaltensexperiment bestätigt. Mitmenschen sind demnach kooperativer, wenn man ihnen mit einem überzeugenden Lächeln begegnet. Die Studie zeigt aber auch: Wir lächeln nicht nur, wenn wir es ehrlich meinen, sondern vor allem dann, wenn es sich lohnt.

    Lächeln ist ein elementarer Bestandteil der Kommunikation zwischen Menschen in jeder Gesellschaft. Der Ursprung und die genaue Bedeutung dieser Geste sind allerdings nicht vollständig geklärt. Manche Forscher vermuten, dass das Lächeln im Laufe der Evolution aus einer Art Unterwerfungsgeste heraus entstanden ist, wie bei Affen beobachtet werden kann. Sozial tiefer gestellte Tiere ziehen dabei ihre Lippen zurück und stellen ihre Zahnreihen bloß. Dadurch zeigen sie ihre Unterwürfigkeit gegenüber dominanten Artgenossen an.

    Kommunikation oder Ausdruck der Gefühle?

    Beim Menschen könnte sich die soziale Funktion des Lächelns erweitert und teilweise umgekehrt haben: Auch dominante Individuen verwenden eine imitierte Unterwerfungsgeste und signalisieren dadurch, dass sie vertrauenswürdig sind. Es ist jedoch immer noch unklar, ob das menschliche Lächeln tatsächlich der Kommunikation dient oder ob es lediglich ein unwillkürlicher Ausdruck der eigenen Gefühlslage ist.

    Manfred Milinski vom Max-Planck-Institut für Evolutionsbiologie in Plön und seine Kollegen haben deshalb zusammen ein Verhaltensexperiment entwickelt, mit dem sie die Wirkung des Lächelns auf die Kooperationsbereitschaft messen können. Jeweils zwei Versuchsteilnehmer mussten dabei zusammenarbeiten, um einen geringen Geldbetrag zu erhalten. Nur einer der beiden Probanden bekam von den Forschern zunächst vier Euro zur Verfügung gestellt. Der andere Teilnehmer, der sogenannte Treuhänder, stellte sich dann in einem kurzen Videoclip vor und bat seinen Mitspieler, ihm den Geldbetrag zu schicken. Der Text war dabei vorgegeben, es kam also ganz auf die vermittelte Glaubwürdigkeit an – und besonders auf das Lächeln.

    Vertrauen zahlt sich aus

    Der erste Proband hatte nun die Wahl, ob er dem Treuhänder vertraut und ihm das Geld zunächst überlässt, oder ob er es für sich behält. Vertrauen auf den Versuchspartner konnte sich auszahlen: Entschied sich der sogenannte Sender dazu, dem Treuhänder das Geld zu schicken, verdreifachten die Forscher den Betrag. Nun konnte wiederum der Treuhänder entscheiden, wie ehrlich er vorgeht. Er konnte dem Sender ein Drittel oder die Hälfte des Geldes zurückschicken, oder auch einfach alles für sich behalten. Mit einem vertrauenswürdigen Treuhänder erhielt der Sender so mehr Geld, als wenn er den ursprünglichen Einsatz behalten hätte.

    Die Wissenschaftler dokumentierten zunächst, wie die Sender und auch unbeteiligte Probanden den vorgeführten Videoclip bewerteten. Diese mussten angeben, für wie attraktiv, intelligent und vertrauenswürdig sie die Person in dem Video halten und ob sie deren Lächeln als authentisch empfinden. "Die Personen, deren Lächeln als echt empfunden wurde, galten auch als vertrauenswürdig", fasst Milinksi die Beobachtungen zusammen. Und das zu Recht, denn im Schnitt erwiesen sich diese Menschen auch als kooperativer.

    Höherer Gewinn führt zu häufigerem Lächeln

    "Am Lächeln schätzte der Sender tatsächlich die Wahrscheinlichkeit ab, mit der der Treuhänder mit ihm teilen würde", so der Wissenschaftler weiter. Ein als authentisch empfundenes Lächeln sei demnach ein ehrlich gemeintes Signal: Es dient der Kommunikation und zeigt die eigene Kooperationsbereitschaft an. Wenn es auf gerechtfertigtes Vertrauen ankommt, solle das Lächeln andere zur Zusammenarbeit animieren.

    In einem weiteren Durchgang verdoppelten die Wissenschaftler den Einsatz von vier auf acht Euro. Bei Spielen mit möglichem höheren Gewinn lächelten die Treuhänder häufiger in einer als authentisch empfundenen Art und Weise. Offenbar fällt es leichter, ehrlich zu lächeln, wenn ein höherer Gewinn winkt. Da das authentische Lächeln unbewusst entsteht und als nicht willentlich beeinflussbar gilt, scheint es Kosten zu haben, die man unbewusst nur aufbringt, wenn es sich auszahlt – und man es ehrlich meint. (Evolution and Human Behavior, 2014; doi: 10.1016/j.evolhumbehav.2014.08.001)

    (Max-Planck-Gesellschaft, 07.11.2014 - AKR)


    Nota. - Ausdruck oder Kommunikation? 
    Oder fragen wir anders: Welchen Erkenntniswert hätte die Antwort auf diese Frage?
    (Man lächelt wohl auch am Telefon oder wenn man mit sich allein ist; lohnt sich das?)
    JE


    Donnerstag, 13. November 2014

    Inhibitorische Kontrolle: "Der Mensch kann nein sagen."


    aus scinexx

    Zweisprachigkeit wirkt wie Gehirnjogging
    Das Gehirn lernt, irrelevante Informationen effektiver auszublenden

    Besser als jedes Sudoku oder Kreuzworträtsel: Wer zwei Sprachen lernt und spricht, trainiert seine Denkleistung. Denn das Gehirn lernt bei Zweisprachigen, irrelevante Informationen effektiver auszublenden, wie US-Forscher herausgefunden haben. Das spart Ressourcen und könnte auch erklären, warum zweisprachige Alzheimer-Patienten erst später Symptome entwickeln.

    Zweisprachigkeit trainiert das Gehirn

    Wenn wir ein gesprochenes Wort hören, geschieht in unserem Gehirn ähnliches wie beim Tippen einer SMS oder der Eingabe eines Suchworts bei google: Das Gehirn sucht schon während der ersten Silbe nach passenden Wörtern und hält sie vor. Hören wir beispielsweise "Wo…", dann aktiviert das Gehirn bereits "Wolke", "Woche" oder "Wolle". Ist das Wort dann vollständig erklungen, werden im Gehirn die falschen Alternativen unterdrückt, so dass das richtige Wort quasi gewinnt.



    "Diese Auswahl ist entscheidend für unser Sprachverständnis, denn ein Wort kann nicht richtig verstanden werden, solange nicht die richtige Entsprechung ausgewählt wurde", erklären Victoria Marian von der Northwestern University in Evanston und ihre Kollegen.

    Doppelte Arbeit bei Zweisprachigen

    Noch besser muss dieser Filter allerdings bei Zweisprachigen arbeiten, denn bei ihnen sind beide Sprachen gleichzeitig aktiv. Das Gehirn muss bei ihnen deshalb die falschen Alternativen in gleich zwei Sprachen unterdrücken. "Das ist wie eine Ampel: Zweisprachige müssen ständig einer Sprache grün und der anderen rot anzeigen", so Marian. Wie sich dieser Zwang zur ständigen Selektion auf die Denkleistung und das Gehirn auswirkt, haben sie und ihre Kollegen nun erstmals genauer mit Hilfe der funktionellen Magnet-Resonanz-Tomografie untersucht.

    Für ihre Studie absolvierten 17 spanisch-englisch bilinguale und 18 nur englisch sprechende Probanden Sprachaufgaben, während sie im Hirnscanner lagen. Sie hörten jeweils ein gesprochenes Wort, während vier Bilder auf einem Bildschirm erschienen. Eines davon stellte das im Wort Benannte dar, die anderen zeigten entweder völlig andere Objekte oder aber mindestens ein Bild, dessen Bezeichnung ähnlich klang wie das gehörte Wort. Erklang beispielsweise "Wolke", dann war eine Wolke, aber auch ein Wollknäuel zu sehen. Die Probanden sollten durch Knopfdruck das Bild markieren, das das richtige Objekt zeigte.

    Die markierten Hirnareale waren bei einsprachigen Probanden aktiver als bei zweisprachigen

    Sparsamere Aktivität bei Zweisprachigen

    Das Ergebnis: Zwischen den Probanden gab es deutliche Unterschiede. Bei den Einsprachigen wurden zusätzliche Hirnareale aktiv, wenn Bilder ähnlich klingender Begriffe zu sehen waren. Die Aktivität stieg dann vor allem in den Bereichen der Hirnrinde, die für die Handlungskontrolle zuständig sind, wie die Forscher berichten. Bei den Bilingualen war dies nicht der Fall, bei ihnen blieb die Hirnaktivität relativ gleich.

    Nach Ansicht der Wissenschaftler deuten diese Unterschiede darauf hin, dass die Entscheidung darüber, welches intern aktivierte Wort das richtige ist, bei zweisprachigen Personen quasi automatisch abläuft. "Denn wenn man das die ganze Zeit tun muss, dann wird man sehr gut darin, die Wörter zu unterdrücken, die man nicht benötigt", erklärt Marian. Das Gehirn Einsprachiger ist dagegen weniger geübt darin, irrelevante Information zu unterdrücken. "Deshalb läuft diese Selektion bei ihnen nicht automatisch ab, sondern es müssen weitere kognitive Ressourcen dafür mobilisiert werden."


    Effektiver im Alltag

    Das aber könnte bedeuten, dass das Gehirn zweisprachiger Menschen auch bei anderen Anwendungen solcher Filter effektiver arbeitet. "Die inhibitorische Kontrolle ist eines der Kernmerkmale der geistigen Leistung", erklärt Marian. "Ob wir Autofahren oder einen chirurgischen Eingriff durchführen: Immer ist es wichtig, sich auf das zu konzentrieren, was wichtig ist und das zu ignorieren, das unwichtig ist." Tatsächlich zeigen Studien, dass Zweisprachige besser Stimmen aus Störgeräuschen heraushören können.

    Nach Ansicht der Forscher trägt das ständige Selektieren und Unterdrücken der konkurrierenden Sprachen dazu bei, diese inhibitorische Fähigkeit des Gehirns zu stärken. Und das könnte auch erklären, warum zweisprachige Menschen
    erst später Symptome einer Alzheimer-Demenz zeigen: Ihr Gehirn hat genügend Ressourcen, um die Defizite eine Zeitlang auszugleichen. "Eine andere Sprache zu lernen und zu nutzen liefert quasi nebenbei ein Gehirnjogging", so Marian. "Und für diese Art des Trainings ist es nie zu spät." (Brain and Language, 2014)

    (Northwestern University, 13.11.2014 - NPO)


    Nota. - Eigentlich interessant ist an diesem Experiment, dass das Ja zu dem passenden Wort in Wirklichkeit aus einem vielfachen Nein zu den andern Wörtern besteht. Positio und negatio sind nicht gleich-originär, auf einer Tabula rasa wird nicht entweder ein Plus oder ein Minus eingetragen. Sondern die Anmutungen (alias Einfälle) "sind immer schon da", der Entschluss für dieses ist reell immer nur das Ausscheiden der andern Möglichkeiten. Der Mensch muss sein Leben führen heißt: er muss wählen. Wählen heißt nein sagen können.
    JE

    Montag, 10. November 2014

    Pythagoras war nicht an allem schuld.

    In der «Theoria Musicae» (Venedig 1492) tritt Pythagoras als Harmonielehrer in Aktion.
    aus nzz.ch, 30.10.2014, 05:30 Uhr                            In der «Theoria Musicae» (Venedig 1492) lehrt Pythagoras Harmonie

    Pythagoras und die Disharmonie der Welt
    Aus dem Lande der Legenden

    von 

    Pythagoras, der sagenumwobene Philosoph aus dem sechsten vorchristlichen Jahrhundert, habe eines Tages erstaunt vor einer Schmiede innegehalten und mit steigender Erregung dem Lärm eifrigen Gehämmers gelauscht, so die Legende. Er habe nämlich gehört, «wie aus den verschiedenen Tönen bloss eine einzige Harmonie hervortönte». Was verursachte diese Harmonie? Pythagoras untersuchte die Form der Hämmer und liess die Schmiede ihre Hämmer tauschen, doch der gefällige Mehrklang blieb unverändert. Die Harmonie musste somit in den Hämmern selbst liegen. Seine Suche nach der Ursache des Wohlklangs führte Pythagoras zu einem erstaunlichen Ergebnis: Die Gewichte der Hämmer standen in einem präzisen numerischen Verhältnis zueinander, nämlich zwei zu eins für die Oktave, drei zu zwei für die Quinte; und vier zu drei für die Quart.

    Harmonische Verhältnisse

    Dass diese Geschichte eine blosse Legende ist, ist auch daraus ersichtlich, dass das erwähnte Verhältnis zwischen Hammergewicht und Tonhöhe empirisch-physikalisch nicht stimmt. Laut der Erzählung fand Pythagoras bald ähnliche Verhältnisse bei Saiten, welche – durch verschiedene Gewichte gespannt oder aber bei gleicher Spannung passend gekürzt – dieselben harmonischen Verhältnisse aufwiesen. Mit dieser – dieses Mal richtigen – Entdeckung war eine mathematische Harmonielehre geboren, die als «Musica» noch bis in die frühe Neuzeit auf mathematischer Basis als eine der sieben freien Künste an allen höheren Schulen gelehrt werden sollte. Sie begründete zugleich eine Weltsicht, in der alles Gute und Schöne – alles Harmonische also – das Ergebnis mathematischer Proportionen sein musste. Noch im 18. Jahrhunderte bemerkte Immanuel Kant bewundernd, dass Pythagoras mit dieser Idee «ein Projekt entwarf und zustande brachte, das seinesgleichen noch nie gehabt hatte».

    Spätere Versionen dieser legendären Heureka-Szene bei der Schmiede sprechen von fünf Hämmern, die Pythagoras gehört haben soll, wovon einer allerdings lautlich nicht zu den anderen passte. Dieser fünfte Hammer, so erzählt beispielsweise Boethius etwa tausend Jahre später, «wurde verworfen, welcher allen inconsonierend war». Daniel Heller-Roazen hat diesem angeblich aus den Annalen der Geschichte verbannten fünften Hammer ein Buch gewidmet, sozusagen zur Rehabilitation dieses Störenfrieds. Dieses «Sein ohne Mass», zu dessen Symbol Heller-Roazen den fünften Hammer hochstilisiert, habe die wissenschaftlichen und philosophischen Systeme wie ein dunkler Schatten bis in die Moderne verfolgt. Alles, was nicht in saubere Proportionen habe gebracht werden können, sei als irrational, disproportional oder unsagbar verworfen oder, im besten Fall – nämlich bei Kant –, zur Basis der Kategorie des Sublimen erklärt worden.

    Der Autor, Professor für vergleichende Literaturwissenschaft an der Universität Princeton, hätte ein wuchtiges Thema gefunden, wenn die pythagoräische Zahlenlehre in der von ihm behaupteten Ausschliesslichkeit tatsächlich bis in die Neuzeit hinein das Denken über Mass, Zahl und Sein dominiert hätte. Denn es ist wahr, dass für einen strikt pythagoräischen Arithmetiker (wie dies beispielsweise Giordano Bruno gewesen ist) die Eins keine Zahl, sondern die allerletzte Grundeinheit ist, die nicht weiter geteilt werden kann. In dieser Perspektive werden Brüche unmöglich und ist die Welt generell durch Missverhältnisse geprägt. Doch erstens waren nicht alle Arithmetiker Pythagoräer, zweitens ist Pythagoras (wie das nach ihm benannte Theorem beweist) ja auch als Stifter der Geometrie ins europäische Schulprogramm eingegangen, und überhaupt waren Antike, Mittelalter und frühe Neuzeit viel uneinheitlicher, als Heller-Roazen lieb ist. So hatte Pythagoras zwar bis ins 17. Jahrhundert einen festen Platz in den propädeutischen freien Künsten der europäischen Universitäten. Doch im darauffolgenden Philosophieunterricht, zu dem auch die Unterweisung in Naturphilosophie gehörte, herrschte die Ansicht des Aristoteles vor, mathematische Grössen seien keineswegs Archetypen, sondern blosse Abstraktionen physikalischer Vorgänge.

    In der Tonlage des Entdeckers

    Heller-Roazen irrt aber nicht bloss in der Rückschau; seine Thesen zur Gegenwart sind genauso fragwürdig. Die Behauptung, «das homogene Universum der modernen Wissenschaft» lasse keine «Entität» mehr zu, die «mit einer Zahl oder einem Zahlenverhältnis gleichgesetzt werden» könne, ist irrig, denn was anderes sind die Naturkonstanten als genau solche Entitäten? – Der Autor beginnt seine Geschichte schwungvoll und in der Tonlage des erregten Entdeckers. Acht Lektionen will er uns erteilen; und damit dem Leser die Zahlensymbolik seiner Kapiteleinteilung nicht entgeht, stellt er dem Buch eine Definition der Oktave voran. Dass diese von Jean-Jacques Rousseau stammt, soll ihr die Banalität nehmen.

    Doch irgendwann, zwischen Kepler und Kant, verzweifelt der Autor ob der Anstrengung seines Versuchs, die ganze Geschichte menschlichen Irrens aus Pythagoras' angeblicher Verleugnung des fünften Hammers abzuleiten. Das zirpende Vibrato seiner ersten Kapitel geht über in ein Glissando und endet in einem dumpfen Murmeln. Irgendwann hört das Buch auf.

    Daniel Heller-Roazen: Der fünfte Hammer. Pythagoras und die Disharmonie der Welt. Aus dem Englischen von Horst Brühmann. S. Fischer, Frankfurt am Main 2014. 256 S., Fr. 34.90.

    Freitag, 7. November 2014

    Multiversum?

    aus scinexx

    Gibt es neben unserem Universum noch weitere?

    Parallelwelten
    Leben wir in einem Multiversum?
    Ist unser Universum einmalig? Oder gibt es vielleicht doch noch parallele Welten neben der unsrigen? Auf den ersten Blick klingt das eher wie Science-Fiction, doch rein physikalisch sind Parallel-Universen keineswegs undenkbar - und vielleicht sogar wahrscheinlich.

    Die Theorien darüber, wie solche Parallel-Universen physikalisch erklärt werden können, gehen allerdings ziemlich weit auseinander. Einige Kosmologen sehen ein Multiversum geradezu als zwangsläufige Folge der kosmischen Entwicklung seit dem Urknall. Andere sehen in parallelen Welten eher einen Auswuchs quantenmechanischer Gesetzmäßigkeiten. Aber auch Schwarze Löcher und die Stringtheorie spielen in einigen Vorstellungen eine prominente Rolle.

    Eindeutig beweisbar ist jedoch bisher keine dieser Theorien zu parallelen Universen. Und sogar über die Frage, ob dies jemals der Fall sein wird, streiten sich die Geister…

    Inhalt:

    1. Stellknöpfe an der Kosmos-Maschine
      Das Anthropische Prinzip und parallele Welten
    2. Blasen im Nichts
      Die kosmische Inflation und das Multiversum
    3. Verzweigte Wirklichkeiten
      Die Quantenmechanik der vielen Welten
    4. Braneworlds
      Von Scheibenuniversen und Urknallzyklen
    5. Parallelwelt aus dem Schwarzen Loch
      Wo Einstein endet und die Quantenphysik übernimmt
    6. Ist das noch Wissenschaft?
      Wo endet die Theorie und beginnt die Spekulation?
     
    von Nadja Podbregar
    Stand 07.11.2014


    Nota. - Aber was wäre das für eine Realität, von der ein für alle Mal feststünde, dass wir nie etwas von ihr erfahren werden? Ein Sein, das nichts bedeutet?
    JE