Sonntag, 28. September 2014

Neues über Träume.

aus Der Standard, Wien,

Was unsere Träume wirklich verraten
Wissenschaftsautor Stefan Klein über Sigmund Freud, neurobiologische Traum-Neuigkeiten und darüber, wie sie sich nützen lassen


Wien - Können Sie sich an die Träume der heutigen Nacht erinnern? Wenn Sie in Farben geträumt haben, dann sind Sie höchstwahrscheinlich jünger als 55 Jahre alt. Wie der US-Forscher Eric Schwitzgebel vor rund zehn Jahren herausfand, stellt sich das aber nicht automatisch mit höherem Alter ein: Nur Menschen der Nachkriegsgeneration, die mit Schwarz-Weiß-Filmen im Kino und im Fernsehen aufgewachsen sind, nehmen ihr nächtliches Hirnkino viel eher in Grautönen wahr.

Dank der neueren Traumforschung wissen wird aber auch mehr über die Themen, die unser Traumgeschehen beherrschen: 80 Prozent aller Erwachsenen weltweit können sich an geträumte Verfolgungsjagden, den freien Fall, Sex oder eine vergebliche Anstrengung (wie etwa die erfolglose Maturavorbereitung) erinnern - allesamt Sujets, die mit starken Gefühlen wie Angst, Lust, Scham und Ärger verbunden sind. Besonders häufige Traummotive in unseren Breiten sind zudem verpasste Treffen oder versäumte Verkehrsmittel.

Das sind nur zwei der zahllosen Erkenntnisse, die Stefan Klein für sein jüngstes Buch zusammengetragen hat, in dem er die Leser auf "eine Reise in unsere innere Wirklichkeit" mitnimmt, so der Untertitel. Der 50-jährige Klein wäre aber nicht der erfolgreichste deutsche Wissenschaftsautor der letzten Jahre, wenn er in Sachen Traumsujets nicht noch spektakulärere Forschungen zu bieten hätte. So ist es japanischen Forschern um Yukiyasu Kamitani unlängst gelungen, allein anhand der Hirnaktivitätsmuster ihrer schlafenden Probanden mit ziemlicher Sicherheit zu sagen, welche Themen in ihren Träumen vorkamen.

Noch ist solches nächtliches Ausspionieren aber recht aufwändig: Die Forscher mussten mit den Studienteilnehmern erst einmal "üben", indem sich diese in einen Kernspintomografen legten, dort schliefen und danach ihre Träume mitteilten. Die Traumerinnerung wurde von den Forschern dann mit den Hirnscans verglichen. Nach einigen Durchgängen konnten die Forscher dann aber allein aus den Scans erstaunliche Details ablesen.

Eine neue Ära der Traumforschung

Für den promovierten Biophysiker Klein ist offensichtlich, dass dank der Fortschritte in den Neurowissenschaften eine neue Ära der Traumforschung angebrochen ist, an deren Experimenten auch Sigmund Freud Gefallen gefunden hätte, wie Klein im Interview mit dem Standard vermutet: "Freud war ein genialer Neurobiologe. Leider hat er diese Forschungen zugunsten seiner Praxis und der Traumdeutung aufgegeben."

Freuds erstes Hauptwerk aus dem Jahr 1899 hält Klein für "gnadenlos verfrüht": Viele der darin aufgestellten Theorien seien aus heutiger Sicht nicht haltbar, obwohl der Schöpfer der Psychoanalyse ein genialer Beobachter gewesen sei: "Freud erkannte ganz richtig, dass Träume in erster Linie visuelle Phänomene sind, dass Emotionen eine entscheidende Rolle spielen und dass sie mit der Verarbeitung von Erinnerung zu tun haben."

Freud habe noch nicht wirklich verstehen können, was das Unbewusste wirklich tut. "Das hat er durch einige Theorien kompensiert, die eher unhaltbar sind", behauptet Klein und nennt als Beispiel die Kernthese Freuds, dass Träume immer mit Wunscherfüllung zu tun hätten: "Das ist eine sehr naive Vorstellung." Für Klein sind Träume viel eher "Spiele mit Möglichkeiten. Und in einigen dieser möglichen Welten werden Wünsche erfüllt. Das heißt aber noch lange nicht, dass jeder Traum eine Wunscherfüllung ist."

Freud hatte als einzigen Zugang zum Unbewussten nur die Erinnerung der Träumenden, die naturgemäß unzuverlässig ist. Das änderte sich erst ein wenig, als 1953 die REM-Phasen entdeckt wurden - jene Abschnitte des Schlafes, in denen es zu schnellen Augenbewegungen kommt und in denen, wie man zunächst annahm, die Träume mit verwickelten Szenen und starken Gefühlen stattfinden. In Phasen des sogenannten Spindelschlafs würde hingegen nur in Gedankenfetzen geträumt und in Phasen des Tiefschlafs so gut wie gar nicht.

Neueste Experimente des italoamerikanischen Neurobiologen Giulio Tononi, die Klein für "absolut faszinierend" hält, deuten aber in eine andere Richtung: Warum Träume so unterschiedlich ausfallen, hängt vor allem davon ab, wie lange man schon geschlafen hat. In der Früh werden die Träume besonders intensiv, weil das Gehirn dann schon regeneriert ist und das Bewusstsein bereits heraufdämmert. Klein folgert daraus, dass Träume nicht nur ein "Königsweg zum Unbewussten" sind, sondern indirekt auch verstehen helfen, wie Bewusstsein entsteht - nämlich als spontane Eigenleistung unseres Gehirns.

Gefährlich kann es werden, wenn sich nachts Bewusstes und Unbewusstes auf ungewöhnliche Art vermischen, wie Klein eindrücklich vor Augen führt. Ein solcher Fall lag bei Kenneth Parks vor, der in einer Nacht im Mai des Jahres 1987 in Toronto einige Kilometer mit dem Auto fuhr, die Schwiegermutter umbrachte und sich dann völlig verwirrt und schwer verletzt auf ein Polizeirevier begab. Psychiater untersuchten den Mann, führten Tests mit ihm im Schlaflabor durch und mussten erkennen, dass sich der Verstand von Parks in der Nacht in extremer Form aufspaltete und er tatsächlich die Mordnacht im Tiefschlaf verbracht hat. Parks wurde freigesprochen.

Klein widmet sich in seinem umfassend recherchierten und kurzweilig erzählten, aber nie trivialen Buch nicht nur abstrakten Fragen zum Bewusstsein und wahr gewordenen Albträumen. Wie in seinen früheren Beststellern über das Glück, die Zeit oder das Geben, die in mehr als 20 Sprachen übersetzt wurden, hat Klein einige Ratschläge parat, wie sich die neuen Erkenntnisse der Traumforschung auch ganz praktisch nutzen lassen.

Ein mögliches Hoffnungsgebiet seien die sogenannten Klarträume, wie Klein schildert, also Träume, in denen wir ganz bewusst das Traumgeschehen steuern. Das war bis jetzt nur relativ wenigen Menschen möglich. Doch wie die deutsche Forscherin Ursula Voss im Mai dieses Jahres in "Nature Neuroscience" berichtete, lassen sich Klarträume durch eine elektrische Anregung des Gehirns mit der Frequenz von 40 Hertz auslösen. Solche luziden Träume lassen sich etwa von Sportlern nützen, um bestimmte Bewegungsabläufe zu trainieren, erklärt Klein, der es für absolut denkbar hält, dass auf diese Weise Abfahrtsläufer in Zukunft die Bewältigung der Streif gleichsam im Traum perfekt trainieren.

Das kreative Potenzial der Träume

Klein selbst habe durch die Arbeit an seinem Buch vor allem sein eigenes Traumgedächtnis weiter geschärft, wie er im Gespräch erklärt: "Vor eineinhalb Jahren hätte ich gesagt, dass es unmöglich ist, im Traum ein ganzes Musikstück zu hören oder Schmerz zu empfinden. Inzwischen habe ich diese Erfahrungen gemacht." Bestimmte wiederkehrende Motive hätten ihn einiges über die eigenen Macken und Verwundbarkeiten gelehrt.

Die intensive Beschäftigung mit Träumen schärfe auch die Sensitivität dafür, wie schöpferische Prozesse überhaupt funktionieren. Dabei könne man auch von Schriftstellern wie Franz Kafka lernen, der das kreative Potenzial der Träume voll ausgeschöpft hat und auch seine Tages- und Schlafeinteilung ganz auf die Hervorbringung von "Halbschlaffantasien" ausrichtete, wie Klein schildert. Ein anderes vorbildliches Beispiel war der französische Dichter Saint-Pol-Roux. Wenn dieser sich des Nachmittags zum Schlafen niederlegte, hängte er ein Schild mit dem Hinweis: "Le poète travaille" an die Tür - "Der Dichter arbeitet".


Nota. - Es ist höchste Zeit, mit der ewigen Schweifwedelei um den Scharlatan Freud endlich Schluss zu machen - und in allererster Linie mit der scheinkritischen Sülze, bei allen Fehlern bleibe doch sein unsterbliches Verdienst, für so Vieles "die Tür aufgestoßen" zu haben; denn das Gegenteil ist der Fall: Er hat an tausend Dingen wahnwitzig herumdilettiert und damit auf so vielen Gebieten - durch Monopolisierung hier, durch Diskreditierung dort - alle ernsthafte Forschung unmöglich gemacht, dass es bis heute nicht gelungen ist, überall den Müll zu entsorgen. Sein Lebenswerk, das kann man sagen, war der Größte Wissenschaftsschwindel Aller Zeiten.

Man mag um die Wissenschaft im Twitterzeitalter manche Sorgen haben; aber so etwas kann es nun  nicht mehr geben.
JE

Samstag, 27. September 2014

Das Dilemma des Wissenschaftsjournalismus.

 
Lieber Leser, 

die Frankfurter Allgemeine mag es nicht, wenn ich ihre Beiträge auf meinem Blog wiedergebe.Ich muss sie umständlich bearbeiten - kürzen, umschreiben -, um nicht mit dem Urheberrecht in Konflikt zu geraten. Manchen Artikeln aber - und ihren Autoren - tut man mit einer solchen Behandlung Unrecht, und dem Renommé der FAZ würde auch nicht damit gedient. Die Beiträge von Sibylle Anderl gehören in der Regel zu dieser Kategorie, und ich kann sie nur unter großen Schmerzen kürzen. Und im heutigen Fall auch nur ein ganz klein wenig.
JE   


aus FAZ.NET, 19.09.2014, 11:25 Uhr

Wissenschaftsjournalismus als Herausforderung 
Viele Medien sind voll von fehlerhaften Meldungen aus der Wissenschaft. Gleichzeitig informieren Wissenschaftler heute selbst über aktuelle Forschung. Wird der Wissenschaftsjournalismus überflüssig gemacht? 

Von  

In diesen Tagen, da der althergebrachte, traditionelle Journalismus seinen Todeskampf bestreitet (oder doch nur mit einem grippalen Infekt danieder liegt?), wird gerne spekuliert wie sie denn auszusehen hätte, die konkrete Form eines zukunftsfähigen Journalismus. Mich als Astrophysikerin beschäftigt natürlich primär die Frage nach der Zukunft des Wissenschaftsjournalismus. Genau genommen saß ich vor einem Monat in der französischen Sommersonne und folgte gedanklich der Frage, warum man eigentlich noch Wissenschaftsjournalismus braucht. Aus den Webauftritten der Forschungsinstitute und den Blogs von Wissenschaftlern bekommt man heute schließlich viel schneller und präziser Informationen zum Stand der aktuellen Forschung (und ja: es gibt tatsächlich auch Wissenschaftler, die ähnlich gut schreiben können wie Journalisten). Wenn es im Journalismus heute nur noch um Plakativität, Breitenwirkung und Entertainment zulasten inhaltlicher Richtigkeit geht, wenn es nur noch darum geht, möglichst schnell die brisanteste Story einzufangen und “Quote zu machen”, während die größeren, übergeordneten Fragen im Kontext von Wissenschaft gar nicht mehr berührt werden – dann klingt das für mich nach der falschen Behandlungsstrategie für einen sehr labilen Patienten. ...

Die Wissenschaft ist heute zu einem schier unfassbaren Unternehmen geworden. Aus den wissenschaftlichen Instituten fluten tagtäglich Unmengen von Veröffentlichungen. Allein im Bereich der Astrophysik umfasst die täglich aktualisierte Liste neuer Publikationen zwischen fünfzig und hundert Einträge, die man als gut informierter Astrophysiker jeden Morgen durchschauen sollte. Und es ist kein Ende in Sicht. Im Gegenteil, das Wachstum der Wissenschaft scheint sich immer weiter zu beschleunigen.

Die erste quantitative Analyse dazu wurde 1961 von Derek J. de Solla Price veröffentlicht. Auf der Grundlage der Anzahl wissenschaftlicher Zeitschriften zwischen 1650 und 1950 sowie später der Zahl wissenschaftlicher Inhaltsangaben in entsprechenden Kompendien zwischen 1907 und 1960 ermittelte er ein exponentielles Wachstum von Wissenschaft mit einer Verdoppelung der Zahl von Journalen alle 10-15 Jahre. In einer Anfang dieses Jahres veröffentlichten Studie wurde diese Aussage von Wissenschaftlern vom Max Planck Institut in München und der ETH Zürich noch einmal mit verbesserten statistischen Methoden geprüft. Untersucht wurde nun die Wachstumsrate von Wissenschaft gemessen an der Zahl zitierter Referenzen pro Veröffentlichungsjahr in Publikationen der Jahre 1980 bis 2012, wobei die Referenzen bis in die Mitte des 16ten Jahrhunderts zurückverfolgt wurden. Das exponentielle Wachstum konnte bestätigt werden. Gleichzeitig ermittelte die Studie drei verschiedene Phasen, in denen sich die Wachstumsraten jeweils verdoppelt haben: 1% bis zum Einsetzen der industriellen Revolution Mitte des 18. Jahrhunderts (Verdopplung alle 150 Jahre), 2-3% bis zur Zeit zwischen den Weltkriegen und schließlich 8-9% bis zum Beginn des 21. Jahrhunderts. Der Wissenschaftliche Output verdoppelt sich demnach heute etwa alle 9 Jahre.
 
Wachstum der jährlich zitierten wissenschaftlichen Referenzen. Aus: Bornmann und Mutz 2014, arXiv:1402.4578

... Da wissenschaftlicher Erfolg heute größtenteils an der Anzahl wissenschaftlicher Veröffentlichungen gemessen wird und Wissenschaftler damit unter starkem Publikationsdruck stehen, liegt der Verdacht nahe, dass die Zahl von Publikationen zumindest teilweise künstlich hochgeschraubt wird. Gleichzeitig hat die Tatsache, dass immer mehr Journale sich open-access Publikationen von den Autoren bezahlen lassen, auch ein Interesse auf Seiten der Verleger geschaffen, möglichst viel zu veröffentlichen. Vor diesem Hintergrund forderte Timo Hannay, Geschäftsführer von Digital Science, in der letzten Woche im Blog des britischen Guardian, die Sintflut wissenschaftlicher Forschung endlich zu stoppen, indem das Konzept wissenschaftlichen Publizierens grundsätzlich überdacht werden solle. Nicht mehr die Anzahl der Paper solle Kriterium für wissenschaftlichen Erfolg sein, sondern vielmehr die Qualität der Forschung im Sinne von deren Wirkung auf die wissenschaftliche Gemeinschaft.

... Es wird immer zeitaufwändiger, sich auf einem breiten Feld verschiedener Themen am Puls aktueller Forschung zu bewegen. Gefragt ist hier die Fähigkeit, einschätzen zu können, welche Forschungsergebnisse wirklich bahnbrechend sind und welche eher die Wiederholung von schon Bekanntem darstellen. Aber nicht nur Wissenschaftler müssen und wollen auf dem neusten Stand der Forschung sein, auch die Öffentlichkeit interessiert sich natürlich für den Fortgang wissenschaftlicher Erkenntnis. Was für den Wissenschaftler bereits Herausforderung ist, stellt für den externen Beobachter von Wissenschaft ohne Hilfestellung eine hohe Hürde dar und dies nicht nur für den Laien, sondern oft auch für die eigentlichen Vermittler, die Wissenschaftsjournalisten. Während noch vor gar nicht allzu langer Zeit einfach wissenschaftsjournalistisch aufbereitet werden konnte, was in den namhaften Journals veröffentlicht wurde, muss heute radikal ausgewählt werden, da die Anzahl von Veröffentlichungen für die Eins-zu-eins-Berichterstattung zu groß geworden ist. Das Fundament einer solchen Auswahl kann schwerlich anderes als ein fundiertes wissenschaftliches Fachwissen sein. Sofern das bei Wissenschaftsjournalisten nicht mehr vorliegt, müssen aber andere Strategien gefunden werden.
 
 
Vor dem Hintergrund dieses Problems kommt nun die Online-Welt als vermeintliche Hilfe, denn heute kommunizieren die wissenschaftlichen Institutionen in großem Maße und zunehmend professionell selbst in Pressemitteilungen und durch Öffentlichkeitsarbeit, die direkt durch die Wissenschaftler selbst geleistet wird (siehe Blog “Wissenschaft mit Friends und Followern”). Wer sich regelmäßig auf den PR-Seiten wissenschaftlicher Institute umsieht, bekommt bereits einen kondensierten Eindruck von dem, was sich im jeweiligen Forschungsfeld tut. Dieser Auswahlservice wird von vielen Wissenschaftsressorts dankbar aufgenommen. Es ist durchaus erschreckend, wie oft wissenschaftliche PR-Meldungen schon mehr oder weniger wörtlich journalistisch übernommen werden. Sofern dies zur gängigen Praxis wird, macht sich der Wissenschaftsjournalismus offensichtlich selbst überflüssig und lenkt die Leser früher oder später direkt auf die Seiten der wissenschaftlichen Institute und bloggenden Wissenschaftler. Die mögliche Strategie, in dieser Situation verstärkt auf “Entertainment” und “Sensation” zu setzen, erscheint ebenfalls kurzsichtig, da dies Stilmittel sind, die auch immer mehr von den PR-Stellen selbst genutzt werden.

Sofern der Wissenschaftsjournalismus seine Rolle als zuverlässiger, objektiver, kritischer Beurteiler von Wissenschaft aufgibt und die Leser in die vielfältige Welt der wissenschaftlichen Online-Berichterstattung ausschwärmen lässt, wird nun das Auswahlproblem wiederum für den Leser relevant, der nun selbst vor der Aufgabe steht, die Natur der gewählten Informationsquelle in Bezug auf Verlässlichkeit und Interessengeleitetheit einzuschätzen. Dean Burnett hat in seinem Guardian Blog vor einigen Tagen den Vorschlag erörtert, ein Klassifikationssystem für wissenschaftliche Nachrichten einzuführen, analog zur Klassifikation von Kinofilmen des British Board of Film Classification, durch die der potentielle Zuschauer schon im Vorfeld darauf eingestimmt wird, welchen Inhalt er zu erwarten hat.

Mögliche Kategorien könnten hierbei laut Burnett sein: “Schuhanzieher – enthält den Versuch Wissenschaft in kruder Weise mit aktuellen Themen zu verbinden” um vor Autoren zu warnen, die nicht wissen, wie sie auf plausible Weise Leser für ein bestimmtes Thema interessieren können, “Wilde Extrapolation – Artikel, der nur eine schwache Verbindung zu tatsächlicher Forschung hat” für Artikel die in falscher Art und Weise die Konsequenzen spezifischer Forschung zu verallgemeinern versuchen, “Provokativer Titel – Der Text des Artikels passt vermutlich nicht zum Titel”, für ein Phänomen das insbesondere im Online-Journalismus bestens bekannt ist, oder auch “Aufgewärmte PR – der Artikel ist größtenteils eine wiederaufgewärmte Pressemitteilung”.

... Wenn man sich die Diskussionen zur Wissenschaft im Netz ansieht, merkt man aber, dass ein großes öffentliches Interesse dem wirklichen, meinungsunabhängigen Verständnis wissenschaftlicher Erkenntnisse gilt, für das anerkanntermaßen Expertenwissen notwendig ist. Wer sich für Wissenschaft interessiert, interessiert sich in der Regel nicht für irgendwelche Meinungsströme, sondern für seriöse, belastbare Informationen, die nicht ohne ein tiefes Verständnis wissenschaftlicher Forschung geliefert werden können. Um solche seriösen Informationsquellen identifizieren zu können, könnte das von Burnett vorgeschlagene Klassifikationssystem (in einer weniger satirischen Version) eine Hilfe darstellen. Die Frage ist allerdings, wer ein solches Klassifikationssystem, so nützlich es auch sein mag, etablieren könnte.


Burnett selbst scheint als Urheber eines solchen Klassifikationssystems die Wissenschaftler vor Augen zu haben. In den Kommentaren wird ebenfalls deutlich, dass den Wissenschaftsjournalisten die dafür notwendige Urteilskraft nicht unbedingt zugetraut wird. Hier wird das Dilemma des Wissenschaftsjournalismus deutlich: im Fall der Wissenschaft ist es vergleichsweise einfach, sich im Meer der Meinungen Gehör zu verschaffen, da das Themenfeld aufgrund seiner anerkanntermaßen hohen fachlichen Einstiegshöhe in besonderem Maße nach Experten verlangt. Gleichzeitig gibt es diese Experten aber schon, und das sind erstmal nicht die Wissenschaftsjournalisten, sondern die Wissenschaftler, die neuerdings nicht mehr davor zurückschrecken, auch selbst immer stärker und immer vielfältiger mit der Öffentlichkeit zu kommunizieren. Anders als beispielsweise Politiker erscheinen Wissenschaftler ausserdem weit weniger verdächtig, die Kommunikation mit der Öffentlichkeit für ihre eigenen Zwecke instrumentalisieren zu wollen, sofern sie, wie in vielen Blogs üblich, nicht von eigenen Forschungsergebnissen berichten. Sofern der Wissenschaftsjournalismus sich immer noch lediglich in der Rolle des Vermittlers, des Erklärers und Übersetzers sieht, wird er daher von den immer professioneller kommunizierenden Wissenschaftlern überflüssig gemacht. Wenn er aber versucht, in die Rolle des wissenschaftlich inspirierten Spaß-Animateurs auszuweichen, bekommt er Konkurrenz von immer schriller agierenden PR-Abteilungen.

Es gibt allerdings einen Bereich, der dem Wissenschaftsjournalismus nicht so schnell streitig gemacht werden würde, und das ist der Bereich der kritisch-einordnenden Meta-Perspektive auf Wissenschaft

Wenn der Wissenschaftsjournalismus es schaffen kann, größere Zusammenhänge aufzuzeigen, neue Sichtweisen zu eröffnen, Reichweiten von Ergebnissen einzuschätzen, die Wissenschaft als eine Unternehmung im gesellschaftlichen Kontext zu verstehen, könnte er sich einen unabhängigen Expertenstatus sichern. Denn eine solche übergeordnete Perspektive geht im immer spezialisierter agierenden Wissenschaftsbetrieb zunehmend verloren, während den PR-Abteilungen dafür die nötige Unabhängigkeit fehlt. Idealistisches Ziel wäre es, mit solch einem Journalismus ein Klassifikationssystem, wie im Guardian angeregt, für wissenschaftsjournalistische Artikel weitgehend überflüssig zu machen. Eine solche Position einzunehmen, erfordert eine solide wissenschaftliche Grundausbildung, methodisches Verständnis und hohe intellektuelle Flexibilität. All dies ist aber notwendig, wenn es darum geht, den Leser davon zu überzeugen dass man so etwas wie Wissenschaftsjournalismus braucht; ... wenn man möchte, dass der Leser dem Wissenschaftsjournalisten vertraut, weil er ihm vertrauen kann.


Sonntag, 21. September 2014

Wissenschaft ist auch dann öffentliches Wissen, wenn es keiner braucht.

aus Süddeutsche.de

Ig-Nobelpreise für skurrile Forschung
Warum ist Jesus auf dem Toastbrot?
Hunde pinkeln Richtung Nordpol, Psychopathen bleiben gern lange wach und auf Toastbroten sind Gesichter versteckt: An der US-Universität Harvard sind die Anti-Nobelpreise verliehen worden. Das ist durchaus eine ernste Sache.
 
Von Christoph Behrens

Menschen, die Jesus auf Toastbroten sehen, können aufatmen. Denn nach Ansicht von Neuroforschern ist das völlig normal. Das Gehirn sei so verkabelt, dass es stets nach bekannten Mustern sucht, schrieb ein Team um Kang Lee von der Universität Toronto kürzlich im Journal Cortex. Als sie Versuchspersonen vorgaukelten, auf einem diffusen Bild seien Gesichter oder Zahlen versteckt, entstand im Gehirn der Probanden häufig genau dieser Eindruck. 

Die Arbeit hat den kanadischen und chinesischen Wissenschaftlern nun den "Ig-Nobelpreis für unwahrscheinliche Forschung" eingebracht. In einer schrillen Gala an der US-Universität Harvard zeichnete die Organisation "Improbable Research" mit diesem Anti-Nobelpreis zehn Forschungsarbeiten aus, die "erst zum Lachen und dann zum Denken anregen".

Dazu zählte für die Jury auch ein Experiment deutscher und tschechischer Forscher. Schon allein für ihren Fleiß hätten die Biologen um Vlastimil Hart von der Tschechischen Agraruniversität Prag, ČZU, einen Preis verdient, denn sie begleiteten 70 Hunde insgesamt 1893 mal beim Stuhlgang und 5582 mal beim Urinieren. Die sorgfältigen Messungen erlaubten am Ende nur einen Schluss: Wenn Hunde ihr Geschäft verrichten, orientieren sie sich dabei am Erdmagnetfeld. Die Tiere pinkeln also mit hoher Wahrscheinlichkeit in Richtung des Nord- oder Südpols. Warum das so ist, wissen die Biologen nicht, doch der erstmalige Nachweis eines Magnetsinnes bei Hunden könne gravierende Folgen haben: Das Phänomen "zwingt Biologen und Ärzte dazu, die Auswirkungen magnetischer Stürme auf Organismen neu zu hinterfragen", erklärt Harts Team im Fachmagazin Frontiers in Zoology.

Wissenschaftler, die sich als Eisbären verkleiden

Mit Schmerzempfindungen beschäftigte sich Marina de Tommaso von der italienischen Aldo-Mori-Universität Bari. Die Neurologin beschoss die Hände ihrer Probanden mit einem Laserstrahl, als diese entweder ein schönes oder ein hässliches Gemälde betrachteten. Ergebnis: Die als ästhetisch empfundenen Werke milderten den Schmerz des Laserstrahls deutlich, schlechte Kunst ließ die Versuchspersonen dagegen besonders leiden - klarer Sieger in der Kategorie Kunst.

Zu einem verstörenden Ergebnis kamen Psychologen der Liverpool Hope University und der University of Western Sydney. Sie entdeckten, dass notorische Spätaufbleiber im Durchschnitt häufiger narzisstische, machiavellistische und psychopathische Züge zeigen. Psychologen bezeichnen diese Eigenschaften als "Dunkle Triade". Nachteulen vereinen dieses Trio wohl besonders häufig in ihrer Persönlichkeit, so die Psychologen. Der Titel ihrer preiswürdigen Forschungsarbeit lautet folgerichtig: Kreaturen der Nacht.

Auch wenn viele der mit dem Ig-Nobelpreis gewürdigten Arbeiten zunächst schmunzeln lassen, haben sie doch häufig einen großen Wert für die Wissenschaft. Der Preis solle das Ungewöhnliche feiern und die Vorstellungskraft anregen, erklärten die Veranstalter. Die Verleihung, die häufig durch echte Nobelpreisträger erfolgt, ist für die Forscher eine Würdigung besonderer Kreativität. Diese zeigten etwa zwei Forscher aus Oslo, die sich selbst als Eisbären verkleideten und Rentiere auf Spitzbergen erschreckten. Auf Eisbär-Kostüme reagierten die Tiere deutlich früher und panischer, als auf die Annäherung von Wanderern. Den Forschern geht es mit den Experimenten um die Auswirkungen des Klimawandels: "Da die Eisbärpopulation auf Spitzbergen wächst, und die Eisbedeckung in der Arktis im Sommer zurückgeht, wird es wohl künftig häufiger zu solchen Begegnungen kommen", schreiben Eigil Reimers und Sindre Eftestøl in einem Fachmagazin.

Zum Lachen ist eher der Ig-Nobelpreis für Wirtschaftswissenschaften. Er ging an die italienische Regierung und ihre Statistikbehörde. Die Mathematiker hatten stolz die Einkünfte der Italiener aus Prostitution, Drogenhandel, Schmuggel und Schwarzmarktgeschäften in ihre ökonomischen Berechnungen einfließen lassen, und so das Wirtschaftswachstum Italiens auf dem Papier erhöht.

Doch auch der Ernährungspreis sollte nicht vergessen werden. Eine spanische Forschungsarbeit hatte zum Thema: "Charakterisierung von Milchsäurebakterien isoliert aus Säuglingsfäkalien als potenzielle probiotische Starterkulturen für fermentierte Würste".



Samstag, 20. September 2014

Wissenschaft entzaubert nicht.

Ein Blitz bleibt phantastisch, auch wenn er nicht in die Christusstatue in Rio einschlägt.
aus nzz.ch,

Was die Naturwissenschaft zu erzählen hätte
Vom Zauber der Entzauberung



Wissenschaft läuft auf eine kalte Weltsicht hinaus: Das scheint schon seit den desillusionierenden Einsichten eines Kopernikus oder Darwin festzustehen. Aber stimmt es noch? Es zeichnen sich Veränderungen ab – und neue, faszinierende Welterzählungen.

Physik ist schwierig, Chemie trocken. Wissenschaft überhaupt entzieht der bunten Wirklichkeit das Leben und reduziert sie auf Formeln und Begriffe: So das verbreitete Bild. Niemand bestreitet die Bedeutung moderner Wissenschaft, aber ihre Sympathiewerte sind durchwachsen. Tatsächlich scheint es, als hätten wissenschaftliche Einsichten häufig eine geradezu phantasiedämpfende Tendenz. Der Blitz, in dessen Urgewalt frühere Zeiten das Wirken der Götter erlebten, ist nur eine elektrische Entladung. Die Sonne, vielgepriesen und vielbesungen, ist nur ein primitiver Reaktor, der Wasserstoff in Helium verwandelt. Das Geheimnis der Vererbung entpuppt sich als ein genetischer Code, der sich als trostlose Buchstabenkolonne wiedergeben lässt. «Entzauberung» nannte der Soziologe Max Weber den ernüchternden Zug naturwissenschaftlicher Erkenntnisse. Diese seien «geeignet, den Glauben daran, dass es so etwas wie einen ‹Sinn› der Welt gebe, in der Wurzel absterben zu lassen».

Ein Klischee

Und doch: Öffnet die wissenschaftliche Optik nicht zugleich völlig neue Durchblicke? Gewiss ist die Sonne nur ein Fusionsreaktor, der keinen Morgen und Abend kennt; sie kann aber dort, wo es Morgen und Abend gibt, erstaunliche Abläufe in Gang setzen. Auf einem ihrer Planeten jedenfalls haben sich Organismen entwickelt, die die Sonnenstrahlung chemisch nutzen können, um energiereiche Stoffe zu bilden, und andere Organismen, die das zwar nicht können, aber in zweiter Reihe profitieren: Was auf der ersten Stufe durch Fotosynthese erzeugt wird, ernährt – in pflanzlicher Darreichungsform – eine ganze Nahrungskette. Die Sonnenenergie wird auf diesem Weg gleichsam durchgereicht bis zum Menschen. Der nämlich hat, selbst durch extensives Sonnenbaden, bisher nicht die Fähigkeit zur Fotosynthese erlangt.

Dass die alten Geschichten erstaunlicher als die neuen seien – das ist nicht mehr als ein Klischee. Wie phantastisch die neuen Geschichten sein können, zeigte die Entdeckung der Wege der Vererbung. Die uralte Frage, wie die offenkundigen Ähnlichkeiten zwischen Kindern und Eltern zu erklären sind, war über Jahrtausende unbeantwortbar. Klar schien nur, dass in irgendeiner Form ein winziges Stück Leben weitergegeben werden müsse. Als schliesslich im 17. Jahrhundert, nach der Entwicklung des Mikroskops, erstmals Spermien vor ein menschliches Auge kamen, entstand die Hypothese, in ihnen müsse sich ein winziges Menschlein verbergen. Vererbung, so die naheliegende Annahme, bestehe wohl in der Weitergabe von miniaturisiertem Leben.

Die Geschichte, die demgegenüber die moderne Biologie erzählt – dass zwischen dem einen und dem nächsten Leben ein Zwischenschritt völlig anderer Art liegt, dass überhaupt nicht Leben weitergegeben wird, sondern ein scheinbar lebensferner Code, der zudem aus den elterlichen Codes kombiniert und dann ganz neu ausgelesen werden muss, dass sich also jedes Menschlein von der ersten Zelle an vollkommen neu bildet –, diese Geschichte mag auf den ersten Blick enttäuschend wirken; es ist ein bisschen wie der Unterschied zwischen einem Stück Kuchen und einem Zettel mit einem Kuchenrezept. Entzauberung eben. Zugleich aber offenbart sich hier eine «Organisiertheit» der Dinge, die raffinierter und extravaganter als alle Vererbungsspekulationen seit Aristoteles ist. Ja, auf einer gewissen Ebene ist der genetische Code eine Buchstabenkolonne. Auch Homers Odyssee und die Bibel sind, auf einer gewissen Ebene, nur Buchstabenkolonnen. Und ja, Wissenschaft zerstört alte Erzählungen – aber sie bringt auch neue, faszinierende Erzählungen hervor.

Nicht dass dies gar nicht registriert würde. Jedes Kind hat heutzutage vom Urknall gehört. Und auch die Wunder der Biologie, vom Vogelflug bis zu den Wanderungen der Lachse, finden ihr Publikum. Meist aber beschränkt sich das Interesse aufs Verblüffende und Spektakuläre und erreicht nicht das, worauf es eigentlich ankäme: die neuen Geschichten in ihrer eigenen Logik, ja Fremdheit zu erzählen. 

Das würde erfordern, auch auf den ersten Blick sperrige, molekulare oder physiologische Zusammenhänge transparent zu machen, überhaupt einen Sinn für das Unscheinbare und Subtile zu entwickeln, das in jedem Lebewesen wirksam ist; vieles ist noch längst nicht in allen Tiefen verstanden. Zugleich hiesse es, sich Herausforderungen anderer Art zu stellen. Die phantastischen Mechanismen der Evolution etwa sind auch von phantastischer Grausamkeit. Die Evolution ist eine Geschichte vom Fressen und Gefressenwerden. Nicht wirklich das, womit man Kinder in eine gute Nacht schickt. Verständlich die Sehnsucht nach den alten Erzählungen, in denen die Welt noch als menschenfreundliche Inszenierung erlebbar war.

Zwar kam auch das vormoderne Denken um die Zumutungen des Daseins nicht herum. Wovon handelt das Buch Hiob? Womit plagte sich die europäische Geisteselite nach dem Erdbeben und Tsunami von Lissabon 1755 ab? Immer ging es darum, die Schrecken der Welt mental zu integrieren, letztlich das Erleben von Ungerechtigkeit und Kontingenz mit der Vorstellung eines guten Schöpfers vereinbar zu machen. Die ungeheuerliche, geradezu menschenfressende Wirklichkeit der Welt war immer auch Thema der Religionen.

Nur lassen sie, im Unterschied zur Wissenschaft, den Menschen mit diesen Bildern nicht allein. Sie glauben diese Bilder durch ein tieferes Bild grundieren zu können, in dem das vorläufig Unverständliche seine Auflösung findet. Oder wie es Hölderlin beschwor: «Was hier wir sind, kann dort ein Gott ergänzen.» Solche «Finalität» hat die Wissenschaft in der Tat nicht zu bieten. Diese vermeintliche Schwäche aber ist zugleich eine Stärke. Sie ist das geistige Billett für ein Forschen mit offenem Ausgang, für – immer noch schwer erkämpfte – Paradigmenwechsel, für den Einspruch der Wirklichkeit gegen die Erwartung.

Kuriose Evolution

Auch die Evolution ist, aus dem gehörigen Abstand betrachtet, eine kuriose Veranstaltung. Einerseits sprühend vor Innovationen, andererseits konservativ bis ins Mark. Frühe «Lösungen», etwa biochemische Mechanismen, die sich bei den ersten Einzellern bewährten, sind noch bei den komplexesten Lebewesen im Kern dieselben. Festgehalten wird andererseits auch manches, das seine ursprüngliche Funktion verloren hat. Das beginnt mit den männlichen Brustwarzen, wohl ein Relikt aus Zeiten, in denen Säugetiere als glückliche Zwitter lebten. Und es geht bis hinunter ins Genom: Bestimmte Abschnitte haben eine scharf definierte Funktion, deren Ausfall schwerste Leiden auslöst; andere wirken eher indirekt, als Schalter und Steuerungselemente; wiederum andere gleichen einem genetischen Trümmerfeld, auch wenn dieses, biologisch korrekt, nicht mehr als «Junk-DNA» denunziert wird, weil sich auch darin manch unerkannte Bedeutung verbergen dürfte.

Die Evolution verfährt sozusagen «very British»: Im Lauf der Jahrhunderte wurde das politische System auf der Insel von Grund auf verändert, und doch ist da noch die Queen, und die Parteien im Unterhaus sitzen bis heute zwei Schwertlängen auseinander. So bieten auch die wissenschaftlichen Erzählungen das ganze Spektrum: grundlegend Neues und Umbau früherer Modelle, Eleganz und wüste Bastelei. Lebensfern und abgehoben, wie das Klischee behauptet, ist nichts daran. Im Gegenteil, Wissenschaft erzählt die realen, die ungeraden, merkwürdigen Geschichten. Die frisierten Geschichten überlässt sie Hollywood. Und sie erzählt Geschichten mit offenen Enden, so unkalkulierbar, als walte darin die unpädagogische Spannung des Lebens selbst.

Dies allerdings sichtbar zu machen, erfordert dann doch ein wenig Pädagogik. Jedenfalls geht es nicht im Routine-Modus der Schulen, wo das fertige Wissen, vom Atommodell bis zu den mendelschen Regeln, kopflos ausgeschüttet wird. Und es geht auch nicht im angeberischen Modus vieler Wissenschafts-Shows. Hier wie dort werden staunenswerte, unter grösstem Einsatz errungene Einsichten banalisiert und ins gegebene Format gepresst. Während es in Wahrheit aufs Gegenteil ankäme: sie in ihrer Eigenart, ja Kostbarkeit fühlbar zu machen. Dass sich Wissenschaft auf solche Weise zu erzählen lernt – dieser Prozess hat gerade erst begonnen.

Wolfgang Müller ist Redakteur beim Norddeutschen Rundfunk in Hamburg.

N. N.

Nota.

Bemerkenswert an diesem Beitrag ist etwas, das gar nicht darinsteht. Dass nämlich das furiose Raumgreifen des Ästhetischen in der Neuzeit eine Kompensation sei für den verlorenen Zauber der Mythen und frommen Mären, verliert hier an Plausibilität. Es unterstellt, dass die metaphysischen Verkleidungen, in die die Welt vor der epochalen Säkularisierung gewandet war, deren Rätsel für die große Masse der Menschen gelöst hätten, und dass nach deren Fortfall ein Fehlbedarf entstanden sei, der mit schönem Schein ausgeglichen werden musste. 

Für die große Masse der Menschen hatten die metaphysischen Bauwerke nie eine Bedeutung gehabt, und dass sie die Rätsel der Welt gelöst hätten, haben die Gelehrten, denen sie bekannt waren, selber nicht geglaubt. Für die große Masse der Menschen sind die Rätsel des Daseins bis heute so ungelöst wie je, und sie haben sich darin eingerichtet wie je. Und auch für die Wenigen, die daraus ein Problem machen, blieb alles beim Alten.

Bleibt als Ergebnis nur dies: Das Vordringen des Ästhetischen in die alltägliche Lebenswelt der großen Masse muss seinen eigenen Grund gehabt haben.
JE

Freitag, 19. September 2014

«Paradigmenwechsel».

aus nzz.ch, 19.9.2014, 11:30 Uhr



Seit alters wechseln die vier Jahreszeiten, die vier Mondphasen und die sieben Wochentage, buchstäblich ja «Wechseltage», und seit neuestem wechseln nicht so regelmässig, aber immer öfter auch die «Paradigmen». Im 5. Jahrhundert v. Chr. war das Wort bei dem griechischen Historiker Herodot, dem «Vater der Geschichtsschreibung», in das Licht der Wortgeschichte eingetreten, und vor einem halben Jahrhundert hat der amerikanische Wissenschaftstheoretiker Thomas S. Kuhn als Erster in einem sehr speziellen Sinn von einem «Paradigmenwechsel» gesprochen. Seitdem ist die prächtige Prägung von den Höhen der Wissenschaftstheorie in die alltägliche globale und lokale Politik übergewechselt; das jüngste Beispiel betrifft die Krankenversicherung, und mit dem «Beispiel» sind wir der Sache schon ganz nahe.

Das griechische parádeigma – so der originale, im modernen Euro-Wortschatz fast prägefrisch erhaltene Singular – hat Kopf, Rumpf und Schwanz, und das säuberlich geschieden: Vorneweg geht da das Präfix para-, «neben-, nebenbei-, nebenher-», wie in den nebenher laufenden «Parallelen» oder den neben den Text geschriebenen «Paragrafen»; darauf folgt der Verbstamm deik-, vor dem weichen Folgelaut deig-, sprachver- wandt mit unserem «zeigen» und in ebendieser Bedeutung; und hinterdrein kommt das verdinglichende Suffix -ma wie im «Trauma», der «Verletzung», oder im «Klima», der «Neigung» der Erdoberfläche gegenüber der Sonneneinstrahlung. Ein parádeigma: das ist, wortwörtlich verdolmetscht, ein «Nebenbei-Gezeigtes». Das Wort führt uns zunächst in die Werkstätten der Handwerker und die Ateliers der Bildhauer und Maler. Seinen ersten Auftritt hat es in der makabren Schilderung, in der Herodot die hohe Kunst der ägyptischen Einbalsamierer beschreibt: «Wenn denen ein Leichnam gebracht wird, zeigen sie – deiknyousi – denen, die ihn bringen, hölzerne, bemalte Muster – paradeígmata – einbalsamierter Leichname . . .» Da wird das Wort zum Bild: hier der zur Mumifizierung hergebrachte Tote und «daneben» zur Auswahl die drei hölzernen «Zeigestücke» der aufwendigsten und teuersten, einer billigeren und der billigsten Ausführung. Ein andermal, wieder bei Herodot, bezeichnet das parádeigma das – doch wohl auch hölzerne – Modell des alten Tempels in Delphi.

Im 4. Jahrhundert v. Chr. finden wir das Wort auf die leibhaftigen Modelle der Bildhauer und Maler bezogen und weiter in bildlicher Sprache, im Sinne eines «Vorbilds», auf die platonischen Ideen: In seinem utopischen «Staat» erklärt Platon, eine Polis-Gemeinschaft könne niemals anders zu einer glücklichen Verfassung kommen, als wenn die «Maler» – die Gesetzgeber – ein «göttliches parádeigma» vor Augen hätten, sie davon abzumalen. Und wie der Staat, so das All: Einzig im Hinschauen auf ein «ewiges parádeigma», heisst es entsprechend in Platons «Timaios», könne der göttliche Baumeister des Alls diesen Kosmos, «den schönsten von allem Gewordenen», erschaffen haben.

Seinen Weg in den Euro-Wortschatz hat das «Paradigma» aber nicht auf diesen Höhenflügen gefunden, sondern per pedes: auf der viele Jahrhunderte langen staubigen Landstrasse des grammatischen Schulunterrichts. Seit der Spätantike bezeichnete das parádeigma alias – lateinisch – paradígma das Deklinations- oder Konjugations-«Beispiel» für die nach diesem Muster deklinierten oder konjugierten Nomina und Verben. Wie der Bildhauer im Atelier auf sein parádeigma von Fleisch und Blut schaute, um seine marmorne Venus zu schaffen, so schaute nun der Lateinschüler im Schulzimmer auf das Paradigma amo, amas, amat . . ., um nach diesem «Schulbeispiel» die übrigen Verben der a-Konjugation durch alle Tempora und Modi durchzukonjugieren.

In jüngster Zeit ist das «Paradigma» in Gestalt jenes wissenschaftstheoretischen «Paradigmenwechsels» aus der lateinischen in die politische Grammatik übergesprungen und zum gewichtigen Hieb- und Stichwort im politischen Diskurs geworden. Die Paradigmen verwechseln und dann falsch deklinieren oder konjugieren, das sollte hier bedeuten: die Bezugssysteme verwechseln und dann zu falschen Schlussfolgerungen und Entscheidungen kommen. Mittlerweile ist das Wort auch für weniger tiefgreifende Politikwechsel in Mode gekommen. Greek is beautiful, Wechsel ist gefährlich; und mit dem schicken, rätselhaften Vortrab dieses «Paradigmen-» fällt der mahnende Einspruch gegen den Wechsel gleich viel edler ins Ohr.



Donnerstag, 18. September 2014

Von wegen Tötungshemmung.

Neues Schimpansen-Außengehege im Zoo Hannover
aus Süddeutsche.de,
 
Konflikte unter Affen  
Schimpansen sind geborene Killer
Schimpansen töten gelegentlich Artgenossen. Ist der Mensch schuld an der Affen-Aggression? Forscher vermuten eher, das Töten habe einen bestimmten evolutionären Sinn.
 
Von Christian Weber

Als Jane Goodall vor 35 Jahre zum ersten Mal über Schimpansen berichtete, die Artgenossen töten, war die Überraschung groß. Mittlerweile weiß man aus zahlreichen Berichten, dass diese nichtmenschlichen Primaten tatsächlich zu den wenigen Arten gehören, die mit zum Teil extremer Gewalt Konflikte ausfechten, manchmal sogar regelrechte Dschungelkriege führen. Umstritten blieb allerdings bis heute der eigentliche Grund für die Primatengewalt.

So machen einige Forscher den Menschen verantwortlich. Dieser habe vor allem durch das Verfüttern von Bananen an Forschungsstationen Zwietracht zwischen den Schimpansen gestiftet. Ein weiterer Grund für Konflikte könnten menschengemachte Habitatverluste sein. Andere Wissenschaftler hingegen halten die Gewaltbereitschaft der Schimpansen für eine evolutionäre Anpassung.

Im Fachmagazin Nature (Bd. 513, 2014, S.321) ergreift nun eine internationale Gruppe von 30 renommierten Primatenforschern um Michael Wilson von der University of Minnesota klar Partei für die Evolutionsthese. In ihrer Studie analysierten die Wissenschaftler unter anderem Daten, die über Jahrzehnte hinweg an 18 Schimpansen-Kolonien in Afrika erhoben wurden. An 15 Orten wurden Tötungsakte unter Gruppen beobachtet.

Bei den Kämpfen geht es um Nahrung und Sexualpartner
Dabei fanden sich in der Statistik keinerlei Belege, dass Aktivitäten wie Rodungen oder Flächenverbrauch die Zahl der Konflikte erhöht hätte. Im Gegenteil: Der friedlichste Orte war ausgerechnet jene Forschungsstätte in Guinea, die laut Studie am stärksten durch Menschen beeinträchtigt war.

"Die Muster tödlicher Aggression beim Schimpansen zeigen nur eine geringe Korrelation mit menschlichen Einflüssen", folgern die Autoren. "Sie sind besser mit der adaptiven Hypothese erklärt, wonach das Töten ein Mittel ist, bei geringen eigenen Kosten Rivalen zu eliminieren." Es gehe um Ressourcen wie Nahrung und Sexualpartner. Dies erkläre auch, wieso es die meisten gewaltbedingten Todesfälle in Gemeinschaften gab, wo die Populationsdichte hoch und die Zahl der Männchen groß war.

Auch unter den Schimpansen sind es - ähnlich wie bei Menschen - hauptsächlich die Männchen, die wiederum andere Männchen und Jungtiere töten. In einem Kommentar zur Studie warnt Joan Silk von der Arizona State University jedoch vor leichtfertigen Übertragungen: "Menschen müssen nicht notwendigerweise kriegerisch sein, nur weil Schimpansen gelegentlich ihre Nachbarn töten."



Dienstag, 16. September 2014

Nur mit der Amygdala sieht man gut.

aus Die Presse, Wien 16. 9. 2014

Hirnforschung
Altruisten spüren die Angst ihrer Nächsten stärker
Organspender reagieren stärker auf negative Emotionen in Gesichtern als andere Menschen.

  

„Wann wir nicht durch eigene, sondern durch fremde Leiden zum Weinen bewegt werden; so geschieht dies dadurch, dass wir uns in der Fantasie lebhaft an die Stelle des Leidenden versetzen“, schrieb Schopenhauer, der das Mitleid als Basis der Ethik sah. Was Abigail Marsh und Kollegen an der Georgetown University in Washington herausgefunden haben, scheint den Philosophen zu bestätigen.

Man weiß, dass Psychopathen, die sich besonders asozial verhalten, weniger auf Angst in den Gesichtern von Mitmenschen reagieren als andere. Das lässt sich auch durch NMR-Spektroskopie im Hirn nachweisen. Genauer: in der Amygdala. Das ist eine paarige Struktur in den beiden Schläfenlappen des Großhirns. Sie ist auf Angst spezialisiert, zunächst auf eigene, aber eben auch auf die von Mitmenschen. Psychopathen zeigen dort weniger Aktivität, ihre Amygdala ist sogar kleiner als die anderer Menschen.

Marsh fragte sich nun: Wie sieht es am anderen Ende des Spektrums aus? Bei Menschen, die sich besonders altruistisch verhalten? Als Testpersonen wählte sie Menschen, die eindeutig Selbstlosigkeit gezeigt haben: durch Spenden einer Niere, nicht an Bekannte oder Verwandte, sondern an Fremde.

Tatsächlich war bei den ausgewiesenen Altruisten die Amygdala größer und reagierte stärker auf ängstliche Gesichter. Der Unterschied in der rechten Amygdala war stärker ausgeprägt; bei höheren Funktionen ist das Hirn eben durchaus nicht symmetrisch.

Dass sich Altruismus so klar im Hirn verorten lässt, passt gut zu Indizien dafür, dass genetische Faktoren – selbstverständlich neben Kultur und Erziehung – beeinflussen, wie sozial sich ein Mensch verhält. Jedenfalls sprechen die neuen Ergebnisse dafür, dass Altruismus eine Gefühlssache ist, dass das Wort Mitleid wörtlich zu verstehen ist.

Das widerspreche nicht „vernünftigeren“ Erklärungen für Hilfsbereitschaft – etwa nach dem Motto: Gib, dann wird dir gegeben –, schreiben die Hirnforscher, aber es sei eben ein Teil der biologischen Basis des Altruismus. Eine Wurzel dieser starken Reaktion auf negative Emotionen in Gesichtern liege wohl „in der uralten neuralen Architektur von Säugetieren, die dazu dient, die Fürsorge für verletzliche Jungen zu fördern“.


Montag, 15. September 2014

Es geht auch ohne Kleinhirn.

aus derStandard.at,


Überraschung bei MR-Scan: 
Junge Frau ohne Kleinhirn
 
Was die Ärzte bei einer 24-jährigen Frau festgestellt haben, als sie - über Schwindelgefühle klagend - in ein Krankenhaus in der chinesischen Provinz Shandong kam, werden sie vermutlich nie wieder vergessen: Computer- und Magnetresonanztomographien offenbarten ein großes Loch (oberes Bild) an jener Stelle, wo bei anderen Menschen das Kleinhirn sitzt (unten). Wie es zu dieser Fehlbildung kam, ist unklar - viel verblüffender ist jedoch, wie es die Frau geschafft hat, ohne Kleinhirn ein praktisch unbeeinträchtigtes Leben zu führen. 

Normalerweise ist das Kleinhirn für die Kontrolle von bewussten und unbewussten Bewegungen sowie die Körperbalance verantwortlich; außerdem soll es beim Spracherwerb eine wichtige Rolle spielen. Probleme im Kleinhirn können zu schwerer geistiger Behinderung führen, zu Bewegungsstörungen, Epilepsie, bisweilen auch zum Tod. Auf die chinesische Patientin allerdings trifft all das nicht zu: Sie lernte zwar erst sehr spät Sprechen und brauchte auch lange, um das Gehen zu meistern. Heute jedoch sind ihre motorischen Probleme kaum mehr der Rede wert und sie leidet allenfalls an einem leichten Sprachfehler. Für die Wissenschafter zeigt diese Frau (sie repräsentiert einen von insgesamt nur neun bekannten derartigen Fällen), wie flexibel das menschliche Gehirn selbst auf großräumige Ausfälle reagieren kann.

Abstract
Brain: "A new case of complete primary cerebellar agenesis: clinical and imaging findings in a living patient"

Sonntag, 14. September 2014

Evolution des Lachens.

Rembrandt als Demokrit,  1629
aus Die Presse, Wien, 14. 9. 2014

Warum Lachen ansteckend ist
"Gelächter ist sexy", sagt der Psychologe Robert Provine. Und es ist ansteckend. Woher kommt dieses Verhalten? Und haben es nur Menschen?

 

Auch wenn es manchen Gender-Dogmatikern nicht gefallen wird (und dem Vizepremier der Türkei unsittlich vorkommen mag) – unter den offenbar nicht nur durch die Kultur geprägten Unterschieden zwischen Männern und Frauen ist dieser: Frauen lachen häufiger als Männer. Dafür bringen Männer häufiger Frauen zum Lachen als umgekehrt. Es ist kein Zufall, dass es viel mehr männliche Kabarettisten als Kabarettistinnen gibt, und dass der Klassenkasperl in Schulklassen meist ein Bub ist. Auch in Kontaktanzeigen beschreiben sich Männer häufiger als humorvoll, während Frauen nach ebendieser Eigenschaft suchen: Sie wünschen sich einen Mann, der sie zum Lachen bringt.

„Gelächter ist sexy“, schreibt der Psychologe und Neurowissenschaftler Robert Provine in seinem Buch „Ein seltsames Wesen“: „Frauen, die Männer anlachen, reagieren damit nicht nur auf deren komödiantische Fähigkeiten. Sie finden Männer, von denen sie zum Lachen gebracht werden, auch attraktiv, und Männer mögen Frauen, die in ihrer Gegenwart lachen.“ Diese Asymmetrie ist wohl aus einer grundlegenderen Asymmetrie zu erklären: dass Frauen – auch wenn es nicht immer so aussehen mag und in manchen Kulturen systematisch unterdrückt wird – die Wählenden sind und Männer die für sich Werbenden.

Lachepidemien. Das soll nicht heißen, dass Lachen nur der Partnerwahl dient! Es ist ein viel breiteres soziales Signal, man denke nur daran, wie eine ganze Abteilung willfährig lacht, wenn der Chef (oder auch die Chefin) einen Witz erzählt. Wir lachen auch, wenn andere lachen. „Das Lachen gehört zu den im hohen Grade ansteckenden Äußerungen psychischer Zustände“, schrieb Sigmund Freud 1905 in „Der Witz und seine Beziehung zum Unbewussten“. Man kann das bei Sitcoms im Fernsehen überprüfen: Ob wir es wollen oder nicht, das zugespielte Lachen aus der Konserve erhöht unsere Lachbereitschaft. Ohne es fänden wir z.B. manche One-Liner Sheens in „Two And a Half Men“ gar nicht so lustig. 1962 kam es in Tanganjika (heute: Tansania) gar zu einer Lachepidemie, ausgelöst am 30.Jänner von drei Schülerinnen einer Mädchenschule. Das Lachen breitete sich aus, am 18.März musste die Schule geschlossen werden, da an Unterricht nicht mehr zu denken war.


Die Epidemie dauerte bis in den Sommer. Immerhin gab es keine Todesfälle – im Gegensatz zum Sketch „The Funniest Joke in the World“ der britischen Komikergruppe Monty Python: Es geht um einen Witz, der so lustig ist, dass jeder, der ihn hört, sich totlacht. Die britische Armee lässt diesen Witz ins Deutsche übersetzen, um ihn als Kriegswaffe zu verwenden. Dabei wird für jedes Wort ein anderer Übersetzer verwendet, um Verluste in den eigenen Reihen zu vermeiden...

Was muss das wohl für ein Witz gewesen sein? Egal. Seltsamerweise ist die Heftigkeit des Gelächters nicht proportional zur Witzigkeit eines Witzes (wie immer man diese definieren mag). Mehr noch: Es muss nicht einmal ein Witz sein. Provine hat bei heimlichen Beobachtungen herausgefunden, dass das Gelächter in Gesprächen meist keine Reaktion auf Witze oder Anekdoten ist. „Unser Leben ist voll von eingespieltem Gelächter in der sicherlich schlechtesten Sitcom der Welt“, konstatiert er, und: „Lachen hat mehr mit Beziehungen als mit Humor zu tun.“

Woher kommt diese universelle Lautäußerung? Und ist sie exklusiv menschlich? Lachen etwa Schimpansen auch? Ja, aber es klingt nicht so: Wenn junge Schimpansen gekitzelt werden oder herumtollen, dann zeigen sie die unteren Zähne (nicht die oberen) und geben ein hechelndes Geräusch von sich, das Charles Darwin schon als Lachen interpretiert hat: „Wenn junge Schimpansen gekitzelt werden – in den Achselhöhlen sind sie dafür sehr empfindlich, so wie unsere Kinder –, wird ein kichernder oder lachender Laut geäußert“, schrieb er in „The Expression of the Emotions in Man And Animals“. Darwin bewies damit Fantasie, denn das Hecheln klingt so gar nicht wie menschliches Lachen, eher nach einem Asthmaanfall. „Ein Mensch, der mit einem schimpansenartigen Lachen geschlagen ist, dürfte Schwierigkeiten haben, Dates zu arrangieren, einen Tisch in einem guten Restaurant zu bekommen oder für ein hohes politisches Amt zu kandidieren“, schreibt Provine.

So ist die evolutionäre Vorstufe des Lachens das rhythmische Hecheln beim körperlich anstrengenden Spielen. Irgendwann wurde dieses Geräusch bei unseren äffischen Vorfahren ritualisiert. Wer hechelt, sagt damit: Ich spiele (nur), ich tu dir nichts. Dass sich aus dem Hecheln das Lachen entwickelte, wurde – wie die Sprache – durch den aufrechten Gang möglich. Bei Affen, die auf allen vieren gehen, ist Atmung und Laufen synchronisiert: ein Atemzug pro Schritt. Bei uns Zweibeinern sind Gehen und Atmen entkoppelt, und mehr noch: Wir können nicht nur einen Laut pro Atemzug produzieren. Das ermöglicht uns das Sprechen und das Lachen.

Ha-ha-ha, he-he-he, hi-hi-hi oder ho-ho-ho, die Unterschiede sind subtil und noch zu erforschen (so wie die Frage, ob Kichern nur ein Spezialfall des Lachens ist), der Rhythmus ist immer ähnlich: kurze Silben, die sich in Abständen von ungefähr einer Fünftelsekunde wiederholen. Wenn jemand schneller oder langsamer lacht, klingt das gekünstelt. Überhaupt können wir recht gut zwischen echtem und falschem Lachen unterscheiden; und den meisten fällt es schwer, auf Kommando zu lachen. Noch schwerer allerdings ist es, absichtlich zu weinen. Beide Lautäußerungen müssen wir nicht lernen: Das laute Weinen (ohne Tränen) aber beherrschen schon Neugeborene (es ist auch lebensnotwendig für sie), das Lachen entwickelt sich erst drei bis vier Monate später.

Das erste, das ursprünglichste Lachen ist die Reaktion auf das Gekitzeltwerden. So nennt Provine auch seinen „Kandidaten für den ältesten Witz: ein vorgetäuschtes Kitzeln.“ Das Spiel eines angedrohten Kitzelns sei auch „der einzige Scherz, den man einem Menschenbaby und einem Schimpansen gleichermaßen erzählen kann“.

Freitag, 12. September 2014

Der Mensch stammt vom Eichhörnchen ab.

Eine Versammlung baumbewohnender Säugetiere des Jura. Die drei Tiere links stellen Rekonstruktionen der neu entdeckten Spezies Shenshou lui, Xianshou linglong und Xianshou songae dar.

US-amerikanische und chinesische Paläontologen haben drei bisher unbekannte urzeitliche Wesen vorgestellt, die den Ursprung der modernen Säugetiere gründlich in Frage stellen. Die Kreaturen - eines davon sieht ein wenig so aus wie André Franquins "Marsupilami" aus seiner Comic-Serie "Spirou und Fantasio" - zählen zu der ausgestorbenen Tiergruppe Haramiyida, deren Einordnung im Stammbaum bisher noch völlig unklar war: Die Frage, ob sie bereits zu den Säugetieren zählten oder nicht, konnte anhand der vorhandenen fossilen Funden nicht eindeutig beantwortet werden.

Das hervorragend erhaltene Fossil von Senshou lui. Die Überreste lassen darauf schließen, dass das Tier an das Leben im Geäst angepasst war.

Die nun entdeckten, außerordentlich gut erhaltenen Fossilien könnten den Disput nun jedoch ein für alle mal beenden. Die in China freigelegten Überreste von Shenshou lui, Xianshou linglong und Xianshou songae zeigen eindeutige Säugetier-Charakteristika, wie die Forscher im Fachjournal "Nature" schreiben. Ihre Pfoten weisen sie als Baumbewohner aus, der Aufbau ihres Innenohrs gleicht exakt jenen von moderen Säugern und ihre ungewöhnlichen Zähne lassen darauf schließen, dass sie sich von Insekten, Nüssen oder Früchten ernährten.


Eine Rekonstruktion von Xianshou songae, quasi ein urzeitliches "Marsupilami". Das Tier von der Größe einer Maus dürfte aufgrund seiner charakteristischen Merkmale tatsächlich zu den Säugetieren gehört haben.

So erfreulich der Fund dieser zu Lebzeiten zwischen rund 30 und 300 Gramm schweren Tiere auch ist, ein wesentlicher Aspekt bereitet den Wissenschaftern Kopfzerbrechen: Die in einer neue Gruppe namens Euharamiyida zusammengefassten Wesen lebten vor mindestens 208 Millionen Jahren - und das wiederum hat dramatische Auswirkungen auf die bisher gültige Vorstellung von der Evolution der Säugetiere.

Bisher ging man davon aus, dass die ersten Säuger im Mitteljura vor etwa 176 bis 161 Millionen Jahren auf der Bildfläche erschienen. Die nun aufgetauchten, hochspezialisierten Baumbewohner bedeuten jedoch, dass Säugetiere schon im Obertrias erstmals erschienen waren - also womöglich 70 Millionen Jahre früher als gedacht. Dieser Befund deckt sich auch mit einigen DNA-Studien zum Alter der Säugetiere. (tberg, derStandard.at, 12.09.2014)

 
illu.: zhao chuang

Abstract
Nature: Three new Jurassic euharamiyidan species reinforce early divergence of mammals


Donnerstag, 11. September 2014

Licht zu Stoff.

aus scinexx                      Synchrone Wellen zeigen hier, dass sich die Photonen koordiniert wie ein einem Kristall verhalten.

Forscher schaffen einen Kristall aus Licht 
Experiment bringt Photonen zu einem gekoppelten Verhalten  

Manipuliertes Licht: In einem raffinierten Experiment haben Physiker Lichtteilchen quasi eingefroren. Miteinander verkoppelt bewegen sich die Photonen nicht mehr unabhängig voneinander, sondern im Verbund – ähnlich wie Atome in einem Kristallgitter. Das ist ein völlig neues, noch nie bei Licht beobachtetes Verhalten, wie die Physiker im Fachmagazin "Physical Review X" berichten. Auf Basis solcher Manipulationen könnten Materialien mit ganz neuen Eigenschaften entwickelt werden, aber auch grundlegende Erkenntnisse über die Natur des Lichts und der Materie.

Synchrone Wellen zeigen hier, dass sich die Photonen koordiniert wie ein einem Kristall verhalten.
Licht besitzt gleich einige ungewöhnliche Eigenschaften. Denn wie jede elektromagnetische Strahlung kann sie sich sowohl wie eine Welle als auch wie Teilchen verhalten. Die Lichtteilchen, Photonen, sind der gängigen Theorie nach absolute Einzelgänger: Wenn man zwei Laserstrahlen im rechten Winkel kreuzen lässt, scheinen sie dahinter genau hell weiter wie davor, sie passieren sich, ohne sich abzulenken oder anderweitig zu beeinflussen.

Eigentlich unmöglich: Wechselwirkung zwischen Photonen


Doch im Herbst 20143 gelang es US-Forschern erstmals, Licht so zu manipulieren, dass die Photonen sich kurzzeitig wie Moleküle verhielten – die einzelnen Lichtteilchen beeinflussten sich gegenseitig. James Raftery von der Princeton University und seine Kollegen haben dies nun noch einen Schritt weiter geführt: Sie brachten Licht dazu, sozusagen zu kristallisieren. Die Photonen hielten sich gegenseitig fest und bildeten dabei eine Art Gitter.

Um dies zu erreichen, konstruierten die Physiker einen sogenannten Jaynes-Cummings Dimer, einen Aufbau, in dem sich eine kleine Menge Photonen zwischen zwei Resonatoren hin und her bewegt. Unter bestimmten Bedingungen treten dabei Wechselwirkungen zwischen den Atomen des Aufbaus und den Lichtteilchen auf, die diese dazu bringen, auch miteinander zu wechselwirken – wie normale Materieteilchen. "Wir haben hier eine Situation geschaffen, in der zwei Photonen sehr stark miteinander interagieren können: In einem Zustand schwappt das Licht vor und zurück wie eine Flüssigkeit, im anderen – gefriert es", so die Forscher.

Kristallähnliches Verhalten


Die Lichtteilchen bilden dabei eine Art kollektives Verhalten, eine Einheit aus, ähnlich dem Atomgitter in einem Kristall. "Das ist etwas, das wir noch nie zuvor gesehen haben – ein für Licht völlig neues Verhalten", sagt Koautor Andrew Houck von der Princeton University. Das Lichtverhalten gleiche dem beim Phasenübergang von Materie, wie es aus der Festkörperphysik bekannt sei. Wenn beispielsweise Wasser gefriert, ordnen sich die zuvor nur lose miteinander verbundenen und unabhängig voneinander beweglichen Wassermoleküle zu einem regelmäßigen, festen Gitter an. Durch diesen Phasenübergang entsteht ein Kristall – Eis.

Nach Ansicht der Forscher eröffnen solche Manipulationen des Lichts neue Möglichkeiten, um beispielsweise Materialien mit ganz neuen Eigenschaften zu entwickeln. Sie erlauben es aber auch, fundamentale Eigenschaften der Materie, von Atomen und Molekülen zu untersuchen. "Selbst mit diesen kleinen Systemen lässt sich eine Menge neuer Physik erforschen", erklärt Raftery. "Aber wenn wir dieses System noch vergrößern, können wir damit noch spannendere Fragen angehen." (Physical Review X, 2014; doi: 10.1103/PhysRevX.4.031043)

(Princeton University, Engineering School, 11.09.2014 - NPO)