Sonntag, 28. Juni 2015

Die Beweiskraft des Experiments.

ratten experiment

Was unterscheidet den Wissenschaftler – den "exakten", den "Natur"-Wissenschaftler – von den Forschern, Nachdenkern und Ergründern in anderen Bereichen?

Das Experiment. Und das ist nicht bloß die geduldige Beobachtung von dem, was "von Natur aus" sowieso schon geschieht, sondern der kontrollierte Versuch im Labor. Dort wird zunächst einmal eingegrenzt, was eigentlich beobachtet werden soll, nämlich nicht alles, was "vorkommt", sondern dasjenige, was der Forscher in seiner Eingangsfrage als Dieses-Eine vorab identifiziert hat. Also ein Auswahl aus dem, was "die Natur" dem unbefangenen Auge bietet.

Und der Versuch geschieht nach einer ausgeklügelten Anordnung, die penibel dokumentiert wird, damit eine jeder Interessierte ihn gegebenenfalls wiederholen kann.

Der ganze Sinn dieses aufwendigen Unternehmens: Kontingenz ausschalten. Kontingenz ist alles, was unter anderen Umständen anders ablaufen könnte; vulgo der "Zufall".

Zufall bedeutet aber: das, was nicht dem Gesetz unterliegt, sondern gesetzlos und 'willkürlich' geschieht.

Mit andern Worten: Das experimentelle Verfahren setzt eo ipso die Gesetzmäßigkeit der zu beobachtenden Phänomene voraus. Sonst könnte das Experiment ja nichts beweisen. Und das allgemeinste Gesetz der Naturwissenschaften – Dasjenige, was sie zu Naturwissenschaften überhaupt erst macht – heißt Kausalität. Kontingenz ist demgegenüber alles, was keiner Kausalität zugeordnet werden kann.

Wenn allerdings der Forscher sein Verfahren so ausgewählt hat, dass es überhaupt immer nur Kausalitäten sichtbar machen kann, dann… hat er sich von vorn herein dazu entschlossen, alles, was Will-Kür – freie Wahl – sein könnte, nicht zu beachten.

Experimente zur Willensfreiheit sind unwissenschaftlich, weil sie ihr Ergebnis durch die Wahl des Verfahrens bereits vorweg genommen haben, statt es… zu überprüfen!

20. 6. 09

Donnerstag, 25. Juni 2015

Abschied von der Weltformel.


aus beta.nzz.ch, 25.6.2015, 05:30 Uh

Abschied von der Weltformel
Auch die Naturgesetze sind vergänglich

von Eduard Kaeser

Zu den spektakulärsten Entdeckungen der Physik gehören oft unvorhergesehene Konsequenzen aus Theorien. Die allgemeine Relativitätstheorie hat eine solche Konsequenz: die Geschichtlichkeit des Universums. Es entsteht und vergeht. Und eine weitere Konsequenz wäre: Kann man dies dann nicht auch von den Naturgesetzen sagen? Die Frage tönt in vielen Physikerohren geradezu ketzerisch. «Der bestirnte Himmel» gilt seit Kant als Emblem der zeitlosen Naturgesetzmässigkeit. Der Kulminationspunkt dieser Idee ist die allumfassende Weltformel, die Physiker von Einstein bis Hawking und Weinberg in ihren Bann geschlagen hat.

Warum so und nicht anders?

Bis vor kurzem war auch Lee Smolin, der Querdenker vom Perimeter Institute in Waterloo, Kanada, dieser Idee verfallen. Nun aber widersetzt er sich ihr, zusammen mit dem brasilianischen Philosophen Roberto Mangabeira Unger von der Harvard Law School. Die beiden haben ein dickes Buch publiziert mit dem Titel «The Singular Universe and the Reality of Time». Darin gehen sie vom «interessantesten Merkmal der natürlichen Welt» aus, nämlich der Tatsache, «dass sie das ist, was sie ist, und nicht etwas anderes».


So trivial das klingt, so brisant ist die These in Fachkreisen. Sie attackiert frontal die Stringtheorie, deren Pluralität der Paralleluniversen unser Universum als einen blossen Zufall erachtet. Die Singularitätsthese taucht aber tiefer, quasi zur Quelle des kosmischen Zeitflusses. Warum gibt es ihn überhaupt? Gemäss der klassischen Vorstellung gehören Zeit und Raum eigentlich gar nicht zur Physik, sie bilden vielmehr den «ewigen» Rahmen, in dem sich das Naturgeschehen abspielt. Eine metaphysische Idee. Einsteins grösste Leistung in der allgemeinen Relativitätstheorie bestand darin, dass er diese Metaphysik in Physik verwandelte, Raum und Zeit zum dynamischen physikalischen Feld einer Raumzeit verschmolz. Auch diese Raumzeit unterliegt aber immer noch unveränderlichen Gesetzen – den Einstein-Gleichungen –, die bestimmen, wie die Materie die Raumzeit formt. Was aber, wenn sich diese Gesetze selbst auch veränderten?

Das Jetzt bestimmt das Morgen

Die naturphilosophische Baustelle, die mit dieser Frage aufgerissen wird, ist von kaum erahnbarem Ausmass. Ich beschränke mich hier auf das Konzept des Naturgesetzes. Zu Newtons Zeiten sahen die Naturphilosophen im Universum ein gigantisches Uhrwerk, mit Gott als dem primordialen Uhrmacher. Heute würde man profaner die Metapher des Computers wählen, mit den Gesetzen der Physik als Programm. Gibt man dem kosmischen Computer den gegenwärtigen Zustand der Welt (was das auch genau bedeutet) als Input ein, so berechnet er in einer angemessenen Laufzeit den Zustand der Welt zu einem beliebigen späteren Zeitpunkt. Diese Ambition kommt im berühmten Dämon zum Ausdruck, den der Mathematiker Pierre-Simon de Laplace im 18. Jahrhundert ersann: ein Dämon mit der Gabe, aus dem jetzigen Weltzustand den künftigen berechnen zu können.

Nun ist es genau diese «dämonische» Vorstellung des Determinismus, welche dem Naturgeschehen die Zeit austreibt. Denn was, wenn nicht das Disruptive, Neue, Überraschende, führt uns das Walten der Zeit konkret und unabweisbar vor Augen. Für einen Laplaceschen Dämon wäre buchstäblich nichts neu, blasiert würde er das Weltgeschehen immer wieder glossieren: Aber das war doch vorauszusehen.

Dieses Ideal – das Newtonsche Paradigma nennt es Smolin – dominierte die klassische Physik. Die Quantentheorie hat es verabschiedet. Aber den eigentlichen Gnadenstoss erteilt ihm die Kosmologie. Denn wie Smolin schreibt, «gerät das Problem des Determinismus mit der Tatsache in Konflikt, dass die Methode der Physik (. . .) auf kleine Teilsysteme des Universums anwendbar ist. Bevor wir die Frage beantworten können, ob zufällige Ereignisse in unserem Leben vollständig durch vorhergehende Bedingungen determiniert seien, müssen wir wissen, ob unsere Theorien massstabgerecht auf das Universum erweitert werden können.» Und daran besteht grosser Zweifel.

Die Welt als Störfaktor

Man kann diesen Zweifel am Beispiel eines Schulexperiments plausibel machen. Wir lassen eine Kugel die schiefe Rinne hinunterrollen. Wir sagen: Die Kugel «gehorcht» den Newtonschen Gesetzen der Natur. So weit, so lehrbuchmässig. Aber wir haben uns insgeheim eines Tricks bedient: Wir definieren die relevanten Parameter (Neigung der Rinne, Reibung, Trägheitsmoment der Kugel usw.) und legen die Anfangsbedingungen fest. Den Rest der Welt schliessen wir als «Störfaktor» aus. Oder umgekehrt gesagt: Gerade dadurch können wir den Versuch wie von aussen betrachten. Würden wir ihn nicht isoliert durchführen, würden wir feststellen, dass die Newtonschen Gesetze gar nicht exakt, sondern nur approximativ auf die Phänomene zutreffen, weil sie von einer nicht zu überblickenden Zahl von zufälligen Randbedingungen abhängen.

Smolin hat dies einmal in die These gefasst: Es gibt nichts ausserhalb des Universums. Das heisst aber im Extremfall, dass jedes Objekt im Universum nur relativ zu allen andern Objekten definierbar ist. Man könnte sich also den spekulativen Fall ausmalen, dass wir in unserem Versuch alle nur erdenklichen Welteinflüsse berücksichtigen würden. In einem solchen Fall wäre das Experiment buchstäblich historisch: nicht zu wiederholen. Und wir kämen wohl nicht auf die Idee, dass in der Natur einfache Gesetze «herrschen».

Das klassische Experiment eliminiert die Zeit, indem es die Phänomene kopierbar macht. Es beruht auf der Idee, dass wir die Versuche beliebig (unter variablen Bedingungen) wiederholen können. Das Universum aber ist ein einziger Versuch. Und dieser Versuch ist nicht reversibel. Deshalb besteht der grosse, der «kosmologische Fehlschluss» (Smolin) darin, das ganze Universum quasi unter das Protektorat einer Physik seiner Subsysteme zu bringen.

Reale Zeit manifestiert sich im Entstehen und Vergehen, also in einer zeitlichen Asymmetrie. Wir stellen Zeitpfeile überall fest. Es gibt den kosmischen Zeitpfeil: das Universum expandiert; den thermodynamischen Zeitpfeil: die Entropie geschlossener Systeme nimmt zu; den biologischen Zeitpfeil: Lebewesen werden geboren und sterben; den psychologischen Zeitpfeil: wer hat nicht schon das Gefühl des Vorbei gehabt. Zeit bringt Asymmetrie in die Welt, oder vielmehr: Diese Asymmetrie ist die Zeit, das ungelöste Rätsel der Physik, des Lebens überhaupt. Sie weckt in uns unter anderem die Idee der Kausalität. Es gibt ein Vorher der Ursache und ein Nachher der Wirkung.

Die Physik bringt kausale Zusammenhänge in die Form von Gesetzen, ausgedrückt in mathematischen Gleichungen. Aber hier tut sich ein – buchstäblich universeller – Widerspruch auf: Diese Gleichungen gelten – fast ausnahmslos – auch unter Zeitumkehr, die Geschichte des Universums kennt freilich keine Zeitumkehr (der Widerspruch ist seit dem 19. Jahrhundert als Umkehreinwand bekannt).

Aus diesem Grund betrachten Unger und Smolin die Gesetze sozusagen als Derivate der asymmetrischen kosmischen Entwicklung. Das Universum geschieht – es kennt nur Präzedenzien, keine unveränderlichen Gesetze. Gewiss, die Natur wiederholt sich oft, und die Regularitäten, die wir dabei entdecken, gestatten uns recht und schlecht, das Geschehen zu erklären. Genauer betrachtet, ist die Stabilität der Naturgesetze etwas Rätselhaftes, die grössten Physiker des letzten Jahrhunderts haben sie schlichtweg als Wunder bezeichnet.

Folge von Notwendigkeiten

Ist eine Physik mit vergänglichen Gesetzen überhaupt denkbar? Unger und Smolin sind sich dieses Einwands bewusst: «Wenn sich die Naturgesetze ändern, wie können wir dann hoffen, Forschung auf einer sicheren Basis zu betreiben?» Die Antwort: Man muss Zeithierarchien unterscheiden. Die Gesetze verändern sich ja nicht von heute auf morgen. In einem gereiften und ausgekühlten Universum wie dem heutigen können sie als nahezu unveränderlich betrachtet werden. Nahezu, wohlgemerkt – im Grunde regiert im singulären Kosmos die Zeit im Sinne unaufhörlicher Veränderung.

Hier fällt ein wiederkehrendes Muster in der Erklärungsstrategie der Physik auf. Die hinunterrollende Kugel «gehorcht» der Notwendigkeit der Newtonschen Gesetze; die Newtonschen Gesetze aber bringen eine «singuläre» Grösse ins Spiel, die Gravitationskonstante. Warum hat sie gerade den Wert, den sie hat? Die Singularität muss erneut erklärt werden durch neue Gesetze. Diese neuen Gesetze bringen wiederum Zufälliges ins Spiel, und so fort bis zum letzten «factum brutum»: dem Universum, das ist, was es ist.

Die Geschichte des Wissens über das Universum liesse sich als eine alternierende Folge von solchen Notwendigkeiten und Zufällen schreiben – eine «kosmologische natürliche Auswahl», wie Smolin sie nennt. Was das sein soll, bleibt freilich unklar. Eine Extrapolation des Darwinschen Paradigmas auf das Universum? Spielt sich eine solche Evolution völlig gesetzlos ab, oder ist sie nun wiederum bestimmt von Metagesetzen, die Unger und Smolin an einer Stelle als heiligen Gral der Kosmologie bezeichnen?

Wie auch immer, was uns geliefert wird, ist keine Theorie, sondern die Agenda für eine künftige Theorie: eine «Wiedererfindung der Naturphilosophie» (Unger). Ob sie dazu führen wird, das Buch der Natur neu zu schreiben, liegt in spekulativem Dämmer. Und wenn sie die Idee der Weltformel verabschiedet, warum sollte dann die Idee der Weltevolution vor einem solchen Akt verschont bleiben – könnte nicht auch sie sich als zeitlich im trivialen Sinne herausstellen: als vergänglicher Ehrgeiz von kosmologischen Gralssuchern?



Montag, 22. Juni 2015

Die Zeit schäumt weniger, als mancher denkt.

Wie "schaummig" ist die Raumzeit?
aus scinexx

"Schaumigkeit" der Raumzeit begrenzt
Beobachtungen mit Teleskopen schließen zwei Modelle des Quantenschaums aus

Weniger schaumig als gedacht: Sollte die Raumzeit im Universum tatsächlich auf kleinster Ebene gequantelt sein, dann ist dieser Quantenschaum feiner als es einige Modelle annehmen. Mit Hilfe von Beobachtungen ferner Objekte im Röntgen- und Gammastrahlenbereich haben Astrophysiker zwei Modelle der Raumzeit-Quantelung ausgeschlossen. Denn die Störeinflüsse des Quantenschaums auf das Licht sind deutlich geringer als von diesen vorhergesagt.

Einigen Theorien nach ist die Raumzeit des Universums nicht kontinuierlich, sondern besteht aus winzigen, diskreten Grundeinheiten, dem sogenannten Quantenschaum. "Wenn man mit dem Flugzeug über den Ozean fliegt, sieht seine Oberfläche auch völlig glatt aus", erklärt Studienleiter Eric Perlman vom Florida Institute of Technology in Melbourne. "Wenn man aber nahe genug heruntergeht, sieht man die Wellen und noch näher dran auch Schaum mit kleinen Bläschen, die kontinuierlich umherwabern."

So könnte es auch mit der Raumzeit sein. Doch wenn es sie gibt, ist diese Quantelung des Raums viel zu winzig, um sich direkt nachweisen zu lassen, ihre Einheiten entsprechen gerade einmal der Plancklänge von 10 hoch minus 35 Metern. Wie dieser Quantenschaum daher aussieht und wie er sich verhält, ist bisher noch völlig unklar. Einige Modelle vergleichen ihn mit einer superfluiden Flüssigkeit, andere sehen in unserem Universum nur eine Art holografischer Projektion von winzigen zweidimensionalen Grundbausteinen.

Spurensuche im Röntgenlicht

Doch es gibt eine Möglichkeit, zumindest einige Modelle des Quantenschaums auszuschließen, wie Perlman erklärt: Wenn die Raumzeit eine schaumige Struktur hat, dann könnte dies auf sehr lange Entfernungen hinweg winzige Einflüsse auf das Licht haben. Je nachdem, von welchem Modell des Quantenschaums man ausgeht, könnten sich diese Störeinflüsse so akkumulieren, dass extrem ferne Lichtquellen im All ungewöhnlich unscharf erscheinen – quasi durch durch das kosmischen Grundrauschen überlagert.


Aufnahmen weit entfernter Quasare durch das Röntgenteleskop Chandra

Perlman und seine Kollegen haben dies nun mit Hilfe des Chandra-Röntgenteleskops und des Fermi-Gammastrahlenteleskops der NASA überprüft. Sie beobachteten das Licht von sechs fernen Quasaren und suchten sowohl nach verräterischen Abnahmen der Intensität als auch nach spezifischen Phasenverschiebungen. Die Ergebnisse lassen nun zumindest zwei Quantenschaum-Modelle extrem unwahrscheinlich erscheinen.

"Nebel" und Holografie-Modell werden unwahrscheinlich

"Die Chandra-Röntgendaten demonstrieren klar, dass die Bilder ohne schwerwiegende Degradation der Intensität bei uns ankommen", berichten die Forscher. Das schließe das Modell aus, nachdem die Photonen durch die Raumzeit so stark gestreut werden wie Licht durch eine Nebelwand. "Nach diesem Modell müssten die Bilder völlig verschwinden, wenn sich die Fluktuationen in der Wellenfront der Wellenlänge der Strahlung annähern – doch schon die bloße Existenz von astronomischen Aufnahmen aus großen Entfernungen begrenzt diese Modelle signifikant."

Die Gammastrahlenmessungen des Fermi-Teleskops begrenzen aber auch das holografische Modell des Universums, wie die Forscher erklären. Denn auch hier müssten die von den Fluktuationen des Quantenschaums verursachten Effekte die Signale sehr ferner Gammastrahlenquellen auf bestimmte Weise verrauschen. Das aber ist eindeutig nicht der Fall, wie die Messungen zeigen.

"Unsere Daten schließen zwei verschiedenen Modelle des Raumzeit-Quantenschaums aus", sagt Koautor Jack Ng von der University of North Carolina in Chapel Hill. "Der Quantenschaum ist damit weniger schaumig als es manche Modelle vorhersagen." Er muss noch auf Größenordnungen tausendfach kleiner als ein Proton glatt sein. (The Astrophysical Journal, in press; arXiv:1411.7262)

(NASA/Chandra , 29.05.2015 - NPO)

Sonntag, 21. Juni 2015

Der Werkzeugbau ist älter als vermutet.

 aus beta.nzz.ch, 20.5.2015

Verhaltensevolution
Älteste Steinwerkzeuge entdeckt
In Kenya haben Wissenschafter etwa 3,3 Millionen Jahre alte Werkzeuge aus Stein gefunden. Die Entdeckung wirft neue Fragen zu unseren Vorfahren auf.

(sda/dpa/AJa) Die Vorfahren des Menschen haben vermutlich schon viel früher als bisher angenommen einfachste Steinwerkzeuge angefertigt. So fanden Archäologen der amerikanischen Stony-Brook-Universität Hammersteine und andere bearbeitete Steine in der Nähe des Turkana-Sees im Norden Kenyas, die 3,3 Millionen Jahre alt sein sollen. Die Forscher stellen ihre Entdeckung in der Fachzeitschrift «Nature» vor.

800 000 Jahre älter als bisherige Funde

Die bisher ältesten bekannten Steinwerkzeuge schreiben Experten der Oldowan-Kultur vor 2,5 Millionen Jahren zu. Der Name «Oldowan» leitet sich von einer Schlucht in Afrika ab, in der viele Fossilien und Werkzeuge entdeckt worden waren. Diese Steinwerkzeuge erschienen aber bereits zu ausgefeilt, um Zeugnisse der ersten Versuche unserer Vorfahren zu sein, solche Werkzeuge herzustellen, wie die Archäologin Erella Hovers von der Hebrew-Universität in Jerusalem in einem Begleitkommentar zur Studie schreibt.


Gemäss Untersuchungen datieren die neuen Funde nun auf 800 000 Jahre früher. Sie stellen damit die Ansicht infrage, dass erst die direkten Vorfahren des modernen Menschen, die nach heutigen Kenntnissen vor etwa 2,8 Millionen Jahren auftraten, in der Lage waren, scharfkantige Werkzeuge herzustellen.

Hinweise auf kognitive Entwicklung

Insgesamt fanden die Forscher 149 steinerne Artefakte in dem Gebiet, das sie «Lomekwi 3» nannten; von Hammersteinen bis hin zu Amboss-artigen Steinen, die jedoch alle technisch weniger ausgefeilt sind als die Oldowan-Funde.

Dennoch können die Werkzeuge Aufschluss über die Evolution des menschlichen Hirns geben. Denn für die Herstellung von Werkzeugen ist eine bestimmte Kontrolle der Handmotorik nötig, die entsprechend vor 3,3 Millionen Jahren entstanden sein könnte.

Die Funde geben «Aufschluss über einen unerwarteten und bisher unbekannten Zeitraum homininen Verhaltens», wie Sonia Harmand von der Stony-Brook-Universität in einer Mitteilung erklärt. Als Hominini wird eine Gruppe von Menschenaffen bezeichnet, die sowohl moderne Menschen (Homo sapiens) als auch unsere ausgestorbenen Vorfahren umfasst.


Am Turkana-See, Rekonstruktion

Möglicher Werkzeugbauer

Anthropologen gingen lange davon aus, dass unsere Verwandten aus der Gattung Homo die Ersten waren, die Werkzeuge herstellen konnten. Nun mehren sich allerdings die Hinweise, dass schon frühere Zweige der Hominini, quasi unsere entfernten Cousins, dazu in der Lage waren.

So wurden nahe den Werkzeugfunden der Schädel und weitere Überreste eines 3,3 Millionen Jahre alten, homininen Fossils (Kenyanthropus platytops) entdeckt.

Da der genaue Stammbaum des Menschen noch unklar ist, kann nicht mit Sicherheit gesagt werden, wie Kenyanthropus platytops genau mit anderen homininen Spezies verwandt ist. Für die Archäologen könnte er jedoch einer der möglichen Werkzeugbauer sein.

Diverse Anwendungen

Doch nicht nur das Alter der Werkzeuge, sondern auch ihre Fundstelle überraschte die Forscher: So ergaben Analysen, dass das Gebiet früher eine Strauch-Baum-Landschaft war. Laut bisherigen Hypothesen führten klimatische Veränderungen zur Verbreitung von Savannen und damit zu einer ganz anderen Tierwelt.

Die Entwicklung von Werkzeugen sei eine Reaktion unserer Vorfahren auf das veränderte Nahrungsangebot gewesen, so die Theorie: Sie hätten scharfkantige Steine angefertigt, um damit Fleisch aus Tierkadavern zu schneiden.

Grösse und Kerben der nun gefundenen Werkzeuge deuteten aber darauf hin, dass unsere Ahnen sie auch anders verwendeten – gerade in einer waldigen Umgebung mit vielen Pflanzen, meint der an der Ausgrabung beteiligte Anthropologe Jason Lewis von der Rutgers-Universität aus dem US-Gliedstaat New Jersey. So könnten sie mit den bearbeiteten Steinen Nüsse oder Wurzelknollen geknackt haben.

Isolierte Ereignisse

In ihrem Kommentar zur Studie warnt Hovers aber vor voreiligen Schlüssen. Alter und Aussehen der Funde forderten zwar dazu auf, die bisherigen Modelle über das Zusammenspiel aus Umweltveränderungen, menschlicher Evolution und technologischem Verhalten neu zu bewerten. Ähnlich wie Ausgrabungen von Tierknochen, die auf 3,4 Millionen Jahre datiert wurden und möglicherweise Schnittspuren von Steinwerkzeugen tragen, handle es sich bei den neuen Funden um ein isoliertes Ereignis. Um daraus Neuerungen in der homininen Verhaltensevolution abzuleiten, müssten weitere Untersuchungen folgen und Lücken im zeitlichen Ablauf mit Daten gefüllt werden.

Samstag, 20. Juni 2015

Homo sapiens kam über den Nahen Osten.


aus derStandard.at, 2. Juni 2015, 12:10

45.900 Jahre alte Funde belegen: 
Der Mensch wanderte über den Nahen Osten nach Europa ein
Schneckenschalen aus Ksâr ‘Akil im Libanon zeigen, dass Homo sapiens die Route über die Levante wählte

Leipzig - Die ältesten bekannten Schädelteile eines modernen Menschen wurden 2002 und 2003 in der rumänischen Höhle Peștera cu Oase entdeckt. Die direkte Datierung wies den Funden ein Alter von 40.500 Jahren zu. Damit konnte der Zeitraum eingegrenzt werden, wann Homo sapiens erstmals europäischen Boden betrat. Wann der moderne Mensch sich von Afrika ausgehend nach Eurasien ausbreitete ist unter Archäologen, Paläontologen und Genetikern dennoch weiterhin ein umstrittenes Thema. Insbesondere die Frage nach den Routen, die der Mensch auf dem Weg nach Asien und Europa beschritt, ist immer noch nicht zweifelsfrei beantwortet.

"Das Problem ist, dass sowohl in der Levante als auch in Europa nur sehr wenige menschliche Überreste gefunden wurden, die dem Jungpaläolithikum, also dem jüngsten Abschnitt der Altsteinzeit, zugeordnet werden können", sagt Jean-Jacques Hublin vom Max-Planck-Institut für evolutionäre Anthropologie in Leipzig. Der französische Wissenschafter konnte gemeinsam mit einem multinationalen Forscherteam nun erstmals anhand von Muschel- und Schneckenschalen aus

Ksâr ‘Akil im Libanon belegen, dass Vertreter des Homo sapiens sich vor mindestens 45.900 Jahren im Nahen Osten aufhielten und wahrscheinlich von dort aus Europa besiedelten.
Ksâr ‘Akil ist eine der wenigen archäologischen Fundstätten im Nahen Osten, wo Fossilien moderner Menschen in den gleichen Fundschichten wie Werkzeuge aus dem frühen Jungpaläolithikum ausgegraben wurden. Mithilfe der Radiokohlenstoff-Datierung bestimmten die Forscher das Alter von Schneckenschalen der Art Phorcus turbinatus, deren Fleisch einst von unseren Ahnen verspeist worden war. Die Wissenschafter konnten damit jetzt zeigen, dass moderne Menschen sich vor mindestens 45.900 Jahren in der Levante aufgehalten haben. Das bestätigt die Präsenz anatomisch moderner Menschen mit Werkzeugen aus dem frühen Jungpaläolithikum in der Levante vor ihrer Ankunft in Europa und belegt, dass die Levante modernen Menschen als Korridor für die Besiedlung Europas diente.
"Ksâr ‘Akil ist eine so wichtige Fundstätte, weil dort die fossilen Überreste zweier moderner Menschen zusammen mit ihren Werkzeugen gefunden wurden, die der Epoche des Jungpaläolithikums zugehörig sind. Ihre Entdecker haben die beiden Individuen Ethelruda und Egbert genannt", erklärt Marjolein Bosch vom Max-Planck-Institut für evolutionäre Anthropologie und Erstautorin der Studie. Die Forscher berichten in der Fachzeitschrift "PNAS" über ihre neuen Ergebnisse zum Alter dieser beiden Fossilien.

Ankunft in Europa vor 40.000 bis 55.000 Jahren

"Unsere Untersuchungen zeigen, dass Egbert vor etwa 43.000 Jahren und Ethelruda vor mindestens 45.900 Jahren lebte, möglicherweise sogar noch früher. Ethelruda ist also älter als alle bisher in Europa gefundenen modernen Menschen", sagt Johannes van der Plicht vom Zentrum für Isotopenforschung der Universität Groningen in den Niederlanden. "Werkzeuge, die denen ähneln, die Ethelruda und Egbert zugeordnet werden, finden sich auch in anderen Fundstätten in der Levante und in Europa. Diese ähnlichen Werkzeuge sowie die frühere zeitliche Einordnung der Funde aus dem Nahen Osten lassen auf eine Ausbreitung moderner Menschen vom Nahen Osten ausgehend nach Europa zwischen 55.000 und 40.000 Jahren schließen", sagt Bosch.
Die Autoren untersuchten insgesamt 3.500 Muscheln und Schnecken, die 49 Arten zugeordnet werden konnten. Die am besten erhaltenen waren solche, deren Fleisch Menschen einst als Nahrungsmittel verspeisten. "Wir wissen beispielsweise, dass Weichtiere der Art Phorcus turbinatus von Menschen des Jungpaläolithikums gegessen wurden. Um das Fleisch besser entnehmen zu können, hatten sie den oberen Teil dieser Muscheln häufig abgeschnitten", erklärt Marcello Mannino vom Max-Planck-Institut für evolutionäre Anthropologie.

Neuer Datierungs-Ansatz

Die Schalen aus der Levante mithilfe der Radiokohlenstoffmethode zu datieren, erwies sich als eine große Herausforderung für die Forscher. "Die 14C-Datierung von Weichtierschalen ist eine Technologie, die sich noch in der Entwicklungsphase befindet. Bis jetzt gab es keine narrensichere Methode, um das Alter von Muschel- und Schneckenschalen-Proben zu bestimmen, die durch die lange Lagerung im Boden chemisch verändert wurden", sagt van der Plicht. "Wir haben daher einen neuen Ansatz entwickelt, bei dem wir Radiokohlenstoffdaten und biochemische Daten miteinander kombinieren", sagt Mannino. "Eine solche Technologie, die 'intra-kristalline Proteindiagenese', bestimmt inwiefern Aminosäuren in der intra-kristallinen Struktur von Schalenkarbonaten erhalten geblieben sind", erklärt Beatrice Demarchi von der Universität York. Eine Kombination dieser neuen Analysemethoden ermöglichte es den Forschern jetzt, eine aussagekräftige neue Datierung der Funde aus Ksâr ‘Akil vorzulegen.
Die Ergebnisse bestätigen damit: Moderne Menschen, die jungpaläolithische Werkzeuge verwendeten, lebten bereits in der Levante, bevor sie in Europa erstmals auftauchten, denn alle bisherigen Fossilfunde moderner Menschen in Europa sind jünger als diese. "Das wiederum lässt darauf schließen, dass die Levante als Korridor für die Verbreitung moderner Menschen von Afrika ausgehend nach Eurasien gedient hat", sagt Hublin. (red, 2.6.2015)

Donnerstag, 18. Juni 2015

Wie dein Gehirn Wichtiges von Unwichtigem unterscheidet.

birdnet
aus scinexx

Wie das Gehirn lernt, Wichtiges zu erkennen
Aktivitätsmuster der Gehirnzellen sorgt für den "Filtereffekt"

Ampeln, Werbetafeln, Schilderwald – im alltäglichen Straßenverkehr prasselt eine Fülle von wichtigen, aber auch völlig unwichtigen Reizen auf uns ein. Der versierte Autofahrer ist in der Lage, die wichtigen Informationen aus der Reizflut herauszufiltern und schnell zu reagieren. Denn wie wir unsere Umwelt wahrnehmen – und was, hängt stark davon ab, was wir schon mal gesehen und gelernt haben. Diese Erfahrung fehlt dem Anfänger, daher braucht er viel länger, um die Informationen zu verarbeiten.

Wie das Gehirn dieses Filtern der Reize lernt und wie sich dabei die Netzwerke der Neuronen ändern, haben Sonja Hofer vom Biozentrum der Universität Basel und ihre Kollegen untersucht. Für ihre Studie ließen sie Mäuse in einer speziellen Arena durch eine virtuelle Welt laufen. Steuerten die Tiere ein bestimmtes der an die Wände projizierten Bilder gezielt an, erhielten sie eine Belohnung. Im Verlauf einer Woche hatten die Tiere gelernt, die Bilder zu unterscheiden und entsprechend darauf zu reagieren.

Immer präzisere Hirnsignale

Dieses Lernen spiegelte sich auch in der Aktivität der Nervenzellen im visuellen Kortex der Mäuse wieder, wie die Forscher berichten: Während anfangs die Antworten auf die relevanten visuellen Reize im Gehirn noch relativ diffus waren, reagierten nach einer Woche Training viel mehr Nervenzellen spezifisch auf die gezeigten Bilder. Das neuronale Netzwerk hatte gelernt, die neuen Reize einzuordnen und zu verarbeiten.

"Von Tag zu Tag wurden die Antworten der Nervenzellen auf die gezeigten Bilder besser unterscheidbar und verlässlicher", sagt Adil Khan von der Universität Basel. Er vermutet, dass solche Veränderungen im Gehirn auch uns dabei helfen könnten, wichtige Informationen aus der Umwelt besser wahrzunehmen und effizienter zu verarbeiten.

Was das Lernen stört

Und noch etwas zeigte sich: Der visuelle Cortex reagiert nicht nur auf optische Reize, wie bisher angenommen. Stattdessen wird er direkt durch Signale aus anderen Hirnteilen beeinflusst. Das könnte erklären, warum es uns manchmal schwerer fällt zu lernen, was wichtig und unwichtig ist. Und warum unsere Stimmung und die Umwelt einen großen Einfluss auf unsere Lernfähigkeit haben können.

"Wir haben gesehen, dass die Antwort der Nervenzellen auf die gleichen visuellen Reize unpräziser wird, wenn die Mäuse eine andere Aufgabe erfüllen müssen, zum Beispiel verschiedene Gerüche unterscheiden", berichtet Khan. Die gezeigten Bilder wurden dann vom Sehzentrum nicht mehr so effektiv analysiert. Aber nicht nur äußerer Reize beeinflussten die Aufmerksamkeit, auch die innere Erwartung der Mäuse und die Aussicht auf Belohnung veränderte die Aktivität bestimmter Zellen.

"Von Moment zu Moment können wir also mit dem gleichen Reiz ganz unterschiedlich umgehen, je nach dessen Bedeutung und Relevanz", so Hofer. "Im Endeffekt bedeutet dies, dass die Umstände und unsere Erwartungen sowie zuvor Gelerntes einen großen Einfluss auf unsere visuelle Wahrnehmung der Umwelt haben kann". Eine gute Nachricht für jeden Fahranfänger: Auch für ihn wird sich der Schilderwald lichten. (Neuron, 2015; doi: 10.1016/j.neuron.2015.05.037)

(Universität Basel, 17.06.2015 - NPO)


Nota. - Viel Neues bringt die Meldung nicht. Immerhin bestätigt sie: Es gibt ein Denken vor dem Denken; oder richtiger gesagt: Es ist irreführend, das Denken auf die Reflexion und den Gebrauch von Begriffen zu reduzieren. Bevor es dazu kommt, hat die Vorstellungskraft schon eine Menge Leistungen vollbracht, die der Reflexion und Begriffsbildung als Material dienen. Die höheren Leistungen kommen aber nicht einfach zu den elementareren hinzu, sondern sie greifen selbst steuernd in sie ein. Trivial gesprochen: Die Prozesse im Gehirn sind, wie alle Naturvorgänge, systemischer Art. Lineare und gar kausale Betrachtungsweisen schaffen mehr Probleme, als sie lösen.
JE

Mittwoch, 17. Juni 2015

Der virale Ursprung des Lebens.

aus Tagesspiegel.de, 4. 6. 2015, 8:55 Uhr

"Am Anfang war das Virus."
Viren haben auch gute Seiten. Sie spielen eine wichtige Rolle für die Evolution. Letztlich stammen wir alle von Viren ab - sagt die Forscherin Karin Mölling im Tagesspiegel-Interview.

Von Ruth Renée Reif

Frau Mölling, seit Darwin weiß der Mensch, dass er mit den Tieren verwandt ist. Laut Sigmund Freud eine Kränkung, der Sie nun hinzufügen, dass der Mensch nur durch das Mittun von Viren entstand?

Ich empfinde das nicht als Kränkung. Im Gegenteil, es zeigt den großen Zusammenhang, in dem wir Menschen stehen. Mit allen unseren Vorfahren und unserer Umgebung wurden wir zu dem, was wir sind. Nach wie vor sind wir die komplexesten und vielseitigsten Wesen. Im Laufe der Evolution entstanden nur zwei Prozent unserer genetischen Information, die für Proteine codieren, also Muskeln, Fleisch, Knochen oder Haare. Die übrigen 98 Prozent dienen der Regulierung der zwei Prozent. Ziemlich kopflastig ist das. Die Hälfte in unserem Erbgut besteht aus mehr oder weniger verstümmelten Virengenen, die man heute noch nachweisen kann. Einige sind hundert Millionen Jahre alt. Sollten vielleicht alle Gene einst aus Viren entstanden sein? „Schlau“ genug sind sie, das heißt genügend genetische Information steht durch Viren zur Verfügung.

Das würde bedeuten, dass unser gesamtes Erbgut auf Viren zurückgeht.

So denke ich. Aber das ist nicht beweisbar, zumindest nicht für die ersten Anfänge. Einige Viren lassen sich aus dem Erbgut wiederherstellen. Der französische Virologe Thierry Heidmann führte einen solchen Versuch durch. Er rekonstruierte 2006 aus Virusresten im menschlichen Erbgut, die etwa 50 Millionen Jahre alt waren, ein intaktes Virusgenom und erzeugte damit vermehrungsfähige Viren, die er „Phoenix“ nannte. Eigentlich war das ein abenteuerliches Experiment. Keiner wusste, was diese Viren auslösen könnten. Nichts ist passiert. Heidmanns Versuch zeigte, dass die verstümmelten Viren in unserem Erbgut einst wirkliche Viren waren.

Wie kamen all diese Viren in unser Erbgut, und welchen Zweck haben sie da?

Sie schützen uns vor Viren von außen. Viren in einer Zelle lassen andere Viren nicht hinein. Man denkt, Viren seien nur eine schreckliche Welt. Aber das stimmt nicht, und ich bin überzeugt, dass sich diese Sicht innerhalb weniger Jahre ändern wird. Viren machen nicht nur krank, wie die klassische Virologie lehrt. Sie bieten neues Erbgut, also neue Information und eben auch Schutz. Manchmal gibt es jedoch die abzuwehrenden Viren nicht mehr. Darum sind die Viren in unserem Erbgut mit der Zeit verkümmert. Sie waren nicht mehr nötig.

Sie sind der Meinung, dass Viren am Anfang der Entstehung des Lebens stehen. Welche Experimente braucht es, um diese These zu beweisen?

Darwin vertrat die These, dass man den Anfang des Lebens unter heutigen Bedingungen nicht mehr nachvollziehen könne. Wenn man das gelten lässt, ist der Beweis für den Anfang nicht zu erbringen. Es gibt aber die Möglichkeit, zu untersuchen, was man aus gegenwärtigen Viren über die Vergangenheit und unsere Evolution ablesen kann. Der neueste Befund besagt, dass Viren und Bakterien einander näher stehen als angenommen. Das heißt, der Übergang von den ersten Biomolekülen hin zu den Viren und Bakterien ist kontinuierlich. Die größten, neu entdeckten Viren, die Gigaviren, sind teilweise sogar größer als Bakterien. Sie besitzen außerdem bereits Bausteine zur Proteinsynthese. Das galt als Privileg von Bakterien, also Lebewesen. Nun gibt es Ähnliches auch in Viren. Die erste Zelle kann nicht der Anfang gewesen sein. Die ist schon viel zu groß. Man muss weiter zurückgehen und einfachere und kleinere Anfänge suchen.

In welchem Zeitraum spielte sich dieser Übergang von tot zu lebendig ab?


Vor 4,5 Milliarden Jahren entstand die Erde, und seit 3,8 Milliarden Jahren gibt es die RNS-Welt, die Welt der Ribonukleinsäuren. Wie sie zustande kam, vermag heute keiner genau zu sagen. Sicher kam sie nicht aus dem All. Das erste Biomolekül war eine RNS. Es kann sich selbst im Reagenzglas verdoppeln, ist also enzymatisch aktiv. Dieser Nachweis war eine große Überraschung. Für die Entdeckung dieser vermehrungsfähigen RNS, der Ribozyme, gab es vor ein paar Jahren sogar den Nobelpreis. Ob man dieses Biomolekül als lebendig bezeichnen möchte, lasse ich dahingestellt. Leben braucht auf jeden Fall Vermehrung und Evolution. Das leisten die Ribozyme bereits.

Welche Bedeutung kommt dem Zufall in Ihrer Theorie zu?

Der Zufall spielt eine wichtige Rolle. Es gibt extrem viele Möglichkeiten, die ersten biologisch aktiven Moleküle zusammenzusetzen, mehr, als auf der ganzen Welt bis zum heutigen Tag ausgenutzt werden. Da mussten sich erst ein paar Moleküle als besonders überlebensfähig erweisen. Die Struktur, die dabei herauskam, ist so robust, dass es vermutlich zuvor andere Ansätze gab, die das nicht waren. Ein Beispiel können die Ribozyme sein. Sie spuken bis heute in all unseren Zellen herum – als Chef-Regulatoren.

Ob man das Ribozym Virus nennt oder Viroid, ist eine Definitionsfrage. Die Entdecker solcher RNS um 1950 nannten das Molekül ein Viroid. Das zeigt schon die Hilflosigkeit: Ist es ein Virus oder nur virusähnlich? Ich zähle es eindeutig zu den Viren. Die klassische Definition von Viren ist viel zu eng für das, was wir heute alles über Viren wissen. Nun gelten Viren als obligatorische Parasiten, die sich nicht aus eigener Kraft vermehren und dazu Wirtszellen brauchen. Richtig, aber das ist die heutige Sicht auf die Viren. Ich frage dagegen, ob das immer so war, und diskutiere, dass die Viren vor den Zellen da waren. Das ist keine wilde Spekulation, sondern dafür gibt es mehr und mehr Hinweise.

Wenn Ihre Hypothese von der Entstehung des Lebens aus Viren sich als wahr erwiese, wäre damit das Rätsel des Lebens gelöst?

Nein. Das Rätsel des Lebens ist auf vielen Ebenen nicht gelöst. Jedes Ergebnis wirft außerdem neue Fragen auf. Zum Beispiel, was wir im Laufe des Lebens lernen und was vererbt wird. Sogar die Vererbung erworbener Eigenschaften wird inzwischen wieder diskutiert. Auch da könnte wieder ein Geniestreich der RNS dahinterstecken. Erst neuerdings weiß man, in welchem Umfang auch Mikroben das Funktionieren eines Organismus mitbestimmen – der Mensch ist ein Ökosystem mit viel mehr Bakterienzellen als eigenen Körperzellen. Da bleiben immer Fragen offen und Aussichten auf viele Wunder.

Der Physiker John Archibald Wheeler meinte, dass es für den Ursprung des Lebens keinen Beweis, sondern nur eine Theorie geben könne, die „so einfach, so schön, so überzeugend“ ist, dass man sagen werde, anders könne es nicht gewesen sein …

Das ist mir aus der Seele gesprochen. Wenn wir die Kompliziertheit und alles, was wir heute haben, auf einen einfachen Anfang zurückführen, dann könnte er so ausgesehen haben wie diese ersten RNS-Moleküle. Ribozyme oder Viroide sind etwas so Elegantes, Sparsames und Vielseitiges, dass sie der Anfang gewesen sein könnten.

Von Karin Mölling ist unlängst erschienen „Supermacht des Lebens. Reisen in die erstaunliche Welt der Viren“, Verlag C.H. Beck, München, 318 Seiten (mit 26 Abbildungen), 24,95 Euro.

Dienstag, 16. Juni 2015

Es gibt eine Grenze zwischen Klassischer und Quantenphysik.

SCHR�DINGERS KATZE - FOTOGRAFIERT MIT SPUKHAFTER FERNWIRKUNG


















aus scinexx

Einstein rettet Schrödingers Katze
Die Relativitätstheorie könnte erklären, warum Quantenphänomene nicht im Makrokosmos funktionieren
Einstein erklärt's: Ob die Verschränkung von Atomen oder die Unschärferelation – im Makrokosmos funktionieren diese faszinierenden Phänomene der Quantenwelt nicht. Denn bei größeren Objekten werden die Quanteneffekte unterdrückt. Wodurch, könnte Einsteins Allgemeine Relativitätstheorie erklären. Denn wie Forscher im Fachmagazin "Nature Physics" berichten, beeinflusst die Dehnung der Zeit durch die Gravitation auch die Teilchen in diesen Objekten – und verhindern so Quantenphänomene.

von Thomas Kramar

Im Jahr 1915 revolutionierte Einsteins Allgemeine Relativitätstheorie unser Verständnis der Gravitation. Er postulierte, dass sich die Gravitation als Krümmung der Raumzeit verstehen lässt und dass sie selbst die Zeit beeinflussen kann: Große Massen dehnen sie. Diese Zeitdilatation zeigt sich auch auf der Erde: Menschen, die im Erdgeschoss arbeiten, altern langsamer als ihre Kollegen im ersten Stock – allerdings nur um etwa zehn Nanosekunden pro Jahr. Dieser Effekt ist winzig klein, wurde jedoch mit präzisen Atomuhren bestätigt.

Schrödingers Katze wäre längst tot

Igor Pikovski von der Harvard University in Cambridge und seine Kollegen haben nun einen weiteren Nebeneffekt der Einsteinschen Zeitdehnung entdeckt: Sie könnte schuld daran sein, dass Quantenphänomene in der makroskopischen Alltagswelt nicht funktionieren. Das bekannteste ist die Überlagerung: Ein Quantenteilchen kann sich, solange es nicht gemessen wird, in mehreren Zuständen gleichzeitig befinden, sie überlagern sich.

Der Physiker Erwin Schrödinger illustrierte dieses Prinzip in seinem berühmten Gedankenexperiment der Katze in einer verschlossenen Kiste mit Gift. Solange niemand die Kiste öffnet und nachschaut, ist die Katze aus quantenmechanischer Sicht gleichzeitig tot und lebendig. Allerdings: Bei einer echten Katze oder einem anderen makroskopischen Objekte existieren solche quantenphysikalischen Überlagerungen nicht.


Wellenfunktion eines harmonisch oszillierenden Quanten-Teilchens

Zeitdehnung beeinflusst Schwingungen

Warum die Quantenmechanik bei größeren Objekten nicht greift, war bislang unklar. Man vermutet aber, dass Wechselwirkungen mit anderen Teilchen die Überlagerung verhindert. Pikovski und seine Kollegen haben nun eine konkrete Hypothese dazu rechnerisch überprüft: Sie gehen davon aus, dass die Zeitdehnung durch die Schwerkraft der Schuldige ist.

Denn jedes Teilchen – egal ob in einem Objekt gebunden oder einzeln - bewegt sich ständig ein bisschen. Diese Schwingungen jedoch werden durch die Zeitdilation beeinflusst, wie die Forscher erklären. Nahe dem Erdboden wird es langsamer, in größeren Höhen wird es schneller. Dadurch aber treten Unterschiede innerhalb eines Objekts auf, die eine Überlagerung verhindern. "Wichtig daran ist, dass diese durch die Zeitdilatation bedingte Dekohärenz komplett innerhalb des Rahmens sowohl der Quantenmechanik als auch der klassischen Physik stattfindet", betonen Pikovski und seine Kollegen.

Nachweis schwierig, aber nicht unmöglich

"Es ist recht überraschend, dass die Gravitation eine Rolle für die Quantenphysik spielen kann", so Pikovski. "Gravitation wird üblicherweise auf astronomischen Skalen studiert, aber sie scheint selbst auch für die winzigsten Bausteine der Natur wichtig zu sein". Noch haben die Forscher dieses Phänomen nur theoretisch postuliert und vorgerechnet. Sie schlagen aber auch vor, wie man den Effekt der Zeitdilatation beispielsweise innerhalb von Molekülen experimentell nachweisen könnte.

Dafür müssten allerdings alle anderen Störmechanismen ausgeschaltet werden, darunter die Einflüsse umgebender Moleküle und die thermische Ausstrahlung. Ein solches Experiment müsste daher wahrscheinlich unter Heliumkühlung und in einem ultrareinen Vakuum durchgeführt werden. "Solche Experimente zur Messung der Dekohärenz durch die Zeitdehnung wären eine große Herausforderung", so die Forscher. "Aber die schnellen Fortschritte bei der Kontrolle großer Quantensysteme und in der Quantenmessung werden unausweichlich in einen Bereich kommen, in dem dieses Phänomen wichtig wird." (Nature Physics, 2015; doi: 10.1038/nphys3366)

(Universität Wien, 16.06.2015 - NPO)



aus Die Presse, Wien, 15.06.2015  

Einsteins Effekt: Die Schwerkraft rettet Schrödingers Katze
Ein (auch) an der Uni Wien lokalisiertes Team konnte zeigen: Die Zeitdilatation, ein Effekt der Allgemeinen Relativitätstheorie, kann die Überlagerung von Wellenfunktionen zerstören.

Zu den Seltsamkeiten der Quantenphysik zählt die Überlagerung, meist Superposition genannt: Ein Quantenteilchen kann in einer Überlagerung mehrerer Zustände sein. Das hat damit zu tun, dass in der Quantenwelt jedes Teilchen auch als Welle betrachtet werden kann, und von Wellen kennt man solche Überlagerungen ja.

Von größeren Stücken Materie nicht. Erwin Schrödinger, der Mann aus Wien-Erdberg, der den heute noch verwendeten Formalismus der Quantentheorie entwickelte, erfand 1935 das längst in die schöne Literatur eingegangene Paradoxon „Schrödingers Katze“: Ein Katze ist in eine Kiste eingesperrt, mit einem radioaktiven Atom, dessen Zustand wir – da wir nicht wissen, ob es schon zerfallen ist oder nicht – als Überlagerung aus „zerfallen“ und „nicht zerfallen“ beschreiben müssen. Wenn es zerfällt, löst das einen Mechanismus aus, der die Katze unweigerlich umbringt. Müssen wir deren Zustand dann nicht als Überlagerung von lebendig und tot beschreiben?

Wo ist die Grenze zur „großen Welt“?

Das wollen wir lieber nicht. Aber warum soll das nicht gehen? Wie groß kann ein Objekt sein, um es noch als Überlagerung von Zuständen zu beschreiben? Wo ist die Grenze zwischen Quantenwelt und Alltagswelt? Gibt es überhaupt eine solche Grenze?

Wiener Quantenphysiker untersuchen das seit Langem experimentell: Sie schauen sich an, wie groß Moleküle sein können, die sich noch wie eine Welle verhalten und etwa an zwei Orten zugleich sein können. Bei einem aus 60 Atomen bestehenden Fußballmolekül hat es schon funktioniert, auch bei noch größeren Molekülen, etwa einem, das die Forscher „Quantenoktopus“ nennen.

Bei solchen Experimenten muss man vorsichtig sein. Denn Überlagerungen von Wellen sind störungsanfällig, neigen zum Zerfallen, zur Dekohärenz. Man kann das obige Problem also auch so formulieren: Was bringt ein Quantensystem zur Dekohärenz – und damit dazu, sich ganz alltäglich zu verhalten?

Die Umwelt natürlich. Die thermische Bewegung, das Zittern der Teilchen. (Darum arbeiten so viele Quantenphysiker bei sehr tiefen Temperaturen.) Physiker um Caslav Brukner am Wiener Institute for Quantum Optics and Quantum Information (IQOQI) konnten nun in einer theoretischen Arbeit (Nature Physics, 15.6.) zeigen: Dieses Zittern wird durch einen Effekt aus der Allgemeinen Relativitätstheorie (ART) beeinflusst, durch die gravitative Zeitdilatation. Diese besteht darin, dass die Zeit in der Nähe von massiven Objekten langsamer vergeht. Der Effekt ist sehr gering – Piloten altern deshalb nicht merklich schneller –, aber er reicht, wie Brukner und Co. berechneten, aus, um ein Molekül aus dem Zustand der Überlagerung zu reißen.

Das ist für Physiker ziemlich aufregend: Die eine der beiden revolutionären physikalischen Theorien des 20.Jahrhunderts, die ART, rettet Objekte vor der anderen, vor der Quantentheorie! Noch dazu im Jubiläumsjahr der ART, die 1915 von Einstein präsentiert wurde. Vorausgesagt hat einen solchen Zusammenhang u.a. der theoretische Physiker Roger Penrose: 1997 berichtete „Die Presse“ über seine einschlägige Vermutung unter dem Titel „Rettet die Schwerkraft Schrödingers Katze?“. Heute kann man sagen: Sieht ganz so aus.



Illustration eines Moleküls, das sich in einem räumlichen Überlagerungszustand befindet. Die Zeitdilatation im Schwerefeld der Erde lässt die Überlagerung zusammenbrechen. (Bild: Igor Pikovski, Harvard-Smithsonian Center for Astrophysics)

aus beta.nzz.ch, 16.6.2015, 12:43 Uhr

Grenze zwischen klassischer und Quantenphysik
Kollaps von Überlagerungszuständen durch die Gravitation
Anders als Atome oder Elektronen können sich grosse Objekte nicht an zwei Orten zugleich aufhalten. Forscher aus Österreich haben eine neue Erklärung vorgestellt, warum das so ist.

von Christian Speicher

Zwischen der Mikro- und der Makrowelt gibt es einen gravierenden Unterschied. Während sich ein Atom an zwei Orten gleichzeitig aufhalten kann, ist noch nie ein Mensch beobachtet worden, der sowohl hier wie dort ist. Diese Eindeutigkeit unserer makroskopischen Welt ruft nach einer Erklärung. Viele Forscher sind nämlich überzeugt, dass das quantenmechanische Überlagerungsprinzip auch für grosse Objekte gilt. Dass wir nicht an zwei Orten gleichzeitig sein können, führen sie auf den störenden Einfluss der Umwelt zurück. Da ein grosses Objekt unzähligen Störungen ausgesetzt ist, verflüchtigt sich sein quantenmechanisches Verhalten nahezu augenblicklich. Demnach wäre es allein die praktische Unmöglichkeit, ein grosses Objekt von Störungen der Umwelt abzuschirmen, die einer Überlagerung von Zuständen im Wege steht.

Ein Team um Časlav Brukner von der Universität Wien relativiert nun diese Vorstellung. In einer theoretischen Arbeit in der Zeitschrift «Nature Physics» legen die Forscher dar, dass auch die Gravitation klassisches Verhalten hervorrufen kann.¹ Über den Effekt der gravitativen Zeitdilatation zerstört sie die kohärente Überlagerung und zwingt selbst ein vollständig isoliertes Objekt in einen lokalisierten Zustand.

Unter der gravitativen Zeitdilatation versteht man das Phänomen, dass Uhren auf der Erdoberfläche langsamer gehen als in grosser Höhe. Dass selbst winzige Höhenunterschiede gravierende Folgen haben können, veranschaulichen die Forscher an einem Molekül, das sich in einer vertikalen Überlagerung befindet. Der untere Zustand spürt dann ein etwas stärkeres Gravitationspotenzial als der obere. Wegen der gravitativen Zeitdilatation vibriert das Molekül im unter Zustand mit etwas anderer Frequenz als im oberen. Dadurch kommt es zu einer Kopplung zwischen der Position des Moleküls und seinen inneren Anregungszuständen. Das führt – ähnlich wie die Kopplung an die Umwelt – zu einem Verlust der Kohärenz.

Die Forscher haben abgeschätzt, dass die Überlagerung eines grammschweren Objekts, dessen Zustände um einen Mikrometer separiert sind, nach einer Tausendstelsekunde zerfallen würde. Das mache die Beobachtung dieses Effekts schwierig, sagt Brukner, denn Umwelteinflüsse zerstörten die Kohärenz in der Regel wesentlich schneller. Dennoch ist Brukner zuversichtlich, dass man die gravitativ bedingte Dekohärenz in Zukunft experimentell nachweisen kann, etwa mit komplexen Molekülen in einem Interferometer. Um die dominanten Umwelteinflüsse auszublenden, müsse ein solches Experiment bei sehr tiefen Temperaturen und im Hochvakuum ausgeführt werden.

Da die Gravitation allgegenwärtig ist, sprechen die Forscher von einer universellen Dekohärenz. Gleichzeitig betonen sie aber, dass es keinen prinzipiellen Unterschied zur Dekohärenz durch alle anderen Umwelteinflüsse gibt. Angelo Bassi von der Universität Triest empfindet das als Manko. Solange die fundamentale Dynamik linear bleibe, könnten externe Einflüsse – und dazu gehöre auch die Gravitation – das konzeptionelle Problem nicht lösen, warum es eine klassische Welt gebe. Als Alternative verweist Bassi auf nichtlineare Modelle von Roger Penrose und anderen Physikern, in denen die Überlagerung von selbst kollabiert. Das hat allerdings einen hohen Preis. Die Modelle postulieren nämlich, dass die Quantentheorie irgendwo zwischen Mikro- und Makrokosmos ihre Gültigkeit verliert.

Nature Physics, Online-Publikation vom 15. 6. 2015.


Nota. - Dass ich's ganz verstanden hätte, kann ich nicht sagen. Für den Fall, dass es Ihnen ähnlich geht, bringe ich es gleich dreimal, vielleicht hilft das.

Für den Hausgebrauch behalte ich immerhin zurück: Zwischen dem Mikrokosmos der Teilchenphysik und dem Mesokosmos, in dem wir unsere Erfahrungen machen, gibt es keinen stetigen Übergang, sondern eine Grenze. Die Natur macht (auch hier) einen Sprung. 

Und zwar einen so gewaltigen, dass man sich nicht erklären kann, wie auf der Grundlage der Quanten eine Welt, in der wir leben können, überhaupt möglich ist. - Oder weist etwas das Bedingungsverhältnis nicht (nur) bottom up, sondern (auch) top down? Wie ein Weiser mal sagte: Je mehr man weiß, umso weniger versteht man.
JE

Sonntag, 14. Juni 2015

Immer mehr Lamarck.

Lamarck
aus Der Standard, Wien, 10.6.2015

"Epigenetische Vererbung findet überall statt"
Können umweltbedingte Veränderungen auch ohne DNA vererbt werden? Die israelische Evolutionsbiologin Eva Jablonka ist die wichtigste Befürworterin dieser Theorie


STANDARD: Seit gut zwanzig Jahren findet in der Biologie so etwas wie eine epigenetische Revolution statt: Forscher finden immer mehr Belege dafür, dass es jenseits der DNA und der Gene einen weiteren Code gibt, der an der Ausprägung unserer individuellen Merkmale beteiligt ist. Sehr viel umstrittener allerdings ist, ob es auch so etwas wie eine epigenetische Vererbung dieser Ausprägungen gibt. Sehe ich das richtig?

Jablonka: Ja. Was sich im Moment rund um die Epigenetik abspielt, ist in der Tat extrem spannend. Dass es alle möglichen epigenetischen Mechanismen gibt, steht längst völlig außer Zweifel. Umso heißer wird dagegen darüber gestritten, ob epigenetische Faktoren auch Auswirkungen auf die Vererbung und damit auch auf die Evolution haben.
STANDARD: Dies Forschungen haben eine lange Tradition - ohne dass man damals von Epigenetik sprach. Der Biologe Paul Kammerer, der Anfang des 20. Jahrhunderts in Wien forschte, war einer der wichtigsten und letzten Vertreter einer solchen Vererbung erworbener Eigenschaften. Mit dem Selbstmord Kammerers im Jahr 1926 nach einem bis heute ungeklärten Fälschungsskandal schien diese Theorie aber erledigt. Inwiefern unterscheidet sich die Debatte heute von damals?
Jablonka: Der wichtigste Unterschied zwischen damals und heute besteht wohl darin, dass man damals nicht wusste, wie man sich das alles erklären kann. Man beobachtete schon damals Umwelteffekte, die über mehrere Generationen anhielten. Heute hingegen kennen wir alle möglichen epigenetischen Mechanismen, und wir wissen, wie das funktionieren kann - auch wenn wir noch lange nicht alle Details verstehen, wie sie vererbt werden. Heute kann niemand mehr sagen, dass es so etwas nicht gibt.
STANDARD: Erstaunlich ist, dass zwischen Kammerers Freitod 1926 und den letzten gut 20 Jahren der ganze Ansatz der Vererbung erworbener Eigenschaft in der westlichen Evolutionsbiologie ziemlich tabu war. Woran lag das?
Jablonka: Ich denke, dass die Politik da stark hineinspielte, konkret: der Kalte Krieg in der Biologie nach 1945. In der Sowjetunion wurden unter dem mächtigen Biologen Trofim Lyssenko Genetiker verfolgt, dessen Züchtungsexperimente mit Getreide sich zudem als Fälschung herausstellten. Es ist meines Erachtens sicher kein Zufall, dass es erst nach 1989, also unmittelbar nach dem Zerfall des kommunistischen Systems, in der Biologie zu einer Enttabuisierung epigenetischer Vererbung und einem Boom an Forschungen darüber kam.
STANDARD: Gibt es auch wissenschaftliche Gründe dafür?
Jablonka: Absolut. Eine Rolle spielte dabei sicher der Siegeszug der Entwicklungsbiologie. Dazu kamen die Fortschritte in der Gentechnik und die neuen Möglichkeiten, transgene Organismen herzustellen. Als die Biotechnologen damit begannen, fanden sie plötzlich sehr seltsame Phänomene: Die Gene verhielten sich nicht mehr so, wie man dachte, dass sie sich verhalten würden. So entdeckte man die sogenannte DNA-Methylierung, den bis heute wichtigsten epigenetischen Mechanismus. Entsprechend kamen die ersten soliden Daten über epigenetische Vererbung von Forschungen an transgenen Tieren und Pflanzen. Das waren auch meine Anfänge in der Forschung.
STANDARD: Aber Sie waren damals noch recht allein auf weiter Flur ...
Jablonka: Das stimmt. Ich hatte mich für die Vererbung erworbener Eigenschaften bereits interessiert, als ich mit 17 Jahren die Bücher von Arthur Koestler las, der damals als Nicht-Biologe für die Vererbung erworbener Eigenschaften argumentierte. Das war damals eine völlige Außenseiterposition, an der auch ich meine Zweifel bekam. Doch als ich mich dann einige Jahre später als Mikrobiologin mit Fragen der Epigenetik zu beschäftigen begann, wurde mir dann vieles plausibler.
STANDARD: Gerade in Sachen epigenetischer Vererbung scheinen aber auch noch heute nach wie vor viele Fragen offen zu sein.
Jablonka: Das stimmt. Es ist auch wirklich eine sehr komplizierte Angelegenheit. Doch genau das macht auch die besondere Faszination dieser Forschungen aus. Mittlerweile gibt es aber Dutzende Studien, die verschiedene Mechanismen epigenetischer Vererbung bestätigen. Und ich würde sogar behaupten, dass epigenetische Vererbung überall stattfindet. Sie ist extrem verbreitet, aber eben schwer zu untersuchen, weil so viele Faktoren hineinspielen.
STANDARD: Eine der offenen Fragen ist, wie lange sie anhält.
Jablonka: Völlig richtig. Aber auch das hängt von vielen Faktoren ab: etwa davon, wie viele Generationen lang man Organismen bestimmten Umwelteinflüssen aussetzt. In Pflanzen hat man erst kürzlich epigenetische Effekte festgestellt, die über mehr als 30 Generationen anhalten. Die epigenetischen Mutationen sind zwar etwa fünf Mal so hoch wie in der DNA. Damit sind sie aber immer noch niedrig genug, dass sie der Selektion unterworfen werden.
STANDARD: Welche Konsequenzen hat das für die Evolutionsbiologie?
Jablonka: Wenn man das alles ernst nimmt, dann sind die radikal. Ich bin mir ziemlich sicher, dass man in 50 Jahren peinlich berührt sein wird, wenn man sich evolutionsbiologische Lehrbücher aus dem Jahr 2015 ansieht.
STANDARD: Sie werden am Freitag bei Ihrem Vortrag in Wien aber zurückblicken und auch über die Forschungen an der Biologischen Versuchsanstalt vor 100 Jahren im Licht heutiger epigenetischer Erkenntnisse sprechen. Kann man wissenschaftlich noch etwas lernen, sich diese damaligen Forschungen anzuschauen?
Jablonka: Ich denke schon. Wir sollten jedenfalls versuchen, einige dieser Experimente zu wiederholen und uns ihre molekularbiologischen Grundlagen anschauen. Da sind zweifellos noch etliche Schätze zu heben, denn heute wissen wir, nach welchen epigenetischen Mechanismen wir suchen müssen - und wir haben die Werkzeuge, sie zu finden.  


Eva Jablonka, 1952 in Polen geboren, lebt seit 1957 in Israel. Die studierte Biologin ist Professorin am Cohn Institut für Wissenschaftsgeschichte und Wissenschaftstheorie der Universität Tel Aviv und veröffentlichte unter anderem mit Marion Lamb einige Standardwerke zur epigenetischen Vererbung.