Auf der Suche nach der Weltformel.

John Martin,The Great Day Of His Wrath
                                                                                   
Die großen Vier
Den Grundkräften der Physik auf der Spur 
Nach gängigem Weltbild prägen vier fundamentale Wechselwirkungen das Universum. Doch vieles an ihnen gibt noch immer Rätsel auf. 

Sie sind die verborgene Macht im Universum: die vier Grundkräfte der Physik. Ob im Reich der Atome, in unserem Alltag oder im Kosmos, diese fundamentalen Wechselwirkungen spielen überall mit. Doch trotz ihrer immensen Bedeutung geben sie noch immer Rätsel auf. Denn was verbindet sie miteinander? Und gibt es vielleicht sogar eine einende "Weltformel"? 

Nach gängigem Weltbild sind diese vier die universellen "Macher": Gravitation, Elektromagnetismus sowie die starke und schwache Kernkraft. Am Uranfang des Kosmos waren sie alle vereint, teilten sich dann aber auf. Seither gehen aus ihnen und der Wirkung ihrer Trägerteilchen alle anderen Kräfte und Phänomene hervor – so die Theorie.

Doch mit diesem simplen Bild gibt es Probleme: Bisher sind die Mittlerteilchen nur von dreien der vier Grundkräfte bekannt. Und schon Albert Einstein verzweifelte beim Versuch, die Grundkräfte mathematisch-physikalisch unter einen Hut zu bringen. Bis heute gleicht die Suche nach einer solchen "Weltformel" der Suche nach dem heiligen Gral…

 Inhalt:

  1. Die Macht der "Viererbande"
    Kräfte und Grundkräfte
  2. Im Reich der Bosonen
    Jeder Kraft sein Teilchen - theoretisch
  3. Problemfall Gravitation
    Warum die Schwerkraft nicht ins Schema passt
  4. Wo Einstein scheiterte
    Die Suche nach der Einheitlichen Feldtheorie
  5. Gibt es die "Weltformel"?
    Große Hoffnung und viele Fehlschläge


Die Macht der "Viererbande"
Kräfte und Grundkräfte
Ob Elektrizität, Reibung oder mechanische Kraft - unser Alltag ist von der Wirkung von Kräften geprägt.
Ob Elektrizität, Reibung oder mechanische Kraft - unser Alltag ist von der Wirkung von Kräften geprägt.

Ob wir einen Ball fallen lassen, ein Elektrogerät anschalten oder von einem Stuhl aufstehen – die Wirkung von Kräften begegnet uns überall in unserem Alltag. Immer dann, wenn sich Objekte gegenseitig beeinflussen, sei es durch Anziehung, Abstoßung, Reibung oder Widerstand, ist eine Kraft im Spiel. Kräfte steuern und beeinflussen alle Prozesse im Universum und wirken vom kleinsten Teilchen bis in die Weiten des Alls.

Doch so vielfältig die Kräfte und ihre Wirkungen erscheinen: Heute weiß man, dass sie sich alle auf nur vier Grundkräfte zurückführen lassen – zumindest nach gängiger Theorie. Zu diesen vier fundamentalen Wechselwirkungen gehören die Gravitation, der Elektromagnetismus sowie die schwache und die starke Kernkraft. Einzeln oder zusammen wirkend bringen sie all die Effekte hervor, die unsere Welt und den gesamten Kosmos prägen.

Die Gravitation bestimmt die Bahnen von Himmelskörpern und bewirkt die Erdanziehung.
Die Gravitation bestimmt die Bahnen von Himmelskörpern und bewirkt die Erdanziehung.
Gravitation und Elektromagnetismus

Die Gravitation ist die Grundkraft, die am frühesten identifiziert und beschrieben wurde. Isaac Newton beschrieb schon im 17. Jahrhundert ihren Einfluss auf Massen und auf Planeten und andere Himmelskörper. Dass auch zwei Objekte alltäglicher Größe eine Anziehung aufeinander ausüben, bewies der Ende des 18. Jahrhunderts der britische Chemiker Henry Cavendish. Erst Albert Einstein jedoch legte vor gut hundert Jahren mit seiner Allgemeinen Relativitätstheorie den Grundstein für unser heutiges Verständnis der Gravitation als einer Folge der Geometrie der Raumzeit.

Für uns unmittelbar im Alltag erfahrbar ist die elektromagnetische Wechselwirkung. Erst durch sie fließt Strom, finden chemische Reaktionen statt oder wirken Magneten. Diese Grundkraft sorgt aber auch dafür, dass Atome und Moleküle durch die Ladung ihrer Teilchen zusammenhalten. Erst durch sie ist der Boden unter unseren Füßen tragfähig und feste Körper können entstehen.

Die starke Kernkraft hält die Quarks im Proton und Neutron zusammen, Trägerteilchen sind Gluonen.
Die starke Kernkraft hält die Quarks im Proton und Neutron zusammen, Trägerteilchen sind Gluonen.
Die beiden Kernkräfte

Die beiden restlichen Grundkräfte wurden erst identifiziert, als Wissenschaftler begannen, die Zusammensetzung des Atoms und sein Verhalten zu enträtseln. Denn beide wirken nur in seinem Inneren. Die starke Wechselwirkung ist die Kraft, die die Quarks im Innern von Protonen und Neutronen zusammenhält und die Atomkerne überhaupt erst stabil macht. Denn sie sorgt dafür, dass sich die Protonen im Atomkern trotz ihrer positiven Ladungen nicht abstoßen, sondern zusammenhalten.

Die schwache Kernkraft ist der große Wandler: Sie sorgt nicht für Stabilität, sondern wirkt immer dann, wenn Atome zerfallen oder miteinander verschmelzen. Erst durch sie ist beispielsweise die Umwandlung von Protonen zu Neutronen möglich, wie sie bei bestimmten radioaktiven Betazerfällen oder bei der Wasserstofffusion im Herzen der Sonne vorkommen. Dabei wandelt sich ein Up-Quark im Proton in ein Down-Quark um und gibt dabei ein Positron und ein Neutrino ab.

So weit die Effekte der vier Grundkräfte. Aber wodurch wirken sie?
 
 
Im Reich der Bosonen
Jeder Kraft sein Teilchen - theoretisch

Wie funktioniert eine Kraftwirkung überhaupt? Wie "spüren" zwei Magneten ihre gegenseitige Anziehung oder Abstoßung und was sagt dem Ball, dass er wieder zur Erde fallen soll? Lange Zeit fanden Wissenschaftler darauf keine Antwort. Sie konnten zwar die Wirkung der Kräfte beobachten und messen, ihre wahre Natur blieb ihnen jedoch verborgen.


Im Standardmodell der Teilchenphysik sind die Trägerteilchen (Eichbosonen, rot) von drei der vier Grundkräfte erfasst.
Im Standardmodell der Teilchenphysik sind die Trägerteilchen (Eichbosonen, rot) von drei der vier Grundkräfte erfasst.
Teilchen als Vermittler der Kräfte

Heute weiß man, dass die Grundkräfte von Trägerteilchen vermittelt werden, den sogenannten Eichbosonen. Ähnlich wie ein Ball beim Fangen einen Teil seines Impulses und seiner Energie an den Fänger überträgt, wirken diese Kraftteilchen auf die Teilchen der Materie. Theoretisch lässt sich jede Grundkraft auf einen Austausch von Eichbosonen zwischen Materieteilchen zurückführen.

Im Standardmodell der Teilchenphysik bilden die Bosonen eine ganz eigene Klasse, denn sie unterscheiden sich in einigen entscheidenden Merkmalen von den "normalen" Teilchen, den Fermionen, aus denen unsere Materie besteht. So lässt sich ihr Eigendrehimpuls immer in ganzen Zahlen ausdrücken: Ein Photon hat beispielsweise einen Spin von eins. Bei Quarks, Elektronen und anderen Materiebausteinen ist der Spin dagegen immer halbzahlig.

Einzelgänger und gesellige Typen

Dieser auf den ersten Blick rein formale Unterschied hat gravierende Folgen für das Verhalten der Teilchen. Denn durch ihn werden Fermionen zu Einzelgängern: Dort, wo ein Quark oder Elektron ist, kann zur gleichen Zeit kein zweites mit dem gleichen Spin sein. Diese Teilchen müssen sich immer in einem ihrer Quantenmerkmale unterscheiden. Das besagt das sogenannte Pauli-Ausschlussprinzip.

Erst diese Grundeigenschaft sorgt beispielsweise dafür, dass die Elemente chemische Reaktionen miteinander eingehen: Weil ihre Elektronen nicht alle im günstigen Energiezustand sein können, sind einige zu ungünstigen Außenpositionen verdammt. Um dies auszugleichen, streben die meisten Elemente danach, Elektronen mit anderen Elementen auszutauschen – chemische Bindungen sind die Folge.
 
 aus scinexx

Im Reich der Bosonen
Jeder Kraft sein Teilchen - theoretisch

Wie funktioniert eine Kraftwirkung überhaupt? Wie "spüren" zwei Magneten ihre gegenseitige Anziehung oder Abstoßung und was sagt dem Ball, dass er wieder zur Erde fallen soll? Lange Zeit fanden Wissenschaftler darauf keine Antwort. Sie konnten zwar die Wirkung der Kräfte beobachten und messen, ihre wahre Natur blieb ihnen jedoch verborgen.


Im Standardmodell der Teilchenphysik sind die Trägerteilchen (Eichbosonen, rot) von drei der vier Grundkräfte erfasst.
Im Standardmodell der Teilchenphysik sind die Trägerteilchen (Eichbosonen, rot) von drei der vier Grundkräfte erfasst.
Teilchen als Vermittler der Kräfte

Heute weiß man, dass die Grundkräfte von Trägerteilchen vermittelt werden, den sogenannten Eichbosonen. Ähnlich wie ein Ball beim Fangen einen Teil seines Impulses und seiner Energie an den Fänger überträgt, wirken diese Kraftteilchen auf die Teilchen der Materie. Theoretisch lässt sich jede Grundkraft auf einen Austausch von Eichbosonen zwischen Materieteilchen zurückführen.

Im Standardmodell der Teilchenphysik bilden die Bosonen eine ganz eigene Klasse, denn sie unterscheiden sich in einigen entscheidenden Merkmalen von den "normalen" Teilchen, den Fermionen, aus denen unsere Materie besteht. So lässt sich ihr Eigendrehimpuls immer in ganzen Zahlen ausdrücken: Ein Photon hat beispielsweise einen Spin von eins. Bei Quarks, Elektronen und anderen Materiebausteinen ist der Spin dagegen immer halbzahlig.

Einzelgänger und gesellige Typen

Dieser auf den ersten Blick rein formale Unterschied hat gravierende Folgen für das Verhalten der Teilchen. Denn durch ihn werden Fermionen zu Einzelgängern: Dort, wo ein Quark oder Elektron ist, kann zur gleichen Zeit kein zweites mit dem gleichen Spin sein. Diese Teilchen müssen sich immer in einem ihrer Quantenmerkmale unterscheiden. Das besagt das sogenannte Pauli-Ausschlussprinzip.

Erst diese Grundeigenschaft sorgt beispielsweise dafür, dass die Elemente chemische Reaktionen miteinander eingehen: Weil ihre Elektronen nicht alle im günstigen Energiezustand sein können, sind einige zu ungünstigen Außenpositionen verdammt. Um dies auszugleichen, streben die meisten Elemente danach, Elektronen mit anderen Elementen auszutauschen – chemische Bindungen sind die Folge.

Erst die
Erst die "gesllige" Natur der Bosonen macht Phänomene wie das Laserlicht möglich.
Anders die Bosonen: Sie sind eher geselliger Natur und können sich problemlos an einem Ort und zur gleichen Zeit aufhalten. Physikalisch ausgedrückt: das Pauli-Ausschlussprinzip gilt für sie nicht. Dadurch kann man beispielsweise in einem Laser große Mengen von Photonen mit gleichen Merkmalen erzeugen. Gleichzeitig befähigt erst diese "Geselligkeit" die Eichbosonen dazu, als Überträgerteilchen der Grundkräfte zu wirken.

Wer macht was?

Die Art der Bosonen bestimmt, auf welche Teilchen eine Kraft wirkt. Ihre Reichweite entscheidet darüber, in welchen Distanzen sich die Wechselwirkung manifestiert. Identifiziert und nachgewiesen sind heute die Trägerteilchen von drei der vier Grundkräfte: Das Photon ist das Eichboson der elektromagnetischen Wechselwirkung. Die Gluonen wirken in Teilchen wie den Protonen und Neutronen als der Klebstoff für die Quarks und damit als Träger für die starke Kernkraft.

Bei der schwachen Kernkraft ist das Ganze ein wenig komplizierter: Sie wird von gleich drei verschiedenen Bosonenvarianten vermittelt: den W+, W- und Z-Bosonen. Und noch etwas ist seltsam: Nach gängiger Theorie dürften die Eichbosonen eigentlich keine Masse besitzen – bei Gluonen und Photonen ist das auch der Fall. Aber die Bosonen der schwachen Kernkraft haben eine Masse – eine ziemlich große sogar, wie Messungen im Large Hadron Collider (LHC) belegen.


Darstellung der Teilchenspuren beim Zerfall eines Higgs-Bosons im Detektor CMS
Darstellung der Teilchenspuren beim Zerfall eines Higgs-Bosons im Detektor CMS
Rettung durch das Higgs

Wie ist das zu erklären? Hier kommen das Higgs-Boson und der mit ihm verknüpfte Higgs-Mechanismus ins Spiel. Sein Einfluss verleiht nicht nur Materieteilchen ihre Masse, sondern sorgt auch dafür, dass die Eichbosonen der schwachen Kernkraft mit dem Higgsfeld wechselwirken und so eine Masse bekommen. Ohne diesen Effekt müssten die W- und Z-Bosonen masselos sein.


Nota. - 'Es gibt' keine Kräfte. Was wirkt, entsteht immer erst durch Wechselwirkung - und die besteht in einem Austausch - zwischen zwei "Trägern". Trägern von was? Ein Was ist gar nicht 'da', bevor die 'Träger' aneinander geraten. Es ist die Wechsel- wirkung selbst, die 'wirkt'.
JE
 
 
aus scinexx                                                        Die Gravitation manifestiert sich in einer Krümmung der Raumzeit
  
 
Eine Grundkraft allerdings fällt komplett aus dem Rahmen – da hilft auch kein Higgs: die Gravitation.
Problemfall Gravitation 
Warum die Schwerkraft nicht ins Schema passt 

Die Gravitation ist ein echter Sonderling. Denn sie will einfach nicht in das säuberlich geordnete Standardmodell der Teilchenphysik passen. Klar scheint: Die Gravitation ist definitiv eine der fundamentalen Kräfte im Universum. Gäbe es die Gravitation nicht, würde es weder Sterne noch Planeten im All geben und auch unsere Alltagserfahrungen sähen ziemlich anders aus.

Extrem schwach und doch weltbewegend 

Erst die Gravitation sorgt dafür, dass sich Objekte mit einer Masse gegenseitig anziehen – je größer die Massen, desto stärker die Anziehungskraft. Das aber bedeutet auch, dass die Gravitationskraft auf der Ebene der Alltagsobjekte nur sehr schwach wirkt. Rein theoretisch übt unser Körper auf alle umgebenden Objekte eine Anziehungskraft aus. Spüren tun wir davon allerdings nichts. Und selbst die Schwerkraft der Erde können wir durch ein wenig Muskelkraft locker überwinden: Fällt uns ein Buch auf den Boden, heben wir es problemlos wieder auf.

Bei sehr kleinen Massen, wie auf der Ebene der Elementarteilchen, wirkt die Gravitation sogar so schwach, dass sie vernachlässigbar ist. Deshalb taucht die Gravitation in den Berechnungen und Modellen der Teilchenphysiker auch nicht auf – bisher jedenfalls. 

Wo steckt das Trägerteilchen? 

Das richtig große Problem aber bereitet uns die Gravitation, wenn es um ihr Trägerteilchen geht. Rein theoretisch müsste sie - wie alle anderen Grundkräfte auch - durch ein Eichboson vermittelt werden. Aber wie ein solches Graviton beschaffen sein könnte und ob es wirklich existiert, ist eines der großen Rätsel der modernen Physik.

Computermodell von Gravitationswellen, wie sie Einstein postulierte

Einer der Gründe dafür ist die ungewöhnliche Wirkungsweise der Gravitation. Albert Einstein beschrieb in seiner Allgemeinen Relativitätstheorie, dass die Gravitation untrennbar mit der Geometrie der Raumzeit verknüpft ist - und damit mit der Grundmatrix unseres Universums. Die Anziehung zwischen zwei Massen macht sich demnach in einer Krümmung der Raumzeit bemerkbar. Kommt es zu abrupten Veränderungen, beispielsweise bei der Verschmelzung zweier Schwarzer Löcher, löst dies wellenartige Schwingungen der Raumzeit aus - Gravitationswellen. 

Das Problem der Quantisierung 

So weit, so bekannt. Aber wo in diesem Geschehen bleibt Platz für das Graviton? Rein theoretisch könnte es ähnlich wie beim Elektromagnetismus sein: Die Photonen sind im Prinzip nichts anders als die gequantelten, kleinsten Energieeinheiten der elektromagnetischen Wellen – eine elegante mathematisch beschreibbare Herleitung.

Aber die Gravitation ist keine normale Welle, sie ist die Geometrie der Raumzeit. Will man sie quantisieren, müsste man die Raumzeit selbst in diskrete Grundeinheiten aufteilen. Tatsächlich gibt es Physiker, die davon ausgehen, dass auch die Raumzeit aus Quanten besteht. Nach der Schleifen-Quantengravition ist sie aus einem Spin-Netzwerk aus verbundenen Knotenpunkten aufgebaut - sogenannte Schleifen oder "Loops". Wo sich in diesen Einheiten das Graviton versteckt, ist jedoch unklar.

Die Schleifen-Quantengravitation postuliert eine Quantelung der Raumzeit in Form eines Netzes auf Knoten und Schleifen
. 
Ein Detektor für das Graviton

Könnte man das Graviton vielleicht einfach experimentell nachweisen? Leider stehen die Chancen dafür eher schlecht, einige Physiker halten es sogar schlicht für unmöglich. Einer der Gründe: Die Gravitation ist auf der Ebene der kleinsten Teilchen 10 hoch 36 Mal schwächer als der Elektromagnetismus, entsprechend energiearm muss auch das Graviton sein. Einen Detektor, der dies erspüren kann, müsste daher weit empfindlicher sein als alles, was bislang technisch machbar erscheint.

Hinzu kommt, dass die Gravitons eher dünn gesät sind: Der Physiker Freeman Dyson rechnete vor einigen Jahren aus, dass die Sonne rund 10 hoch 24 Gravitons pro Sekunde abgibt – das sind 1.000 Trilliarden. Das klingt erstmal viel. Doch davon kommt nur ein Bruchteil bei der Erde an. Würde man die gesamte Erde in einen Detektor umwandeln, hätte dieser während der gesamten bisherigen Lebenszeit der Sonne gerade einmal vier Gravitons registriert.

Dyson kommt daher zu dem Schluss: Gravitonen könnten zwar etwas sein, das sich im Prinzip nachweisen lässt. Die Wahrscheinlichkeit, dass dies irgendwann gelingt, ist allerdings verschwindend gering. Das hindert die Physiker aber nicht daran, weiter nach möglichen Wegen zu suchen, um wenigstens indirekt die Existenz dieses Teilchens nachzuweisen. 
 
 
aus scinexx                               Die Grand Unifying Theory (GUT) von Glashow und Weinberg sollte drei der vier Grundkräfte vereinen

Gibt es die "Weltformel"?
Große Hoffnung und viele Fehlschläge

In den 1960er und 1970er Jahren herrschte Aufbruchsstimmung in der Physik. Die lange gesuchte "Weltformel" schien plötzlich zum Greifen nahe. Denn Forschern war es gelungen, zwei der Grundkräfte zu vereinen: den Elektromagnetismus und die schwache Kernkraft.

Eine erste Verschmelzung

Sheldon Glashow, Steven Weinberg und Abdus Salam konnten theoretisch nachweisen, dass diese Kräfte bei hohen Energien von rund 100 Gigaelektronenvolt verschmelzen. Sie sind dann nur Manifestationen einer übergeordneten Kraft – der sogenannten elektroschwachen Wechselwirkung. Erst bei niedrigeren Temperaturen und Energien bricht diese Symmetrie zusammen – unter anderem durch Einwirkung des Higgs-Mechanismus. Denn er verleiht den Eichbosonen der schwachen Kernkraft eine Masse, dem Photon aber nicht.

1979 erhielten die drei Forscher dafür den Nobelpreis für Physik. Glashow und Weinberg sahen dies jedoch nur als einen ersten Schritt hin zur "Grand Unifying Theory" (GUT) – der großen vereinheitlichten Theorie. Sie entwickelten ein System, das es erlaubte, die Trägerteilchen von elektromagnetischer, schwacher und starker Wechselwirkung in mathematische Symmetriegruppen einzuordnen – die Grundlage für das heutige Standardmodell der Teilchenphysik.

Erklärungsnöte

Der nächste Schritt, die Vereinigung der starken Kernkraft mit den anderen beiden Grundkräften, schien nur noch eine Frage der Zeit. "Der Geruch der großen Synthese lag förmlich in der Luft", beschreibt US-Physiker Lawrence Krauss die Stimmung. Doch dieser Optimismus erwies sich als verfrüht. Zum einen können selbst die stärksten Teilchenbeschleuniger nicht einmal ansatzweise in den Energiebereich vordringen, der für eine Verschmelzung von starker und elektroschwacher Wechselwirkung nötig wäre. Sie lässt sich daher experimentell nicht direkt beweisen.

Die Supersymmetrie postuliert die Existenz von schweren Partnerteilchen für jedes bisher bekannte Elementarteilchen.
Im Gegenteil: Messungen deuten inzwischen darauf hin, dass es offenbar nicht genügt, einfach von noch höheren Energie auszugehen, um auch die starke Kernkraft mit ins Boot zu bringen: "Präzisere Messungen demonstrierten, dass sie sich in keiner Größenordnung vereinen – wenn es nur die Teilchen gibt, die bisher im Standardmodell vorkommen", erklärt Krauss.

Neuere Varianten der GUT versuchen daher, dieses Problem durch zusätzliche Teilchen oder Dimensionen zu umgehen, darunter die Supersymmetrie und die Stringtheorie. Bisher allerdings sind auch sie bloße Gedankengebäude ohne echtes Fundament.

Das Problem des Protonenzerfalls

Und noch einen Haken gibt es: Fast alle GUT-Varianten funktionieren nur, wenn es einen Zerfall des Protons gibt. Der Atombaustein dürfte demnach nicht unendlich lange stabil sein wie bisher angenommen, sondern müsste irgendwann spontan zerfallen - wenngleich erst nach 10 hoch 34 Jahren.

Blick in den Wassertank des Super-Kamiokande. Wände und Boden sind mit Phtoodetektoren bedeckt.

Das Problem dabei: Trotz dieser unvorstellbaren Halbwertszeit müsste sich der Protonzerfall experimentell leicht nachweisen lassen. Allein in unserem Körper tragen wir genügend Protonen, um in einem Jahr mindestens einen Zerfall zu erleben. In den gewaltigen Wassertanks von Detektoren wie dem Super-Kamiokande in Japan hätte daher längst einer dieser Zerfälle beobachtet werden müssen.

Doch das ist nicht der Fall. "Damit sind die meisten Varianten der einheitlichen Feldtheorie ausgeschlossen", konstatiert Krauss. Auch Glashow räumt dies ein: "Der Protonenzerfall ist ein Fehlschlag. Viele große Ideen sind damit gestorben."

Bleibt die Weltformel ein Traum?

Und nicht nur das: Wenn die große Vereinheitlichung schon bei den drei Grundkräften mit bekannten Trägerteilchen und gemeinsamer Quantenphysik nicht funktioniert, dann sieht es für die ganz große Weltformel richtig düster aus. Denn die Gravitation entzieht sich bisher dem übergeordneten quantenphysikalischen System, ganz zu schweigen von ihrem noch immer unentdeckten Boson.

Noch ist der Traum einer Weltformel damit zwar nicht völlig ausgeträumt. Aber es wird immer klarer, dass die von Einstein einst so optimistisch angegangene Vereinheitlichung der Grundkräfte viel komplexer und komplizierter ist als lange angenommen. Ob die Weltformel daher gibt und ob sie je gefunden wird, bleibt offen.

(von Nadja Podbregar, 28.07.2017)
Copyright (c) 1998 - 2017 scinexx

Nota. - Von Philosophie verstehe ich etwas; von Transzendentalphilosophie, genauer gesagt. Auch von den Naturwissenschaften habe ich dies und das gehört, aber dass ich es verstünde, hatte ich nicht oft das Ge- fühl. Doch hier handelt es sich nicht um Naturwissenschaft, sondern um deren allgemeinverständliche Zu- sammenfassung. Ob und wieweit es zutrifft, kann ich nicht beurteilen; ich nehme an, dass es den 'Stand der Wissenschaft' loyal wiedergibt.

Die Philosophie lehrt mich, dass ich von den Dingen selber gar nichts weiß. Ich habe Vorstellungen von ihnen, über die kann ich reden, und ich kann mich fragen, wie ich zu ihnen gekommen bin. Ich werde be- merken, dass ich bei der Aufnahme, Anordnung und Bewertung der Daten, die mir meine Sinnesorgane vermelden, gewisse Schemata verwende - das, was bei Kant das 'Apriori' heißt. Bis dahin ist das noch keine Philosophie, sondern entspricht den Ergebnissen der empirischen (psychologischen) Forschung. Wenn es stimmt, verwendet sie allerdings selber besagte Schemata, sie kommt hinterdrein und ist nicht befähigt, die Schemata auf ihre Herkunft und Berechtigung zu prüfen.

Das ist Sache der Philosophie, nämlich der kritischen oder 'Transzendental'-Philosophie; transzendental darum, weil sie nach den Bedingungen ihrer eigenen Möglichkeit fragt. So kritisch und radikal sie immer verfährt - sie bleibt doch immer im Rahmen unserer tatsächlichen Vorstellungsmöglichkeiten, will sagen: andere Voraussetzungen als die, die sie selber macht, sind ihr nicht möglich.

Kant selber hatte die Möglichkeit offengelassen, dass unser Vorstellungsvermögen von einem Schöpfer so angelegt wurde, wie es eben ist. Der Naturwissenschaftler, der an dieser Stelle wieder zu Wort kommt, sagt, unser Vorstellungsvermögen ist wie jedes andere unserer Vermögen ein Produkt der natürlichen Evolution: Anpassung und Auslese. Wir können uns nicht vorstellen, was wir uns vorstellen könnten, wenn wir uns in einer anderen Ecke des Universums hätten entwickeln müssen; wir können uns nicht einmal vorstellen, was in unserer Welt die Biene dort sieht, wo bei uns das ultraviolette Licht unsichtbar wird.

Es ist Wunders genug, dass die irdische Beschränktheit unserer Vorstellungskraft uns nicht daran gehindert hat, durch das Übersetzen von konstruierten Begriffen in mathematische Formeln uns Dinge denkbar zu machen, die wir uns nicht vorstellen können. Das Wunder hat einen Namen, es heißt Symbolisierung. Mit den Symbolen können wir operieren, ohne unsere Vorstelungskraft jeweils mitbemühen zu müssen. Da- durch werden die Symbole indessen kein bisschen objektiver: Sie bleiben immer willkürlich gewählte Zeichen für eine subjektive Bedeutung. Die Bedeutung bezieht sich immer nur darauf, was wir mit dem Ding anfangen können, und nicht auf das, was das Ding 'ist', und ob einen Bedeutung zutrifft, wird sich erweisen oder nicht.

Wenn also Einstein meinte, sein Geist könne sich nicht mit der Vorstellung zufriedengeben, dass es im Univerum "zwei getrennte Felder gibt, die in ihrer Natur völlig voneinander unabhängig sind", so sagt er etwas darüber, welche Vorstellungen unsere Gattungsgeschichte unserm Gehirn möglich gemacht hat; aber nichts über die Beschaffenheit der 'Dinge'. 

Es wäre des Wunders viel zu viel, wenn sich erwiese, dass wir durch das Kombinieren von Symbolen Formeln konstruieren können, denen 'das Ding' entspricht. Denn hier geht es nicht um dieses oder jenes Ding, sondern um den Inbegriff aller Dinge. Den könnte nur kennen, wer 'Alles' erschaffen hat. Und andernfalls gäbe es ihn gar nicht.

Indem nun die Transzendentalphilosophie den Gedanken einer Schöpfung undenkbar* macht, schließt sie die Möglichkeit einer Weltformel aus; und darauf will ich wetten. 
JE

*) Kant hatte ihn dem Glauben zugestanden, aus der Wissscenschaft jedoch verbannt.
 
 
 

Weltformel.




Die Suche nach der Weltformel ist die Suche nach dem intelligent design: Würde sie gefunden, drängte sich die Annahme auf, dass sie sich wer ausgedacht hat; ein Urheber.

Unser Vorstellungsvermögen hat sich darwinistisch-evolutiv in der natürlichen Mittelwelt durch trial and error ausgebildet, da, wo die Sonne im Osten auf- und im Westen untergeht und wo wir unsere Erfahrungen machen.* Den Vorgängen im Mikrokosmos ist es ebensowenig erwachsen wie denen im Makrokosmos. Für beide jenseits seines Horizonts gelegenen Welten kann der Verstand theoretische Modelle erfinden, die sich nachrechnen und experimentell prüfen lassen – Quantenmechanik und Relativitätstheorie. Aber vorstellen, was die Modelle beschrei- ben, können wir uns in unseren irdischen Köpfen nicht.


Dass Quantenmechanik und Relativitätstheorie einander streng genommen ausschließen, ist beruhigend für die Vernunft. Es bestätigt, dass wir mit unseren irdischen Vermögen getan haben, was wir konnten. Wo wir mit unserer Vorstellung nicht mehr hinlangen können, nach ganz weit oben und ganz weit unten, haben wir uns mit Begriffen ausgeholfen, die wir aus logischen Prämissen unsern Erkenntniszwecken gemäß konstruieren konnten. Dass dies oben und unten jeweils ganz andere Begriffe sein würden, war angesichts dieser Vorgehens- weise zu erwarten. Ließen sich für beide Bereiche dieselben Begriffe finden, sollte uns das Blut in den Adern gefrieren: Wenn oben und unten dieselben Begriffe gälten, müssten sie dazwischen, in unserer mittleren Erfah- rungswelt, ebenso gelten; ein einziges Naturgesetz von Anfang bis Ende. 

Und kein Gesetz ohne einen Gesetzgeber.
__________________________________________________________
*) Die Labore der Wissenschaftler liegen auch in diesem Zwischenreich.

27. August 2013
 
   
 
 

Das Naturgesetz und die Schöpfung.

rundumkiel.de  / pixelio.de

Der Gegenstand der Naturwissenschaft ist dadurch definiert, dass der Natur ein Gesetz zugeschrieben wird: Was durch ein Gesetz bestimmt/geregelt ist, will ich als 'die Natur' auffassen; bzw. Naturwis- senschaft ist Suchen nach Gesetzmäßigkeiten.


Impliziert: Das Gesetz lässt sich von den realen Vorgängen selber unterscheiden und so darstellen, als ob es 'an sich selber' gälte. Dann kann es auch so gedacht werden, als ob es 'vor' den Vorgängen 'da war'. Dann muss man sich zum Gesetz einen Gesetzgeber vorstellen – oder das Gesetz als ein Sub- jekt, das 'sich selber setzt'; was auf dasselbe hinausläuft:  "Schöpfung", intelligent design.

Man gerät logisch zur Annahme von einem Schöpfer; was die Vorstellung von einer Schöpfung und einem Gesetz suggeriert. Notwendig aber ist keins von beiden. Es fragt sich nur: "Warum sollte der Schöpfer sich die Mühe gemacht haben…?" Allerdings ist die Frage nach einer Ursache der Schöpf- ung logisch ebenso ungehörig wie theo logisch.
5. 1. 13
 
 
 

Am Ende der Naturgesetze?



aus nzz.ch, 2.10.2014, 05:30 Uhr

Vom Gleichungs- zum Algorithmus-Paradigma
Eduard Kaeser ⋅ Seit Galileis mathematischem Modell der Bewegung feiern die exakten Wissenschaften ihre grössten Triumphe in Gestalt von Gleichungen: Newtons Prinzipien, Maxwells Gleichungssystem, Einsteins berühmte Formel E = mc2, die Schrödingergleichung, ja, auch Heisenbergs Unschärferelation, die eigentlich eine Ungleichung ist. Physikalische Gesetze sind meist in Differenzialgleichungen gegossen. Und ein Phänomen physikalisch zu erklären, bedeutet, eine solche Gleichung zu lösen.

Ein neuer Typus von Physik

Dieses Bild ist freilich höchst unzutreffend. Dass die «analoge» Physik mit ihren Gleichungen und Funktionen der Vertracktheit der Realität nicht gewachsen ist, dämmerte den Wissenschaftern definitiv unter den dramatischen Bedingungen des 2. Weltkriegs. Für den Bau der Atombombe mussten kernphysikalische Gleichungen gelöst werden, die mit herkömmlichen Mitteln schwer zu bewältigen waren. Dazu eine Anekdote.

Stanislaw Ulam, der brillante polnische Mathematiker, der in Los Alamos am Manhattan Project arbeitete, erholte sich von einer Krankheit. Aus Langeweile heraus fragte er sich, ob man sich den Lösungen nicht auf dem Zufallsweg nähern könnte. Bekanntlich lässt sich die Zahl Pi dadurch approximativ berechnen, dass man Pfeile auf ein quadratisches Dartboard wirft, dem ein Kreis einbeschrieben ist. Man bringt einfach die Treffer innerhalb des Kreises ins Verhältnis zu den Treffern innerhalb des ganzen Quadrats. Mit zunehmender Wurfzahl lässt sich Pi immer exakter bestimmen. Warum dann nicht auch Lösungen von Gleichungen?

Ulam hatte damit den Keim der sogenannten Monte-Carlo-Methode entdeckt: Lösen durch Zählen von möglichst vielen Zufallsereignissen. Und da nichts geeigneter ist zum Zählen als Computer, musste man diese noch in den Kinderschuhen steckende Technologie weiterentwickeln. Das war die Geburtsstunde eines neuen Typus von Physik: der «digitalen» Physik. Und es war zugleich mehr: das Fanal eines neuen Paradigmas von Wissenschaft.

In den frühen 1980er Jahren machten die Physiker Stephen Wolfram, Brosl Hasslacher und andere eine äusserst kühne Voraussage: Wenn Speicher- und Rechenkapazität der Computer einmal gross genug sein würden, könnten sie jedes Phänomen eines komplexen Systems modellieren – und dies ohne Gleichungen. Stattdessen führten die Physiker kleine Rechenelemente – zelluläre Automaten – ein, die sich auf einem Spielfeld nach einfachen Regeln (nicht: physikalischen Gesetzen) bewegen lassen. Die allgemeine Idee dahinter: Man muss, um den Verlauf des Systems zu studieren, nicht Differenzialgleichungen lösen, sondern Simulationen laufen lassen.

So wird heute etwa in sogenannten agentenbasierten Simulationen die Verkehrsdynamik aus dem Verhalten der einzelnen Agenten – der Fahrzeuge – erzeugt. Dabei ist vieles, was auf Mikroebene vorgeht, nicht mehr transparent. Hauptsache, man gewinnt dadurch einen Überblick über die Makroebene des Verkehrsflusses und seiner emergenten Eigenschaften, etwa über Staus oder Stop-and-go-Wellen. Schauen, was geschieht, nicht erklären, heisst die Devise.

Zwei Kulturen

Deshalb wird das Datensammeln zunehmend wichtiger. Auch hier erwächst dem Gleichungs-Paradigma die Konkurrenz durch Algorithmen. Man beobachtet dies deutlich in der Kerndisziplin von Big Data, der Statistik. Ein führender Vertreter – Leo Breiman – sprach 2001 von «zwei Kulturen» im statistischen Modellieren von Daten. Die eine Kultur geht – kurz gesagt – mit einem bestimmten Modell an die Daten heran; die andere lässt sich von den Daten selbst ein Modell liefern. Schulbeispiel für die erste Kultur ist die sogenannte lineare Regression. Sie erlaubt uns, die Korrelation zweier Datenmengen – zum Beispiel der Geburtenzahl einer Gegend und der Storchenpopulation – auf eine Geradengleichung zu reduzieren. Natürlich zwingen wir dem Datenmaterial quasi einen linearen Zusammenhang auf, indem wir zum Beispiel Ausreisser nicht berücksichtigen. Und falls die Daten sich einem linearen Modell widersetzen, geben wir es auf und bauen ein komplizierteres mit mehr Parametern.

Allerdings werden mit zunehmender Datenmenge die Zusammenhänge uneindeutiger. Die Statistiker sprechen von der «Messiness» der Datensätze. Sie entwickeln deshalb Algorithmen, die selbständig lernen, aus einer unklassifizierten – «messy» – Datenmenge Zusammenhänge herauszufiltern. Bei diesem Vorgehen setzt man einen bestimmten Algorithmus auf eine Menge von Trainingsdaten an, aus der er selber die nötigen Parameter entnimmt, sie auf weitere Test-Datenmengen anwendet und sich dabei auch selbst korrigiert. Auf diese Weise bringt sich der Algorithmus quasi bei, gewisse Muster in den Daten eines Systems zu erkennen. Er benötigt dazu keine Modell- oder Gesetzesvorgaben.

Dabei erweist es sich bei komplexen Phänomenen als zunehmend schwieriger, klar zwischen einem Zusammenhang «in der Sache» und einem Zusammenhang «in den Zahlen» zu unterscheiden. Oder vielmehr ergibt sich heute bei komplexen Phänomenen – sprich: Datenmassiven – eine Gewichtsverlagerung im Erkenntnisinteresse: von der Kausal- zur Datenanalyse. Man begnügt sich damit, herauszufinden, wie die Dinge zusammenhängen, ohne sich zu fragen, warum sie so zusammenhängen.

Die Kunst des Fragens

Befürworter des Algorithmen-Paradigmas – wie etwa Viktor Mayer-Schönberger – versprechen sich vom Sammeln und Analysieren der Datenfülle auch neue Fragestellungen, die wir vor Beginn der Datenanalyse noch gar nicht kannten. Das mag sein. Aber vielleicht sollte man sich daran erinnern, dass Fragen nicht Daten entspringen, sondern unserer Neugier. Wissenschaft ist die Kunst des Fragens. Und diese Kunst kann durch ein Paradigma auch reguliert werden. Paradigma – vergessen wir es nicht – bedeutet Normalisierung oder Disziplinierung der Fragestellungen und -beantwortungen. Dominanz des Algorithmus-Paradigmas könnte dann lauten: alle Probleme algorithmisch lösen und Probleme zu algorithmisch lösbaren machen, die es nicht sind. Probleme aber, die nicht auf diese Weise lösbar sind, marginalisiert oder verdrängt man einfach.

Sind also Gleichungen, ist die ganze schöne Theorienarchitektur der herkömmlichen wissenschaftlichen Disziplinen nurmehr Forschungsluxus? Im Gegenteil. Heute erweist sich ein Blick als umso nötiger, der im Wandel der Forschungsmentalität die Hilfsmittel austariert; will heissen: genau analysiert, worin die Stärken des Algorithmus und worin die Stärken der Theorie – letztlich also des menschlichen Ingeniums – liegen. Das Gebot der Stunde wäre, neben den daten- und rechenintensiven «Flaggschiffen» der Forschung eine ebenso reflexionsintensive Computer-Erkenntnistheorie – eine Kritik der automatisierten Vernunft – zu fördern. Denn die neuen Werkzeuge einer Erkenntnis «ex datis» wachsen uns über den Kopf und werden in dem Masse undurchsichtig, in dem sie mächtig werden. Das könnte sich zu einer echten Zwickmühle auswachsen. Und die Computer werden kein Interesse haben, uns daraus zu befreien.


Nota.

Das ist eine der in wissenschaftstheoretischer Hinsicht bemerkenswertesten Entwicklungen der letzten Jahrhzehnte! Die Grundlegung der modernen Naturwissenschafte geschah mit Galileos Umdeutung der Plato'schen Ideen zu sogenannten Naturgesetzen - und die stellte er sich als Gleichungen vor. Der epochale Gedanke, "das Buch der Natur ist in der Sprache der Mathematik geschrieben", ist anders nicht denkbar. 

Die Algoritmisierung der Wissenschaft macht Angst wegen ihrer Fetischisierung der bloßen Daten. Aber es wäre eine Revolution der abendländischen Mentalität und eine wahre Verwissenschaftlichung des Alltags- denkens, wenn die Vorstellung Raum griffe, dass ein Fakt eben nicht mehr als ein Fakt ist und keine Gesetze in seinem Herzen trägt, die ein Gesetzgeber ihm dort eingepflanzt hätte.

Das transzendentale Denken könnte Gemeingut werden.
JE




Wird's doch noch was mit der Weltformel?

 aus derStandard.at, 14. Mai 2017, 11:00

Experiment am Übergang zwischen Quantenphysik und Relativitätstheorie
Österreichische Forscher testeten das Phänomen der Verschränkung unter anderem mit einer Zentrifuge

Wien – Die Quantenphysik und die Relativitätstheorie sind wohl die zwei wichtigsten Säulen der modernen Physik. Sie basieren aber auf Konzepten, die nicht unterschiedlicher sein könnten. Angestrebt wird, in einer zukünftigen Theorie alle physikalischen Vorgänge auf ein Grundprinzip zurückzuführen und auch diese beiden Theorien mit einzuschließen.


Bisher verlief die Suche nach einer solchen Theorie, die alle Kräfte im Universum beschreibt und deshalb auch als "Weltformel" oder "Theorie von Allem" bezeichnet wird, allerdings ergebnislos – auch weil es bisher an Experimenten am Übergang zwischen Quantenphysik und die Relativitätstheorie mangelte.

"Es ist das erste Experiment, das es in diese Richtung gibt"

Genau solche Versuche haben Physiker des Instituts für Quantenoptik und Quanteninformation (IQOQI) der Österreichischen Akademie der Wissenschaften (ÖAW) sowie den Universitäten Wien und Queensland (Australien) durchgeführt. Sie haben untersucht, ob das quantenphysikalische Phänomen der Verschrän- kung auch im freien Fall und bei hohen Beschleunigungen – und damit bei relativistisch relevanten Bedin- gungen – bestehen bleibt. "Es ist das erste Experiment, das es in diese Richtung gibt", erklärte Rupert Ursin, Forschungsgruppenleiter am IQOQI.

Verschränkung nennt sich in der Quantenphysik ein Zustand von zwei Teilchen, die über beliebig große Distanzen miteinander verbunden bleiben. Sind etwa Photonen verschränkt, dann bewirkt die Messung des Zustandes eines der beiden Teilchen, dass das andere augenblicklich genau den gleichen Zustand einnimmt – wie zwei Würfel, bei denen zum Messzeitpunkt der eine automatisch die gleiche zufällige Augenzahl anzeigt wie der andere.

Die Box, die Matratze und der Fall

Das Phänomen wird von Physikern beispielsweise für verschiedene Quantenkommunikations-Experimente genutzt. Weil sie die Technologie dafür mittlerweile sehr gut beherrschen, konnten die Physiker der öster- reichisch-australischen Kooperation ein Verschränkungs-Experiment sehr kompakt und robust bauen. Die Quelle für verschränkte Photonenpaare, die notwendigen Detektoren, Batterie, Computer, etc. passt in eine Box von der Größe zweier Bierkisten.

Diese Box ließen Ursins Doktorand Matthias Fink und Kollegen am Institut für Leichtbau und Kunststoff- technik der Technischen Universität Dresden im freien Fall aus zwölf Meter Höhe auf Matratzen fallen. "Wir konnten den Versuch ohne Probleme zehn Mal wiederholen, was uns genug statistische Daten für die Publikation lieferte", zeigte sich Fink über die Robustheit der Technologie begeistert. Die Studie erschien in "Nature Communications".

Test in der Zentrifuge

Zudem setzten sie die Box in einer großen Materialzentrifuge in Ranshofen, in der üblicherweise Flugzeug- bauteile getestet werden, der 30-fachen Erdbeschleunigung aus. Während des freien Falls und während der Zentrifugalbeschleunigung wurde laufend die Güte der Verschränkung gemessen und per W-LAN übertra- gen.

Im stationären Betrieb im Labor sind bei einem solchen Versuch von 1.000 verschränkten Photonenpaaren zehn bis zwanzig nicht verschränkt. "Genau diese Güte sehen wir auch in beiden Beschleunigungsexperi- menten", sagte Ursin. Das heißt, dass unter den untersuchten Bedingungen die Güte der Verschränkung nicht eingeschränkt ist. Die Obergrenze des Einflusses von relativistisch relevanten Beschleunigungen liegt somit bei der 30-fachen Erdbeschleunigung.

Die Wissenschafter wollen nun den Aufbau der Experimente-Box noch wesentlich stabiler machen, damit sie weit höheren Belastungen standhält. Ursin nennt etwa Möglichkeiten mit speziellen Zentrifugen, mit denen man eine millionenfache Erdbeschleunigung erzeugen kann. Selbst bei einer solchen Beschleuni- gung ist es nicht sicher, ob man Auswirkungen auf die Verschränkung sehen würde, "aber irgendwann versagen die beiden Theorien bei der Beschreibung von Phänomenen vollständig, spätestens am Level des Planck'schen Wirkungsquantum", so Ursin. Um dorthin zu gelangen, würde man allerdings gigantische Teilchenbeschleuniger benötigen. (APA, red.)

Link
Nature Communications: "Experimental test of photonic entanglement in accelerated reference frames"



Nota. - Lieber Leser, zu gern würde ich das kommentieren können. Doch leider verstehe ich nicht genug davon, um auch nur zu erkennen, was dieses Experiment über eine mögliche Beziehung von Quantenphysik und Relativitätstheorie aussagt. Wenn Sie in der glücklichen Lage sind, mir und den andern Lesern mit ein paar erläuternden Sätzen behilflich zu sein, möchte ich Sie herzlich darum bitten!
JE
 
 

Abschied von der Weltformel.


aus beta.nzz.ch, 25.6.2015, 05:30 Uh

Abschied von der Weltformel
Auch die Naturgesetze sind vergänglich

von Eduard Kaeser

Zu den spektakulärsten Entdeckungen der Physik gehören oft unvorhergesehene Konsequenzen aus Theorien. Die allgemeine Relativitätstheorie hat eine solche Konsequenz: die Geschichtlichkeit des Universums. Es entsteht und vergeht. Und eine weitere Konsequenz wäre: Kann man dies dann nicht auch von den Naturgesetzen sagen? Die Frage tönt in vielen Physikerohren geradezu ketzerisch. «Der bestirnte Himmel» gilt seit Kant als Emblem der zeitlosen Naturgesetzmässigkeit. Der Kulminationspunkt dieser Idee ist die allumfassende Weltformel, die Physiker von Einstein bis Hawking und Weinberg in ihren Bann geschlagen hat.

Warum so und nicht anders?

Bis vor kurzem war auch Lee Smolin, der Querdenker vom Perimeter Institute in Waterloo, Kanada, dieser Idee verfallen. Nun aber widersetzt er sich ihr, zusammen mit dem brasilianischen Philosophen Roberto Mangabeira Unger von der Harvard Law School. Die beiden haben ein dickes Buch publiziert mit dem Titel «The Singular Universe and the Reality of Time». Darin gehen sie vom «interessantesten Merkmal der natürlichen Welt» aus, nämlich der Tatsache, «dass sie das ist, was sie ist, und nicht etwas anderes».

 
So trivial das klingt, so brisant ist die These in Fachkreisen. Sie attackiert frontal die Stringtheorie, deren Pluralität der Paralleluniversen unser Universum als einen blossen Zufall erachtet. Die Singularitätsthese taucht aber tiefer, quasi zur Quelle des kosmischen Zeitflusses. Warum gibt es ihn überhaupt? Gemäss der klassischen Vorstellung gehören Zeit und Raum eigentlich gar nicht zur Physik, sie bilden vielmehr den «ewigen» Rahmen, in dem sich das Naturgeschehen abspielt. Eine metaphysische Idee. Einsteins grösste Leistung in der allgemeinen Relativitätstheorie bestand darin, dass er diese Metaphysik in Physik verwandelte, Raum und Zeit zum dynamischen physikalischen Feld einer Raumzeit verschmolz. Auch diese Raumzeit unterliegt aber immer noch unveränderlichen Gesetzen – den Einstein-Gleichungen –, die bestimmen, wie die Materie die Raumzeit formt. Was aber, wenn sich diese Gesetze selbst auch veränderten?

Das Jetzt bestimmt das Morgen

Die naturphilosophische Baustelle, die mit dieser Frage aufgerissen wird, ist von kaum erahnbarem Ausmass. Ich beschränke mich hier auf das Konzept des Naturgesetzes. Zu Newtons Zeiten sahen die Naturphilosophen im Universum ein gigantisches Uhrwerk, mit Gott als dem primordialen Uhrmacher. Heute würde man profaner die Metapher des Computers wählen, mit den Gesetzen der Physik als Programm. Gibt man dem kosmischen Computer den gegenwärtigen Zustand der Welt (was das auch genau bedeutet) als Input ein, so berechnet er in einer angemessenen Laufzeit den Zustand der Welt zu einem beliebigen späteren Zeitpunkt. Diese Ambition kommt im berühmten Dämon zum Ausdruck, den der Mathematiker Pierre-Simon de Laplace im 18. Jahrhundert ersann: ein Dämon mit der Gabe, aus dem jetzigen Weltzustand den künftigen berechnen zu können.

Nun ist es genau diese «dämonische» Vorstellung des Determinismus, welche dem Naturgeschehen die Zeit austreibt. Denn was, wenn nicht das Disruptive, Neue, Überraschende, führt uns das Walten der Zeit konkret und unabweisbar vor Augen. Für einen Laplaceschen Dämon wäre buchstäblich nichts neu, blasiert würde er das Weltgeschehen immer wieder glossieren: Aber das war doch vorauszusehen.

Dieses Ideal – das Newtonsche Paradigma nennt es Smolin – dominierte die klassische Physik. Die Quantentheorie hat es verabschiedet. Aber den eigentlichen Gnadenstoss erteilt ihm die Kosmologie. Denn wie Smolin schreibt, «gerät das Problem des Determinismus mit der Tatsache in Konflikt, dass die Methode der Physik (. . .) auf kleine Teilsysteme des Universums anwendbar ist. Bevor wir die Frage beantworten können, ob zufällige Ereignisse in unserem Leben vollständig durch vorhergehende Bedingungen determiniert seien, müssen wir wissen, ob unsere Theorien massstabgerecht auf das Universum erweitert werden können.» Und daran besteht grosser Zweifel.

Die Welt als Störfaktor

Man kann diesen Zweifel am Beispiel eines Schulexperiments plausibel machen. Wir lassen eine Kugel die schiefe Rinne hinunterrollen. Wir sagen: Die Kugel «gehorcht» den Newtonschen Gesetzen der Natur. So weit, so lehrbuchmässig. Aber wir haben uns insgeheim eines Tricks bedient: Wir definieren die relevanten Parameter (Neigung der Rinne, Reibung, Trägheitsmoment der Kugel usw.) und legen die Anfangsbedingungen fest. Den Rest der Welt schliessen wir als «Störfaktor» aus. Oder umgekehrt gesagt: Gerade dadurch können wir den Versuch wie von aussen betrachten. Würden wir ihn nicht isoliert durchführen, würden wir feststellen, dass die Newtonschen Gesetze gar nicht exakt, sondern nur approximativ auf die Phänomene zutreffen, weil sie von einer nicht zu überblickenden Zahl von zufälligen Randbedingungen abhängen.

Smolin hat dies einmal in die These gefasst: Es gibt nichts ausserhalb des Universums. Das heisst aber im Extremfall, dass jedes Objekt im Universum nur relativ zu allen andern Objekten definierbar ist. Man könnte sich also den spekulativen Fall ausmalen, dass wir in unserem Versuch alle nur erdenklichen Welteinflüsse berücksichtigen würden. In einem solchen Fall wäre das Experiment buchstäblich historisch: nicht zu wiederholen. Und wir kämen wohl nicht auf die Idee, dass in der Natur einfache Gesetze «herrschen».

Das klassische Experiment eliminiert die Zeit, indem es die Phänomene kopierbar macht. Es beruht auf der Idee, dass wir die Versuche beliebig (unter variablen Bedingungen) wiederholen können. Das Universum aber ist ein einziger Versuch. Und dieser Versuch ist nicht reversibel. Deshalb besteht der grosse, der «kosmologische Fehlschluss» (Smolin) darin, das ganze Universum quasi unter das Protektorat einer Physik seiner Subsysteme zu bringen.

Reale Zeit manifestiert sich im Entstehen und Vergehen, also in einer zeitlichen Asymmetrie. Wir stellen Zeitpfeile überall fest. Es gibt den kosmischen Zeitpfeil: das Universum expandiert; den thermodynamischen Zeitpfeil: die Entropie geschlossener Systeme nimmt zu; den biologischen Zeitpfeil: Lebewesen werden geboren und sterben; den psychologischen Zeitpfeil: wer hat nicht schon das Gefühl des Vorbei gehabt. Zeit bringt Asymmetrie in die Welt, oder vielmehr: Diese Asymmetrie ist die Zeit, das ungelöste Rätsel der Physik, des Lebens überhaupt. Sie weckt in uns unter anderem die Idee der Kausalität. Es gibt ein Vorher der Ursache und ein Nachher der Wirkung.

Die Physik bringt kausale Zusammenhänge in die Form von Gesetzen, ausgedrückt in mathematischen Gleichungen. Aber hier tut sich ein – buchstäblich universeller – Widerspruch auf: Diese Gleichungen gelten – fast ausnahmslos – auch unter Zeitumkehr, die Geschichte des Universums kennt freilich keine Zeitumkehr (der Widerspruch ist seit dem 19. Jahrhundert als Umkehreinwand bekannt).

Aus diesem Grund betrachten Unger und Smolin die Gesetze sozusagen als Derivate der asymmetrischen kosmischen Entwicklung. Das Universum geschieht – es kennt nur Präzedenzien, keine unveränderlichen Gesetze. Gewiss, die Natur wiederholt sich oft, und die Regularitäten, die wir dabei entdecken, gestatten uns recht und schlecht, das Geschehen zu erklären. Genauer betrachtet, ist die Stabilität der Naturgesetze etwas Rätselhaftes, die grössten Physiker des letzten Jahrhunderts haben sie schlichtweg als Wunder bezeichnet.

Folge von Notwendigkeiten

Ist eine Physik mit vergänglichen Gesetzen überhaupt denkbar? Unger und Smolin sind sich dieses Einwands bewusst: «Wenn sich die Naturgesetze ändern, wie können wir dann hoffen, Forschung auf einer sicheren Basis zu betreiben?» Die Antwort: Man muss Zeithierarchien unterscheiden. Die Gesetze verändern sich ja nicht von heute auf morgen. In einem gereiften und ausgekühlten Universum wie dem heutigen können sie als nahezu unveränderlich betrachtet werden. Nahezu, wohlgemerkt – im Grunde regiert im singulären Kosmos die Zeit im Sinne unaufhörlicher Veränderung.

Hier fällt ein wiederkehrendes Muster in der Erklärungsstrategie der Physik auf. Die hinunterrollende Kugel «gehorcht» der Notwendigkeit der Newtonschen Gesetze; die Newtonschen Gesetze aber bringen eine «singuläre» Grösse ins Spiel, die Gravitationskonstante. Warum hat sie gerade den Wert, den sie hat? Die Singularität muss erneut erklärt werden durch neue Gesetze. Diese neuen Gesetze bringen wiederum Zufälliges ins Spiel, und so fort bis zum letzten «factum brutum»: dem Universum, das ist, was es ist.

Die Geschichte des Wissens über das Universum liesse sich als eine alternierende Folge von solchen Notwendigkeiten und Zufällen schreiben – eine «kosmologische natürliche Auswahl», wie Smolin sie nennt. Was das sein soll, bleibt freilich unklar. Eine Extrapolation des Darwinschen Paradigmas auf das Universum? Spielt sich eine solche Evolution völlig gesetzlos ab, oder ist sie nun wiederum bestimmt von Metagesetzen, die Unger und Smolin an einer Stelle als heiligen Gral der Kosmologie bezeichnen?

Wie auch immer, was uns geliefert wird, ist keine Theorie, sondern die Agenda für eine künftige Theorie: eine «Wiedererfindung der Naturphilosophie» (Unger). Ob sie dazu führen wird, das Buch der Natur neu zu schreiben, liegt in spekulativem Dämmer. Und wenn sie die Idee der Weltformel verabschiedet, warum sollte dann die Idee der Weltevolution vor einem solchen Akt verschont bleiben – könnte nicht auch sie sich als zeitlich im trivialen Sinne herausstellen: als vergänglicher Ehrgeiz von kosmologischen Gralssuchern?  
 
 
 
 

Keine Kommentare:

Kommentar veröffentlichen