Mittwoch, 5. Juni 2019

Vereinheitlichung physikalischer Theorien.

 
aus spektrum.de, 2. Juni 2019

Vereinheitlichung von Theorien

Von Josef Honerkamp

Liebe Leserinnen und Leser meines Blogs, dies ist der letzte Beitrag in der Serie von Posts, die ich in den letzten 20 Wochen hier jeweils am Wochenende eingestellt habe. Jetzt muss ich erst einmal eine Pause machen, um dann diese Texte im Hinblick auf ein Buch zu überarbeiten und gegebenenfalls zu ergänzen. Viel muss dafür noch getan werden. Ich bin gespannt, wohin mich das noch führen wird.
—————————————————————————————————————

Nach der Übersicht über die Theorien für fundamentale Wechselwirkungen und einem Bericht darüber, wie dort jeweils die Axiome gefunden worden sind, soll jetzt dargelegt werden, wie man die Realisierung der Idee einer vereinheitlichten Theorie aller fundamentalen Kräfte bzw. Wechselwirkungen im Laufe der Zeit vorangetrieben hat und wie weit man inzwischen dabei gekommen ist.

Im vorletzten Blog habe ich den Raum der Phänomene eingeführt. Ein anderer nützlicher Begriff in diesem Zusammenhang ist der „Gültigkeitsbereich“ einer Theorie. Dieser umfasst alle Phänomene, die im Rahmen der Theorie erklärt werden können. Aussagen über ein Phänomen eines Gültigkeitsbereichs können dann, bei Berücksichtigung aller gegebenen Umstände, aus den Axiomen mit Hilfe mathematischer Methoden abgeleitet werden und stimmen im Rahmen der Messunsicherheiten mit den experimentellen Ergebnissen bzw. Beobachtungen überein.

Der Gültigkeitsbereich und mögliche Erweiterungen

So umfasst der Gültigkeitsbereich der Newtonschen Mechanik alle Bewegungen materieller Körper am Himmel und auf der Erde. So dachte man wenigstens, bevor Albert Einstein die Spezielle Relativitätstheorie entwickelte. Heute haben wir mit dieser Relativitätstheorie eine neue Theorie, die auch für all diese Bewegungen zuständig sein soll, dabei aber einen viel größeren Gültigkeitsbereich als die Newtonsche Mechanik besitzt. Dieser erwies sich nämlich auf Phänomene beschränkt, in denen nur Geschwindigkeiten auftreten, die vernachlässigbar gegenüber der Lichtgeschwindigkeit sind.

Mit der speziellen Relativitätstheorie haben wir den Fall einer neuen Theorie vor uns, mit der eine bestehende Theorie „erweitert“ wird, d.h. mit der ihr Gültigkeitsbereich erweitert wird. Für kleine Geschwindigkeiten stimmen beide Theorien überein, Je größer die Geschwindigkeit wird, umso größer wird auch der Unterschied, umso mehr kommen auch Eigenschaften von Raum und Zeit zum Vorschein, die in der Relativitätstheorie richtig beschrieben werden, in der Newtonschen Theorie aber gar nicht thematisiert werden konnten, weil entsprechende Phänomene bei ihrer Entwicklung gar nicht bekannt sein konnten.

Deshalb ist die Newtonsche Theorie nicht als falsch zu bezeichnen und die spezielle Relativitätstheorie dagegen als wahr. „Falsch“ und „wahr“ sind für Aussagen angemessene Kategorien, aber nicht für Theorien. Man kann nur von deren Gültigkeitsbereich reden, für die Phänomene in diesem Bereich gibt es dann wahre Aussagen. Eine ernst zu nehmende Theorie hat einen respektablen Gültigkeitsbereich, aber auch der kann immer noch erweitert werden, wie man an diesem Beispiel sieht. Vielleicht ist ja auch die spezielle Relativitätstheorie noch nicht das Ende der Fahnenstange.

Der Begriff des Gültigkeitsbereichs ist auch hilfreich, wenn man verstehen will, was sich an bestimmten Wendepunkten der Physik ereignet hat, z.B. bei der Entdeckung der Quantenhaftigkeit der Natur zu Beginn des letzten Jahrhunderts. Zwei beeindruckende Phänomene haben damals die Physiker beschäftigt. Die besten Physiker, Max Planck und Albert Einstein, haben dafür jeweils eine Erklärung geben können und dabei die ersten Schritte in eine Quantenphysik getan. Beide Phänomene waren im Rahmen der Elektrodynamik nicht mehr zu verstehen, sie lagen schon außerhalb der Grenzen ihres Gültigkeitsbereichs.

Es war einerseits die sogenannte Hohlraumstrahlung, das ist die elektromagnetische Strahlung, die von einer kleinen Öffnung eines Hohlraums ausgeht. Diese Strahlung kann präzise vermessen werden und man stellt fest, dass ihre Intensität eine Funktion allein von der Temperatur der inneren Wände des Hohlraums und ihrer Frequenz ist. Damit treten nur fundamentale Konstanten in dieser Funktion auf. Max Planck konnte diese im Jahr 1900 erklären, wenn man die Energie pro Frequenzintervall, die von den Wänden in den Hohlraum abgestrahlt wird und dann durch die Öffnung austritt, “als zusammengesetzt aus einer ganz bestimmten Anzahl endlicher gleicher Teile” betrachtet.

Andererseits waren es die experimentellen Ergebnisse beim Photoeffekt, die Albert Einstein erklären konnte, und zwar unter einer ähnlichen Annahme, dass bei diesen Experiment das Licht als ein Strom von “lokalisierten Energiequanten, welche nur als Ganze absorbiert und erzeugt werden können” (Einstein, 1905) angesehen werden muss.

Das waren zwei ganz bedeutende Hinweise auf die Notwendigkeit einer Theorie „hinter“ der Elektrodynamik, die dann in der Tat auch als eine Quantenelektrodynamik entwickelt wurde. Die Elektrodynamik blieb in ihrem Gültigkeitsbereich unangetastet, wurde aber als eine “Quantenelektrodynamik für das Grobe” erkannt, wobei das “Grobe” für Situationen steht, in der nur das Verhalten einer sehr großen Anzahl von Lichtquanten interessiert. So können wir auch von einer Erweiterung der Elektrodynamik sprechen. In (Honerkamp, 2010) habe ich dieses ausgeführt.

Verschmelzung von Gültigkeitsbereichen

Solche Erweiterungen vergrößern das Portfolio der Physik an Theorien.  Das große Thema der Physik, das wir auch in diesem Buch verfolgen, war aber dagegen die Idee einer einheitlichen Theorie. So suchte man stets danach, ob man die Gültigkeitsbereiche zweier Theorien „unter einen Hut“ bringen konnte, sodass also die Gültigkeitsbereiche zweier Theorien zu einem einzigen Bereich verschmelzen und eine einzige Theorie ist für diesen zuständig wird. Normalerweise sind dann die Begriffe und Aussagen beider ursprünglichen Theorien in der vereinheitlichen Theorie als Spezialfälle oder Näherungen enthalten.

Wir werden sehen, dass das in der Neuzeit auch immer der Fall gewesen ist. Nur beim Übergang von der Aristotelischen Bewegungstheorie zur Newtonschen Theorie war es anders. Aristoteles unterschied ja, wie schon früher ausgeführt, mehrere Typen von Bewegungen, und für jeden Typ hatte er eine eigene Erklärung. Es gab also mehrere Theorien mit ihren eigenen Gültigkeitsbereichen. In der Newtonschen Theorie gibt es nun im 2. Newtonschen Axiom eine einzige Vorschrift für die Aufstellung einer Gleichung für fast alle aristotelischen Typen von Bewegungen, also z.B. für die „erzwungene“ wie für die „natürliche“, ob nach oben oder nach unten gerichtet. Hier werden also mehrere althergebrachte Theorien vollständig durch eine einzige neue Theorie ersetzt.

Von Elektrizität und Magnetismus zum Elektromagnetismus

Eine erste Verschmelzung der Gültigkeitsbereiche zweier Theorien kann man in der Mitte des 19. Jahrhunderts bei der Entwicklung der Elektrodynamik beobachten. Elektrizität und Magnetismus erschienen zunächst völlig unabhängige Phänomene zu sein. So gab es, wie in früheren Kapiteln schon erwähnt, eine Theorie für die elektrischen und eine für die magnetischen Phänomene, und beide waren ganz nach dem Newtonschen Vorbild, also ausgehend von bestimmten Axiomen, aufgebaut.

Der dänische Physiker Hans Christian Ørsted hatte sich in den 20er Jahren des 19. Jahrhunderts aber auf die Suche nach einer Beziehung zwischen elektrischen und magnetischen Phänomenen gemacht. Er war die Zeit der Romantik, und er war auch von der Idee einer Einheit der Natur „infiziert“ worden. Im Jahre 1831 hat er tatsächlich entdeckt, dass ein elektrischer Strom ein Magnetfeld erzeugt. Weitere Entdeckungen solcher Beziehungen folgten. Der schottische Physiker James Clerk Maxwell konnte schließlich in den 60er Jahren des 19. Jahrhunderts einen Satz von Gleichungen für elektrische und magnetische Felder aufstellen, die die Rolle von Axiomen übernehmen konnten. Man sprach fortan von „elektromagnetischen“ Feldern.

Als das Licht als elektromagnetische Welle erkannt werden konnte, wurde dann noch die Optik vereinnahmt. Auch das kann man als eine Verschmelzung von Gültigkeitsbereichen bzw. Verschmelzung von Theorien sehen.

Elektromagnetismus und Gravitation?

Die Allgemeine Relativitätstheorie, die Albert Einstein im Jahre 1915 nach 10 Jahren intensivster Arbeit vorstellte, war wie die Elektrodynamik eine Feldtheorie. Während das elektromagnetische Feld aus sechs Komponenten bestand, enthielt das Gravitationsfeld zehn Komponenten. In beiden Fällen konnten diese aber als Elemente eines Tensors angesehen werden und ebenso ließ sich jeweils aus den Axiomen, den Grundgleichungen, ableiten, dass es Wellen geben müsse.

Solche elektromagnetischen Wellen waren von Heinrich Hertz entdeckt worden.  Man hat damit dem Feld eine reale physikalische Existenz zubilligen müssen. So war man nach 1915 überzeugt, dass es auch Gravitationswellen geben muss. Man glaubte allerdings zunächst, dass diese viel zu schwach sind, als dass man sie jemals entdecken könnte. Aber etwa 100 Jahre später, im Jahre 2016, hat man solche zum ersten Male direkt nachweisen können.

Albert Einstein wurde für das Jahr 1921 der Nobelpreis verliehen. Aber erst im Jahre 1923 konnte er den Nobelvortrag halten. In diesem sagte er: „Der nach Einheitlichkeit der Theorie strebende Geist kann sich nicht damit zufriedengeben, dass zwei ihrem Wesen nach ganz unabhängige Felder existieren sollen.“ Damals arbeitete Einstein schon an einer Vereinheitlichung der Theorien des Elektromagnetismus und der Gravitation. Er soll bis zu seinem Tode im Jahre 1955 an dieser Idee festgehalten und immer wieder mit neuen Ansätzen hart an ihr gearbeitet haben (Fölsing, 1993, p. 627ff) Es wäre eine einheitliche Theorie für alle Phänomene der Welt der mittleren und größten Dimensionen geworden. Aber es ließ sich keine mathematische Struktur finden, in der beide Felder einen Platz hatten und in der ihre physikalischen Beziehungen aufrechterhalten werden konnten.

Einstein war nicht der Einzige, der eine Vereinheitlichung suchte. Auch andere sehr respektable theoretische Physiker waren von der Idee eines einheitlichen physikalischen Weltbildes beseelt. Gustav Mie, Hermann Weyl, Theodor Kaluza und Arthur Eddington – alles Namen, die einem Physiker auch aus anderen Gründen etwas sagen. Sie alle legten entsprechende Arbeiten vor. Aber diese waren bei näherem Studium alle nicht überzeugend. Es fehlten jeweils Folgerungen aus den Axiomen, die physikalisch geprüft werden konnten; sie blieben „in der mathematischen Luft hängen“.

Einstein unterschied sich von diesen Kollegen darin, dass er sich zunächst nicht allein von einer „Schönheit und Eleganz“ mathematischer Strukturen leiten lassen wollte. „Ich glaube, man müsste, um wirklich vorwärts zu kommen, wieder ein allgemeines, der Natur abgelauschtes Prinzip finden“, so schrieb Einstein im Sommer 1922 in einem Brief an Hermann Weyl (nach (Fölsing, 1993, p. 635)). So hatte er es ja bei der Formulierung seiner beiden Relativitätstheorien getan: Die „Konstanz der Lichtgeschwindigkeit“ bzw. die „Gleichheit von schwerer und träger Masse“ waren die Phänomene, die er in der Tat der Natur damals „abgelauscht“ und dann an die Spitze der jeweiligen Theorie gestellt hatte. Für die Vereinheitlichung der beiden Feldtheorien ließ sich aber nichts von dieser Art finden, nicht irgendeine Parallele zum Induktionsgesetz der Elektrodynamik. Dazu müsste man ja eine Beziehung zwischen einem Gravitations- und einem elektromagnetischen Feld entdecken.

So klang es dann schon in seinem Nobelvortrag im Jahre 1923 anders: „Leider können wir uns bei dieser Bemühung nicht auf empirische Tatsachen stützen wie bei der Ableitung der Gravitation, sondern wir sind auf das Kriterium der mathematischen Einfachheit geschränkt, das von Willkür nicht frei ist.“

Als Einstein im Jahre 1955 starb, war die Quantenphysik längst etabliert.  Die elektromagnetische Wechselwirkung hatte als Quantenelektrodynamik innerhalb der Quantenphysik einen prominenten Platz gefunden und wurde auch Vorbild für weitere Theorien. Mit ihr konnte die Idee der Vereinheitlichung einen neuen Anlauf finden.

Vereinheitlichungen bei Quantentheorien

Mit der Entdeckung von Phänomenen in der Welt der kleinsten Dimensionen stellte sich das Problem der Vereinheitlichung ganz neu. Man erkannte, dass man bisher nur einen kleinen Teil des Raums der Phänomene kennen gelernt hatte. Für die theoretische Beschreibung der elektromagnetischen Phänomene musste man weit über die Quantenmechanik hinausgehen und erst den Begriff eines Quantenfeldes entwickeln. In einer Quantenelektrodynamik konnte man dann auch „Quanten“ einführen, Entitäten, die die Rolle von elementaren Teilchen einnehmen. Nun fanden die Lichtquanten, die Albert Einstein bei der Erklärung des Photoeffektes postuliert hatte, ihren Platz in einer Theorie.

Eine besondere Eigenschaft der klassischen Elektrodynamik, die man auch in der Quantenversion übernommen hatte, sollte nun eine Leitlinie für alle folgenden Quantenfeldtheorien werden. Die zwei beobachtbaren Felder, das elektrische und das magnetische Feld mit jeweils drei Komponenten, lassen sich nämlich durch ein einziges, so genanntes Eichfeld mit vier Komponenten ausdrücken. Dieses ist dann aber nicht eindeutig bestimmt, man kann es durch eine mathematische Operation in ein anderes Feld transformieren, ohne dass das elektrische und das magnetische Feld dadurch verändert wird. Die beobachtbaren Felder sind also invariant gegenüber der Transformation, und da Invarianzen in der Mathematik immer auch als Symmetrien darstellbar sind, spricht man auch von einer Eichsymmetrie und von einer Invarianz der physikalischen Felder unter Eichtransformationen.

In der klassischen Elektrodynamik musste man dieser Möglichkeit keine tiefere Bedeutung zumessen. In der Quantenelektrodynamik aber wurde dieses Eichfeld zu dem Feld des Photons, des Lichtquants also. Die Quantenelektrodynamik wurde damit zu einer „Eichfeldheorie“. Ein Unterschied zwischen einem Eichfeld, welches ein Photon repräsentiert, und einem Materiefeld, das für ein Elektron steht, wurde deutlich: Die elektromagnetische Wechselwirkung zwischen den Elektronen kann nun gesehen werden als vermittelt durch die Lichtquanten, in einfachster Form durch den Austausch eines Lichtquants. Eichfelder in einer Theorie beschreiben also die Wechselwirkung zwischen jenen massebehafteten Quanten, die durch Materiefelder dargestellt werden. Dieses Bild sollte zur Leitidee für die Konstruktion anderer Quantentheorie avancieren.

Die Theorie der elektroschwachen Wechselwirkung

Wie im vorletzten Kapitel schon erwähnt, führte die Aufklärung der Natur all der Strahlen, die man nach und nach um die Wende zum 20. Jahrhundert entdeckt hatte, zu der Vorstellung, dass es auf atomarer Längenskala zwei neue Typen von Wechselwirkungen geben muss, deren Wirkung aber nicht wesentlich über atomare Distanzen hinausreicht. Der Phänomenbereich der Zerfälle von Quanten in andere, leichtere sollte durch eine „schwache“ Kraft verursacht werden. Für ein anderes Phänomen musste dagegen eine „starke“ Kraft verantwortlich sein, nämlich dafür, dass ein Atomkern stabil sein kann, obwohl er doch aus vielen Protonen mit einer positiven elektrischen Ladung besteht, die sich einander ja alle abstoßen. Diese Kraft ist also so stark, dass sie die elektrische Abstoßung überkompensieren kann.

Die Geschichte der schwachen Wechselwirkung beginnt mit der Analyse der β-Strahlung (Wikipedia: Schwache Wechselwirkung). Man lernte, dass diese Strahlung aus Elektronen besteht, die offensichtlich aus der Umwandlung von den Bausteinen der Atomkerne stammen müssen. Der italienische Physiker Enrico Fermi formulierte 1934 eine erste Theorie für den Zerfall eines Neutrons. Die Theorie musste nach und nach neuen experimentellen Entdeckungen angepasst werden. Es blieb aber nach wie vor schwierig, aus den jeweiligen Axiomen überhaupt verlässliche Aussagen mathematisch abzuleiten.

Es war klar, dass man etwas „Besseres“ finden musste, und das Vorbild für dieses konnte nur die Quantenelektrodynamik sein. Dort gab es ja die Photonen, also Quanten, welche die Wechselwirkung zwischen den Materieteilchen, den Protagonisten wie Elektronen oder Protonen, vermittelten. Warum nicht auch solche Austausch-Quanten für die schwache Wechselwirkung einführen?  Und sogar: Warum nicht gleich nach einer einheitlichen Theorie für die elektromagnetische und schwache Wechselwirkung suchen, in denen es dann zusätzlich zum Photon auch noch weitere Austausch-Quanten gibt, welche die schwache Wechselwirkung vermitteln?

Man postulierte also die Existenz einer ganz neuen Sorte von Quanten, handelte sich damit aber nicht nur das Problem ein, dass man ihre Existenz dann ja auch irgendwann nachweisen müsste, sondern auch noch ein tiefliegendes theoretisches Problem: Die schwache Wechselwirkung ist kurzreichweitig. Es gibt aber einen klaren Zusammenhang zwischen der Reichweite der Wechselwirkung und der Masse des Quants, welches diese Kraft bzw. Wechselwirkung vermittelt: Je größer die Masse, umso kürzer die Reichweite. Das Photon z.B. besitzt keine Masse, die elektromagnetische Wechselwirkung ist entsprechend sehr langreichweitig. Ein Austauschteilchen einer kurzreichweitigen Kraft muss demnach aber eine Masse besitzen. Eine Theorie mit massebehafteten Austauschteilchen hat aber die gleichen theoretischen Schwierigkeiten wie die erste Theorie von Fermi: Man kann aus den Axiomen nichts seriös ableiten. Man schien sich im Kreis zu drehen.

Als Ausweg postulierte man die Existenz eines weiteren Teilchens. Das sieht für Außenstehende wie eine schlechte Ausrede aus, führte aber zum Erfolg und wurde auch nicht ganz gedankenlos vorgeschlagen. Es gab bedeutende Vorbilder in der Festkörpertheorie, dort kannte man die Einführung eines Terms in die Theorie, der für eine beobachtbare Größe zu einer Masse führt, als Higgs-Mechanismus, benannt nach britischen Physiker Peter Higgs (1929). Dieser bekam zusammen mit einem belgischen Physiker François Englert (1932) für die Entwicklung dieses Mechanismus den Nobelpreis.

Das neue Teilchen, Higgs-Boson, konnte nicht nur dazu dienen, den neuen Austausch-Teilchen, den W-Bosonen, jeweils eine Masse zuzubilligen, es avancierte zum allgemeinen „Massenspender“, d.h. nach der Theorie ergibt sich die Masse aller Teilchen, abgesehen vom Higgs-Teilchen selbst, durch eine Wechselwirkung mit diesem Higgs-Boson.

Die so entstandene einheitliche Theorie der elektromagnetischen und schwachen Wechselwirkung hat bisher alle experimentellen Tests bestanden und gilt mit dem Nachweis des Higgs-Bosons im Jahre 2012 endgültig als etabliert.

Die starke Wechselwirkung und das Standardmodell

In den 60er Jahren des letzten Jahrhunderts entdeckte man immer mehr neue „Elementarteilchen“, wie man sie damals nannte. Ein ganzer „Zoo“ von Teilchen mit verschiedenen Massen, elektrischen Ladungen und „Spins“ entstand. In dieser Menge konnte man bald eine gewisse Ordnung feststellen, die man durch eine bestimmte mathematische Struktur beschreiben konnte. Diese musste wohl physikalische Gegebenheiten widerspiegeln, denn auch Teilchen, die nach der Struktur vorhanden sein mussten, aber noch nicht bekannt waren, konnten nachgewiesen werden. 

Die Art dieser mathematischen Struktur legte den Gedanken nahe, dass es insgesamt drei verschiedene Bausteine geben muss, aus denen alle Teilchen in diesem Zoo bestehen, wenn es sich nicht gerade um Elektronen und ähnliche Teilchen handelt, die man zu der Gruppe der „Leptonen“ zählte und die nicht der starken Wechselwirkung unterliegen. Der amerikanische Physiker Murray Gell-Mann veröffentlichte im Jahre 1964 eine entsprechende Hypothese, er nannte diese Bausteine „Quarks“. Die elementarsten Quanten sollten also nun Leptonen und Quarks sein. Im Jahre 1969 konnte diese Vorstellung durch die Experimente erhärtet werden.

In Analogie zur elektroschwachen Wechselwirkung musste es auch Austauschteilchen geben, die hier die starken Kräfte vermittelten und auch zu den gebundenen Zuständen wie Protonen oder Neutronen führen. Man nannte sie Gluonen (nach glue = kleben), diese mussten bestimmte Freiheitsgrade besitzen, ähnlich einer elektrischen Ladung, nur dass es hier nicht zwei, sondern drei Ladungen geben musste. Man nannte sie Farbladung, und die Theorie, die man so konzipierte, hieß dann auch Quantenchromodynamik (QCD). Mit den Farben bei unseren Sinneseindrücken haben diese „Farben“ natürlich nichts zu tun.

Ein Konzept für diese Theorie war also schnell gefunden. Schwieriger gestalteten sich die Anpassung der Details an die experimentelle Situation. Man musste erklären können, warum man von einem „Confinement“, also einem Einschluss der Quarks reden muss, d.h. warum man freie Quarks nie beobachten kann. Man entdeckte auch, dass es neben drei zunächst postulierten Quarks noch weitere drei Typen von Quarks gibt.

Dies ist inzwischen alles verstanden worden und die QCD hat sich bisher in allen Experimenten 
bewährt.

Von einer Verschmelzung der elektroschwachen Wechselwirkung mit der Quantenchromodynamik kann man nun allerdings noch nicht reden. Das, was man heute als „Standardmodell“ bezeichnet, ist bisher nur ein gemeinsames Dach, denn die QCD steht dort gewissermaßen unbeteiligt neben der elektroschwachen Theorie. Um diesen Punkt besser zu verstehen, erinnere man sich an die Verschmelzung der Theorie der Elektrizität mit der Theorie des Magnetismus. Diese geschah dadurch, dass man zeigen konnte, dass ein elektrischer Strom ein Magnetfeld zur Folge hat. Das bedeutet: Eine Größe aus der einen Theorie wirkt auf eine Größe der anderen Theorie. So erhoffte sich Albert Einstein für die Verschmelzung der Gravitationstheorie und der Elektrodynamik auch, dass man entdecken könnte, dass ein Gravitationsfeld sich auf elektrische Phänomene auswirkt. Eine Wirkung der starken Kraft auf einen Effekt der schwachen oder elektromagnetischen Wechselwirkung ist aber noch nicht nachgewiesen. Teilchen, welche diese Wirkung vermitteln würden, wären so etwas wie „Leptoquarks“. Sie würden die Umwandlung von Leptonen in Quarks beschreiben und könnten auf diese Weise auch erklären, dass Elektronen und Protonen betragsmäßig die gleiche elektrische Ladung besitzen.

Festzuhalten bleibt: Es gibt bei fast allen Phänomenen auf der subatomaren Längenskala eine gute, ja zum Teil außerordentlich gute Übereinstimmung der Aussagen des Standardmodells mit den experimentellen Ergebnissen. Diese Theorie ist aber keineswegs schon zufriedenstellend, es fehlt eine interne Vereinheitlichung (QCD und elektroschwache Wechselwirkung) und eine Einbeziehung der Gravitation (siehe auch Wikipedia: Standardmodell). Schließlich müssen jene Phänomene erklärt werden können, die Anlass zu der Vermutung geben, dass es im Kosmos noch so etwas wie “dunkle Materie” und “dunkle Energie” geben muss.

Wer weiß, wie weit der Weg zu einer wirklich einheitlichen Theorie für alle physikalischen Phänomene der Welt der kleinsten Dimensionen noch ist. Mit Albert Einstein möchte man sagen: „Um wirklich vorwärts zu kommen, müsste man wieder ein allgemeines, der Natur abgelauschtes Prinzip finden“. Dieses würde dann ein wirklich ganz allgemeines, umfassendes Prinzip sein, hinter dem man nichts mehr suchen müsste. Wahrscheinlich jedoch wird man immer nur etwas „Besseres“ finden, aber nie etwas „Endgültiges“. 


Nota. - Sollen Theorien vereinigt werden, so muss sich unter den ausgessprochenen oder  unausgesproche- nen Prämissen einer jeden wenigstens eine Bestimmung finden, die sie alle teilen. Die wäre der Grund, auf dem die Einheitstheorie aufbauen müsste. 

Ob das dann gelingt, ist eine faktische Frage; es müsste ausprobiert werden. Das gedankliche Problem wäre zunächst, diese eine gemeinsame Bestimmung aufzufinden. Zunächst? Nein; zuerst ist die Frage zu prüfen, ob es eine solche Bestimmung überhaupt geben kann.

Wir haben schon zu tun mit zwei Standardmodellen, von denen das ganze Universum - 'alles, was ist' - beschrieben werden sollen; von der äußersten - kosmischen - bis zur innersten - mikrophysischen - Di- mension. Außer ihnen kann es definitionsmäßig nichts geben. Was haben sie - definitionsmäßig - mit einander gemeinsam? Dass sie zutreffen. Sie stimmen logisch in sich zusammen und stehen nirgends in Widerspruch zu erfahrbaren Tatsachen.


Das bestrifft aber ihren immanenten Zusammenhalt, nicht irgendein Verhältnis zu einem Äußeren. Das heißt nur: Jede gilt für ihren Bereich. Bleibt immer noch das Problem, den Mikrobereich in den Makro- bereich umzurechnen - das wäre es ja, was die Einheitstheorie leisten soll.

Man kann es drehen, soviel man will: Die Vorstellung, dass beide in einander aufgelöst werden könnten, setzt voraus, dass beide... wahr sind. Dass es eine Objektivität jenseits - oberhalb? unterhalb? - der beiden Bereiche gibt, in der sie gemeinsam 'Statt haben'.

Das ist offenbar keine Frage an die Physik. Es ist Meta phsysik. Es ist ein philosophisches Thema. Aller- dings ein Thema der spezifisch kritischen Philosophie.

Die kritische Philosophie weist darauf hin, dass unser Wissen aus dem besteht, was in unserm Bewusstsein vorkommt: beide Ausdrücke bedeuten dasselbe. In unserm Bewusstsein kommen keine Dinge vor, sondern Vorstellungen von Dingen; keine Mikro- oder Makro - und nicht einmal unsere Meso-Sphäre, sondern die Vorstellung einer Mikro-, einer Makro- und einer Mesosphäre.

Die wirkliche Wissenschaften gingen von den Erfahrungen aus, die unser Wahrnehmungsapparat in der Mesosphäre, in der unsere Gattung sich entwickelt hat, uns ermöglicht hat. Wir haben die Erfahrungs- tatsachen zu Theorien erweitert und haben die meisten wissenschsaftlichen Entdeckungen nur gemacht, indem wir Theorien erdacht haben, die wir überprüfen konnten. 

Da war zunächst die Physik unserer Mesosphäre, die wir heute die Newtonsche nennen, weil raffinierte Beobachtungsmittel und hochdestillierte Begriffe uns erlaubt haben, uns nicht nur über das, was wir sinn- lich bemerken, sondern selbst über das, was wir uns mit unseren Sinnen vorstellen können, weit hinweg- setzen können. Weit hinaus 'nach oben', in den Makrokosmos hinaus, weit hinaus (!) 'nach unten' in den Mikrokosmos hinein.

Das sind zwei diametral entgegengesetzte Richtungen. Es müsste mit allen Teufeln zugehen, wenn sie uns eines Tages in ein einheitliches Feld führen sollten. Aber wohlbemerkt: Sachlich unmöglich ist das nicht. Wir können es uns lediglich nicht vorstellen.
JE


Keine Kommentare:

Kommentar veröffentlichen