aus spektrum.de, 2. Juni 2019
Vereinheitlichung von Theorien
Von
Josef Honerkamp
Liebe Leserinnen und Leser meines Blogs, dies ist der letzte Beitrag
in der Serie von Posts, die ich in den letzten 20 Wochen hier jeweils am
Wochenende eingestellt habe. Jetzt muss ich erst einmal eine Pause
machen, um dann diese Texte im Hinblick auf ein Buch zu überarbeiten und
gegebenenfalls zu ergänzen. Viel muss dafür noch getan werden. Ich bin
gespannt, wohin mich das noch führen wird.
—————————————————————————————————————
Nach der Übersicht über die Theorien für fundamentale
Wechselwirkungen und einem Bericht darüber, wie dort jeweils die Axiome
gefunden worden sind, soll jetzt dargelegt werden, wie man die
Realisierung der Idee einer vereinheitlichten Theorie aller
fundamentalen Kräfte bzw. Wechselwirkungen im Laufe der Zeit
vorangetrieben hat und wie weit man inzwischen dabei gekommen ist.
Im vorletzten Blog habe ich den Raum der Phänomene eingeführt.
Ein anderer nützlicher Begriff in diesem Zusammenhang ist der
„Gültigkeitsbereich“ einer Theorie. Dieser umfasst alle Phänomene, die im
Rahmen der Theorie erklärt werden können. Aussagen über ein Phänomen eines
Gültigkeitsbereichs können dann, bei Berücksichtigung aller gegebenen Umstände,
aus den Axiomen mit Hilfe mathematischer Methoden abgeleitet werden und stimmen
im Rahmen der Messunsicherheiten mit den experimentellen Ergebnissen bzw.
Beobachtungen überein.
Der Gültigkeitsbereich und mögliche Erweiterungen
So umfasst der Gültigkeitsbereich der Newtonschen Mechanik alle
Bewegungen materieller Körper am Himmel und auf der Erde. So dachte man
wenigstens, bevor Albert Einstein die Spezielle Relativitätstheorie
entwickelte. Heute haben wir mit dieser Relativitätstheorie eine neue Theorie,
die auch für all diese Bewegungen zuständig sein soll, dabei aber einen viel
größeren Gültigkeitsbereich als die Newtonsche Mechanik besitzt. Dieser erwies
sich nämlich auf Phänomene beschränkt, in denen nur Geschwindigkeiten
auftreten, die vernachlässigbar gegenüber der Lichtgeschwindigkeit sind.
Mit der speziellen Relativitätstheorie haben wir den Fall einer
neuen Theorie vor uns, mit der eine bestehende Theorie „erweitert“ wird, d.h.
mit der ihr Gültigkeitsbereich erweitert wird. Für kleine Geschwindigkeiten
stimmen beide Theorien überein, Je größer die Geschwindigkeit wird, umso größer
wird auch der Unterschied, umso mehr kommen auch Eigenschaften von Raum und
Zeit zum Vorschein, die in der Relativitätstheorie richtig beschrieben werden,
in der Newtonschen Theorie aber gar nicht thematisiert werden konnten, weil
entsprechende Phänomene bei ihrer Entwicklung gar nicht bekannt sein konnten.
Deshalb ist die Newtonsche Theorie nicht als falsch zu bezeichnen
und die spezielle Relativitätstheorie dagegen als wahr. „Falsch“ und „wahr“
sind für Aussagen angemessene Kategorien, aber nicht für Theorien. Man kann nur
von deren Gültigkeitsbereich reden, für die Phänomene in diesem Bereich gibt es
dann wahre Aussagen. Eine ernst zu nehmende Theorie hat einen respektablen
Gültigkeitsbereich, aber auch der kann immer noch erweitert werden, wie man an
diesem Beispiel sieht. Vielleicht ist ja auch die spezielle Relativitätstheorie
noch nicht das Ende der Fahnenstange.
Der Begriff des Gültigkeitsbereichs ist auch hilfreich, wenn man
verstehen will, was sich an bestimmten Wendepunkten der Physik ereignet hat,
z.B. bei der Entdeckung der Quantenhaftigkeit der Natur zu Beginn des letzten
Jahrhunderts. Zwei beeindruckende Phänomene haben damals die Physiker
beschäftigt. Die besten Physiker, Max Planck und Albert Einstein, haben dafür
jeweils eine Erklärung geben können und dabei die ersten Schritte in eine
Quantenphysik getan. Beide Phänomene waren im Rahmen der Elektrodynamik nicht
mehr zu verstehen, sie lagen schon außerhalb der Grenzen ihres
Gültigkeitsbereichs.
Es war einerseits die sogenannte Hohlraumstrahlung, das ist die
elektromagnetische Strahlung, die von einer kleinen Öffnung eines Hohlraums
ausgeht. Diese Strahlung kann präzise vermessen werden und man stellt fest,
dass ihre Intensität eine Funktion allein von der Temperatur der inneren Wände
des Hohlraums und ihrer Frequenz ist. Damit treten nur fundamentale Konstanten
in dieser Funktion auf. Max Planck konnte diese im Jahr 1900 erklären, wenn man
die Energie pro Frequenzintervall, die von den Wänden in den Hohlraum
abgestrahlt wird und dann durch die Öffnung austritt, “als zusammengesetzt
aus einer ganz bestimmten Anzahl endlicher gleicher Teile” betrachtet.
Andererseits waren es die experimentellen Ergebnisse beim
Photoeffekt, die Albert Einstein erklären konnte, und zwar unter einer ähnlichen
Annahme, dass bei diesen Experiment das Licht als ein Strom von
“lokalisierten Energiequanten, welche nur als Ganze absorbiert und erzeugt
werden können” (Einstein, 1905)
angesehen werden muss.
Das waren zwei ganz bedeutende Hinweise auf die Notwendigkeit
einer Theorie „hinter“ der Elektrodynamik, die dann in der Tat auch als eine
Quantenelektrodynamik entwickelt wurde. Die Elektrodynamik blieb in ihrem
Gültigkeitsbereich unangetastet, wurde aber als eine “Quantenelektrodynamik
für das Grobe” erkannt, wobei das “Grobe” für Situationen steht,
in der nur das Verhalten einer sehr großen Anzahl von Lichtquanten
interessiert. So können wir auch von einer Erweiterung der Elektrodynamik
sprechen. In (Honerkamp, 2010) habe ich dieses ausgeführt.
Verschmelzung von Gültigkeitsbereichen
Solche Erweiterungen vergrößern das Portfolio der Physik an
Theorien. Das große Thema der Physik,
das wir auch in diesem Buch verfolgen, war aber dagegen die Idee einer
einheitlichen Theorie. So suchte man stets danach, ob man die
Gültigkeitsbereiche zweier Theorien „unter einen Hut“ bringen konnte, sodass
also die Gültigkeitsbereiche zweier Theorien zu einem einzigen Bereich
verschmelzen und eine einzige Theorie ist für diesen zuständig wird.
Normalerweise sind dann die Begriffe und Aussagen beider ursprünglichen
Theorien in der vereinheitlichen Theorie als Spezialfälle oder Näherungen
enthalten.
Wir werden sehen, dass das in der Neuzeit auch immer der Fall
gewesen ist. Nur beim Übergang von der Aristotelischen Bewegungstheorie zur
Newtonschen Theorie war es anders. Aristoteles unterschied ja, wie schon früher
ausgeführt, mehrere Typen von Bewegungen, und für jeden Typ hatte er eine
eigene Erklärung. Es gab also mehrere Theorien mit ihren eigenen
Gültigkeitsbereichen. In der Newtonschen Theorie gibt es nun im 2. Newtonschen
Axiom eine einzige Vorschrift für die Aufstellung einer Gleichung für fast alle
aristotelischen Typen von Bewegungen, also z.B. für die „erzwungene“ wie für
die „natürliche“, ob nach oben oder nach unten gerichtet. Hier werden also
mehrere althergebrachte Theorien vollständig durch eine einzige neue Theorie
ersetzt.
Von Elektrizität und Magnetismus zum Elektromagnetismus
Eine erste Verschmelzung der Gültigkeitsbereiche zweier Theorien
kann man in der Mitte des 19. Jahrhunderts bei der Entwicklung der
Elektrodynamik beobachten. Elektrizität und Magnetismus erschienen zunächst
völlig unabhängige Phänomene zu sein. So gab es, wie in früheren Kapiteln schon
erwähnt, eine Theorie für die elektrischen und eine für die magnetischen
Phänomene, und beide waren ganz nach dem Newtonschen Vorbild, also ausgehend
von bestimmten Axiomen, aufgebaut.
Der dänische Physiker Hans Christian Ørsted hatte sich in den
20er Jahren des 19. Jahrhunderts aber auf die Suche nach einer Beziehung
zwischen elektrischen und magnetischen Phänomenen gemacht. Er war die Zeit der
Romantik, und er war auch von der Idee einer Einheit der Natur „infiziert“
worden. Im Jahre 1831 hat er tatsächlich entdeckt, dass ein elektrischer Strom
ein Magnetfeld erzeugt. Weitere Entdeckungen solcher Beziehungen folgten. Der
schottische Physiker James Clerk Maxwell konnte schließlich in den 60er Jahren
des 19. Jahrhunderts einen Satz von Gleichungen für elektrische und magnetische
Felder aufstellen, die die Rolle von Axiomen übernehmen konnten. Man sprach
fortan von „elektromagnetischen“ Feldern.
Als das Licht als elektromagnetische Welle erkannt werden konnte,
wurde dann noch die Optik vereinnahmt. Auch das kann man als eine Verschmelzung
von Gültigkeitsbereichen bzw. Verschmelzung von Theorien sehen.
Elektromagnetismus und Gravitation?
Die Allgemeine Relativitätstheorie, die Albert Einstein im Jahre
1915 nach 10 Jahren intensivster Arbeit vorstellte, war wie die Elektrodynamik
eine Feldtheorie. Während das elektromagnetische Feld aus sechs Komponenten
bestand, enthielt das Gravitationsfeld zehn Komponenten. In beiden Fällen
konnten diese aber als Elemente eines Tensors angesehen werden und ebenso ließ
sich jeweils aus den Axiomen, den Grundgleichungen, ableiten, dass es Wellen
geben müsse.
Solche elektromagnetischen Wellen waren von Heinrich Hertz
entdeckt worden. Man hat damit dem Feld
eine reale physikalische Existenz zubilligen müssen. So war man nach 1915
überzeugt, dass es auch Gravitationswellen geben muss. Man glaubte allerdings
zunächst, dass diese viel zu schwach sind, als dass man sie jemals entdecken
könnte. Aber etwa 100 Jahre später, im Jahre 2016, hat man solche zum ersten
Male direkt nachweisen können.
Albert Einstein wurde für das Jahr 1921 der Nobelpreis verliehen.
Aber erst im Jahre 1923 konnte er den Nobelvortrag halten. In diesem
sagte er: „Der nach Einheitlichkeit der Theorie strebende Geist kann
sich nicht damit zufriedengeben, dass zwei ihrem Wesen nach ganz
unabhängige Felder existieren sollen.“ Damals arbeitete Einstein schon
an einer Vereinheitlichung der Theorien des Elektromagnetismus und der
Gravitation. Er soll bis zu seinem Tode im Jahre 1955 an dieser Idee
festgehalten und immer wieder mit neuen Ansätzen hart an ihr gearbeitet
haben (Fölsing, 1993, p. 627ff) Es wäre eine einheitliche Theorie für
alle Phänomene der Welt der mittleren und größten Dimensionen geworden.
Aber es ließ sich keine mathematische Struktur finden, in der beide
Felder einen Platz hatten und in der ihre physikalischen Beziehungen
aufrechterhalten werden konnten.
Einstein war nicht der Einzige, der eine Vereinheitlichung
suchte. Auch andere sehr respektable theoretische Physiker waren von der Idee
eines einheitlichen physikalischen Weltbildes beseelt. Gustav Mie, Hermann
Weyl, Theodor Kaluza und Arthur Eddington – alles Namen, die einem Physiker
auch aus anderen Gründen etwas sagen. Sie alle legten entsprechende Arbeiten
vor. Aber diese waren bei näherem Studium alle nicht überzeugend. Es fehlten
jeweils Folgerungen aus den Axiomen, die physikalisch geprüft werden konnten;
sie blieben „in der mathematischen Luft hängen“.
Einstein unterschied sich von diesen Kollegen darin, dass er sich
zunächst nicht allein von einer „Schönheit und Eleganz“ mathematischer
Strukturen leiten lassen wollte. „Ich glaube, man müsste, um wirklich
vorwärts zu kommen, wieder ein allgemeines, der Natur abgelauschtes
Prinzip finden“, so schrieb Einstein im Sommer 1922 in einem Brief an
Hermann Weyl (nach (Fölsing, 1993, p. 635)). So hatte er es ja bei der
Formulierung seiner beiden Relativitätstheorien getan: Die „Konstanz der
Lichtgeschwindigkeit“ bzw. die „Gleichheit von schwerer und träger
Masse“ waren die Phänomene, die er in der Tat der Natur damals
„abgelauscht“ und dann an die Spitze der jeweiligen Theorie gestellt
hatte. Für die Vereinheitlichung der beiden Feldtheorien ließ sich aber
nichts von dieser Art finden, nicht irgendeine Parallele zum
Induktionsgesetz der Elektrodynamik. Dazu müsste man ja eine Beziehung
zwischen einem Gravitations- und einem elektromagnetischen Feld
entdecken.
So klang es dann schon in seinem Nobelvortrag im Jahre 1923
anders: „Leider können wir uns bei dieser Bemühung nicht auf empirische
Tatsachen stützen wie bei der Ableitung der Gravitation, sondern wir sind auf
das Kriterium der mathematischen Einfachheit geschränkt, das von Willkür nicht
frei ist.“
Als Einstein im Jahre 1955 starb, war die Quantenphysik längst
etabliert. Die elektromagnetische
Wechselwirkung hatte als Quantenelektrodynamik innerhalb der Quantenphysik
einen prominenten Platz gefunden und wurde auch Vorbild für weitere Theorien.
Mit ihr konnte die Idee der Vereinheitlichung einen neuen Anlauf finden.
Vereinheitlichungen bei Quantentheorien
Mit der Entdeckung von Phänomenen in der Welt der kleinsten
Dimensionen stellte sich das Problem der Vereinheitlichung ganz neu. Man
erkannte, dass man bisher nur einen kleinen Teil des Raums der Phänomene kennen
gelernt hatte. Für die theoretische Beschreibung der elektromagnetischen
Phänomene musste man weit über die Quantenmechanik hinausgehen und erst den
Begriff eines Quantenfeldes entwickeln. In einer Quantenelektrodynamik konnte
man dann auch „Quanten“ einführen, Entitäten, die die Rolle von elementaren
Teilchen einnehmen. Nun fanden die Lichtquanten, die Albert Einstein bei der
Erklärung des Photoeffektes postuliert hatte, ihren Platz in einer Theorie.
Eine besondere Eigenschaft der klassischen Elektrodynamik, die
man auch in der Quantenversion übernommen hatte, sollte nun eine Leitlinie für
alle folgenden Quantenfeldtheorien werden. Die zwei beobachtbaren Felder, das elektrische
und das magnetische Feld mit jeweils drei Komponenten, lassen sich nämlich
durch ein einziges, so genanntes Eichfeld mit vier Komponenten ausdrücken.
Dieses ist dann aber nicht eindeutig bestimmt, man kann es durch eine
mathematische Operation in ein anderes Feld transformieren, ohne dass das elektrische
und das magnetische Feld dadurch verändert wird. Die beobachtbaren Felder sind
also invariant gegenüber der Transformation, und da Invarianzen in der
Mathematik immer auch als Symmetrien darstellbar sind, spricht man auch von
einer Eichsymmetrie und von einer Invarianz der physikalischen Felder unter
Eichtransformationen.
In der klassischen Elektrodynamik musste man dieser Möglichkeit
keine tiefere Bedeutung zumessen. In der Quantenelektrodynamik aber wurde
dieses Eichfeld zu dem Feld des Photons, des Lichtquants also. Die
Quantenelektrodynamik wurde damit zu einer „Eichfeldheorie“. Ein Unterschied
zwischen einem Eichfeld, welches ein Photon repräsentiert, und einem
Materiefeld, das für ein Elektron steht, wurde deutlich: Die elektromagnetische
Wechselwirkung zwischen den Elektronen kann nun gesehen werden als vermittelt
durch die Lichtquanten, in einfachster Form durch den Austausch eines
Lichtquants. Eichfelder in einer Theorie beschreiben also die Wechselwirkung
zwischen jenen massebehafteten Quanten, die durch Materiefelder dargestellt
werden. Dieses Bild sollte zur Leitidee für die Konstruktion anderer
Quantentheorie avancieren.
Die Theorie der elektroschwachen Wechselwirkung
Wie im vorletzten Kapitel schon erwähnt, führte die Aufklärung
der Natur all der Strahlen, die man nach und nach um die Wende zum 20.
Jahrhundert entdeckt hatte, zu der Vorstellung, dass es auf atomarer
Längenskala zwei neue Typen von Wechselwirkungen geben muss, deren Wirkung aber
nicht wesentlich über atomare Distanzen hinausreicht. Der Phänomenbereich der
Zerfälle von Quanten in andere, leichtere sollte durch eine „schwache“ Kraft
verursacht werden. Für ein anderes Phänomen musste dagegen eine „starke“ Kraft
verantwortlich sein, nämlich dafür, dass ein Atomkern stabil sein kann, obwohl
er doch aus vielen Protonen mit einer positiven elektrischen Ladung besteht,
die sich einander ja alle abstoßen. Diese Kraft ist also so stark, dass sie die
elektrische Abstoßung überkompensieren kann.
Die Geschichte der schwachen Wechselwirkung beginnt mit der
Analyse der β-Strahlung
(Wikipedia: Schwache Wechselwirkung). Man lernte, dass diese Strahlung aus
Elektronen besteht, die offensichtlich aus der Umwandlung von den Bausteinen
der Atomkerne stammen müssen. Der italienische Physiker Enrico Fermi
formulierte 1934 eine erste Theorie für den Zerfall eines Neutrons. Die Theorie
musste nach und nach neuen experimentellen Entdeckungen angepasst werden. Es
blieb aber nach wie vor schwierig, aus den jeweiligen Axiomen überhaupt
verlässliche Aussagen mathematisch abzuleiten.
Es war klar, dass man etwas „Besseres“ finden musste, und das
Vorbild für dieses konnte nur die Quantenelektrodynamik sein. Dort gab es ja
die Photonen, also Quanten, welche die Wechselwirkung zwischen den
Materieteilchen, den Protagonisten wie Elektronen oder Protonen, vermittelten.
Warum nicht auch solche Austausch-Quanten für die schwache Wechselwirkung
einführen? Und sogar: Warum nicht gleich
nach einer einheitlichen Theorie für die elektromagnetische und schwache
Wechselwirkung suchen, in denen es dann zusätzlich zum Photon auch noch weitere
Austausch-Quanten gibt, welche die schwache Wechselwirkung vermitteln?
Man postulierte also die Existenz einer ganz neuen Sorte von
Quanten, handelte sich damit aber nicht nur das Problem ein, dass man ihre
Existenz dann ja auch irgendwann nachweisen müsste, sondern auch noch ein tiefliegendes
theoretisches Problem: Die schwache Wechselwirkung ist kurzreichweitig. Es gibt
aber einen klaren Zusammenhang zwischen der Reichweite der Wechselwirkung und
der Masse des Quants, welches diese Kraft bzw. Wechselwirkung vermittelt: Je
größer die Masse, umso kürzer die Reichweite. Das Photon z.B. besitzt keine
Masse, die elektromagnetische Wechselwirkung ist entsprechend sehr
langreichweitig. Ein Austauschteilchen einer kurzreichweitigen Kraft muss
demnach aber eine Masse besitzen. Eine Theorie mit massebehafteten
Austauschteilchen hat aber die gleichen theoretischen Schwierigkeiten wie die
erste Theorie von Fermi: Man kann aus den Axiomen nichts seriös ableiten. Man
schien sich im Kreis zu drehen.
Als Ausweg postulierte man die Existenz eines weiteren Teilchens.
Das sieht für Außenstehende wie eine schlechte Ausrede aus, führte aber zum
Erfolg und wurde auch nicht ganz gedankenlos vorgeschlagen. Es gab bedeutende
Vorbilder in der Festkörpertheorie, dort kannte man die Einführung eines Terms
in die Theorie, der für eine beobachtbare Größe zu einer Masse führt, als
Higgs-Mechanismus, benannt nach britischen Physiker Peter Higgs (1929). Dieser
bekam zusammen mit einem belgischen Physiker François Englert (1932) für die
Entwicklung dieses Mechanismus den Nobelpreis.
Das neue Teilchen, Higgs-Boson, konnte nicht nur dazu dienen, den
neuen Austausch-Teilchen, den W-Bosonen, jeweils eine Masse zuzubilligen, es
avancierte zum allgemeinen „Massenspender“, d.h. nach der Theorie ergibt sich
die Masse aller Teilchen, abgesehen vom Higgs-Teilchen selbst, durch eine
Wechselwirkung mit diesem Higgs-Boson.
Die so entstandene einheitliche Theorie der elektromagnetischen
und schwachen Wechselwirkung hat bisher alle experimentellen Tests bestanden
und gilt mit dem Nachweis des Higgs-Bosons im Jahre 2012 endgültig als
etabliert.
Die starke Wechselwirkung und das Standardmodell
In den 60er Jahren des letzten Jahrhunderts entdeckte man immer
mehr neue „Elementarteilchen“, wie man sie damals nannte. Ein ganzer „Zoo“ von
Teilchen mit verschiedenen Massen, elektrischen Ladungen und „Spins“ entstand.
In dieser Menge konnte man bald eine gewisse Ordnung feststellen, die man durch
eine bestimmte mathematische Struktur beschreiben konnte. Diese musste wohl
physikalische Gegebenheiten widerspiegeln, denn auch Teilchen, die nach der
Struktur vorhanden sein mussten, aber noch nicht bekannt waren, konnten
nachgewiesen werden.
Die Art dieser mathematischen Struktur legte den Gedanken nahe,
dass es insgesamt drei verschiedene Bausteine geben muss, aus denen alle
Teilchen in diesem Zoo bestehen, wenn es sich nicht gerade um Elektronen und
ähnliche Teilchen handelt, die man zu der Gruppe der „Leptonen“ zählte und die
nicht der starken Wechselwirkung unterliegen. Der amerikanische Physiker Murray
Gell-Mann veröffentlichte im Jahre 1964 eine entsprechende Hypothese, er nannte
diese Bausteine „Quarks“. Die elementarsten Quanten sollten also nun Leptonen
und Quarks sein. Im Jahre 1969 konnte diese Vorstellung durch die Experimente
erhärtet werden.
In Analogie zur elektroschwachen Wechselwirkung musste es auch
Austauschteilchen geben, die hier die starken Kräfte vermittelten und auch zu
den gebundenen Zuständen wie Protonen oder Neutronen führen. Man nannte sie
Gluonen (nach glue = kleben), diese mussten bestimmte Freiheitsgrade besitzen,
ähnlich einer elektrischen Ladung, nur dass es hier nicht zwei, sondern drei
Ladungen geben musste. Man nannte sie Farbladung, und die Theorie, die man so
konzipierte, hieß dann auch Quantenchromodynamik (QCD). Mit den Farben bei
unseren Sinneseindrücken haben diese „Farben“ natürlich nichts zu tun.
Ein Konzept für diese Theorie war also schnell gefunden.
Schwieriger gestalteten sich die Anpassung der Details an die experimentelle
Situation. Man musste erklären können, warum man von einem „Confinement“, also
einem Einschluss der Quarks reden muss, d.h. warum man freie Quarks nie
beobachten kann. Man entdeckte auch, dass es neben drei zunächst postulierten
Quarks noch weitere drei Typen von Quarks gibt.
Dies ist inzwischen alles verstanden worden und die QCD hat sich
bisher in allen Experimenten
bewährt.
Von einer Verschmelzung der elektroschwachen Wechselwirkung mit
der Quantenchromodynamik kann man nun allerdings noch nicht reden. Das, was man
heute als „Standardmodell“ bezeichnet, ist bisher nur ein gemeinsames Dach,
denn die QCD steht dort gewissermaßen unbeteiligt neben der elektroschwachen
Theorie. Um diesen Punkt besser zu verstehen, erinnere man sich an die
Verschmelzung der Theorie der Elektrizität mit der Theorie des Magnetismus.
Diese geschah dadurch, dass man zeigen konnte, dass ein elektrischer Strom ein
Magnetfeld zur Folge hat. Das bedeutet: Eine Größe aus der einen Theorie wirkt
auf eine Größe der anderen Theorie. So erhoffte sich Albert Einstein für die
Verschmelzung der Gravitationstheorie und der Elektrodynamik auch, dass man
entdecken könnte, dass ein Gravitationsfeld sich auf elektrische Phänomene
auswirkt. Eine Wirkung der starken Kraft auf einen Effekt der schwachen oder
elektromagnetischen Wechselwirkung ist aber noch nicht nachgewiesen. Teilchen,
welche diese Wirkung vermitteln würden, wären so etwas wie „Leptoquarks“. Sie
würden die Umwandlung von Leptonen in Quarks beschreiben und könnten auf diese
Weise auch erklären, dass Elektronen und Protonen betragsmäßig die gleiche
elektrische Ladung besitzen.
Festzuhalten bleibt: Es gibt bei fast allen Phänomenen auf der
subatomaren Längenskala eine gute, ja zum Teil außerordentlich gute
Übereinstimmung der Aussagen des Standardmodells mit den experimentellen
Ergebnissen. Diese Theorie ist aber keineswegs schon zufriedenstellend,
es fehlt eine interne Vereinheitlichung (QCD und elektroschwache
Wechselwirkung) und eine Einbeziehung der Gravitation (siehe auch
Wikipedia: Standardmodell). Schließlich müssen jene Phänomene erklärt
werden können, die Anlass zu der Vermutung geben, dass es im Kosmos noch
so etwas wie “dunkle Materie” und “dunkle Energie” geben muss.
Wer weiß, wie weit der Weg zu einer wirklich einheitlichen
Theorie für alle physikalischen Phänomene der Welt der kleinsten Dimensionen
noch ist. Mit Albert Einstein möchte man sagen: „Um wirklich vorwärts zu
kommen, müsste man wieder ein allgemeines, der Natur abgelauschtes Prinzip
finden“. Dieses würde dann ein wirklich ganz allgemeines, umfassendes Prinzip
sein, hinter dem man nichts mehr suchen müsste. Wahrscheinlich jedoch wird man
immer nur etwas „Besseres“ finden, aber nie etwas „Endgültiges“.
Nota. - Sollen Theorien vereinigt werden, so muss sich unter den ausgessprochenen oder unausgesproche- nen Prämissen einer jeden wenigstens eine Bestimmung finden, die sie alle teilen. Die wäre der Grund, auf dem die Einheitstheorie aufbauen müsste.
Ob das dann gelingt, ist eine faktische Frage; es müsste ausprobiert werden. Das gedankliche Problem wäre zunächst, diese eine gemeinsame Bestimmung aufzufinden. Zunächst? Nein; zuerst ist die Frage zu prüfen, ob es eine solche Bestimmung überhaupt geben kann.
Wir haben schon zu tun mit zwei Standardmodellen, von denen das ganze Universum - 'alles, was ist' - beschrieben werden sollen; von der äußersten - kosmischen - bis zur innersten - mikrophysischen - Di- mension. Außer ihnen kann es definitionsmäßig nichts geben. Was haben sie - definitionsmäßig - mit einander gemeinsam? Dass sie zutreffen. Sie stimmen logisch in sich zusammen und stehen nirgends in Widerspruch zu erfahrbaren Tatsachen.
Das bestrifft aber ihren immanenten Zusammenhalt, nicht irgendein Verhältnis zu einem Äußeren. Das heißt nur: Jede gilt für ihren Bereich. Bleibt immer noch das Problem, den Mikrobereich in den Makro- bereich umzurechnen - das wäre es ja, was die Einheitstheorie leisten soll.
Man kann es drehen, soviel man will: Die Vorstellung, dass beide in einander aufgelöst werden könnten, setzt voraus, dass beide... wahr sind. Dass es eine Objektivität jenseits - oberhalb? unterhalb? - der beiden Bereiche gibt, in der sie gemeinsam 'Statt haben'.
Das ist offenbar keine Frage an die Physik. Es ist Meta phsysik. Es ist ein philosophisches Thema. Aller- dings ein Thema der spezifisch kritischen Philosophie.
Die kritische Philosophie weist darauf hin, dass unser Wissen aus dem besteht, was in unserm Bewusstsein vorkommt: beide Ausdrücke bedeuten dasselbe. In unserm Bewusstsein kommen keine Dinge vor, sondern Vorstellungen von Dingen; keine Mikro- oder Makro - und nicht einmal unsere Meso-Sphäre, sondern die Vorstellung einer Mikro-, einer Makro- und einer Mesosphäre.
Die wirkliche Wissenschaften gingen von den Erfahrungen aus, die unser Wahrnehmungsapparat in der Mesosphäre, in der unsere Gattung sich entwickelt hat, uns ermöglicht hat. Wir haben die Erfahrungs- tatsachen zu Theorien erweitert und haben die meisten wissenschsaftlichen Entdeckungen nur gemacht, indem wir Theorien erdacht haben, die wir überprüfen konnten.
Da war zunächst die Physik unserer Mesosphäre, die wir heute die Newtonsche nennen, weil raffinierte Beobachtungsmittel und hochdestillierte Begriffe uns erlaubt haben, uns nicht nur über das, was wir sinn- lich bemerken, sondern selbst über das, was wir uns mit unseren Sinnen vorstellen können, weit hinweg- setzen können. Weit hinaus 'nach oben', in den Makrokosmos hinaus, weit hinaus (!) 'nach unten' in den Mikrokosmos hinein.
Das sind zwei diametral entgegengesetzte Richtungen. Es müsste mit allen Teufeln zugehen, wenn sie uns eines Tages in ein einheitliches Feld führen sollten. Aber wohlbemerkt: Sachlich unmöglich ist das nicht. Wir können es uns lediglich nicht vorstellen.
JE
Keine Kommentare:
Kommentar veröffentlichen