Freitag, 14. Juni 2019

Was tut mein Arbeitsspreicher?

 aus spektrum.de, 14. 6. 2019

Ein stiller Nachhall an den Synapsen
Unser Kurzzeitgedächtnis beruht auf einem Neuronenfeuer - oder doch nicht? Künstliche neuronale Netze untermauern die Theorie von einem zweiten Speicher.

von Christiane Gelitz

Das Kurzzeitgedächtnis beruht nicht allein auf feuernden Nervenzellen, sondern auch auf »stillen« Zustandsänderungen an ihren Kontaktstellen, den Synapsen. So lautet eine der jüngeren Theorien dazu, wie unser Arbeitsgedächtnis uns kurzzeitig Informationen bereithält. Mit Hilfe von selbstlernenden künstlichen neuronalen Netzen haben Forschende von der University of Chicago und der New York University diese Hypothese jetzt untermauert, wie sie in »Nature Neuroscience« berichten.

Das Team um David Freedman verwendete dazu 20 rekurrierende, also rückgekoppelte neuronale Netze (RNN), die sich besonders zum Abbilden von Informationsreihen eignen, und trainierte sie in mehreren Aufgaben, angefangen mit simplen Vergleichen bis hin zu komplexeren, bei denen eine Bewegung gedanklich rotiert werden musste. Eine schwierige Aufgabe wäre für Menschen beispielsweise auch, sich eine ungeordnete Reihe von Buchstaben nicht nur zu merken, sondern alphabetisch geordnet wiederzugeben.


Die künstlichen Netze waren so konstruiert, dass sie Eigenschaften und Verhaltensweisen von natürlichen Nervenzellen simulieren konnten. Sie sollten sich aber selbst beibringen, wie sie Informationen kurzzeitig im Netzwerk präsent halten und so die Aufgaben lösen können. Wie genau ihnen das gelang, stellten die Forscher fest, indem sie die Reize anhand der Aktivität und Eigenschaften der 100 künstlichen Neuronen im Inneren des Netzes zu klassifizieren versuchten.

So fanden sie zwei Arten von Kurzzeitspeicher, die beide die fraglichen Informationen wenige Sekunden bis Minuten lang bereithielten. Bei komplexeren Aufgaben beruhte dieser Speicher auf der Aktivität von Neuronenverbänden: Auf den Input folgte ein kurzer Anstieg elektrischer Aktivität, und in einigen Schaltkreisen hielt die Aktivität auch dann noch an, wenn der Input ausblieb. Bei einfachen Aufgaben hingegen veränderten die Kontaktstellen nach dem Input wie ein stiller Nachhall vorübergehend ihre Eigenschaften. Und nur daraus, nicht aber aus dem Neuronenfeuer, ließ sich bei den simplen Vergleichen in allen 20 Netzen vorhersagen, ob sie den Input korrekt abbildeten.


Heftcover Spektrum der Wissenschaft Digitalpaket: Künstliche Intelligenz

Das Kurzzeitgedächtnis setze sich wahrscheinlich aus vielen verschiedenen Prozessen zusammen, schlussfolgern Freedman und seine Kollegen. Um die zugehörigen Muster neuronaler Aktivität zu reproduzieren, hätten sich rekurrierende neuronale Netze schon in der Vergangenheit als erfolgreich erwiesen: »Sie geben Einsicht in neuronale Schaltkreise, die man nicht direkt experimentell messen kann.«
 
Indirekte Hinweise auf die »stille« Seite des Arbeitsgedächtnisses hatten unter anderem schon Psychologen von der University of Oxford per EEG gefunden, wie sie 2017 ebenfalls in »Nature Neuroscience« schilderten. Offenbar verändern eingehende Reize die Kalziumkonzentration an den Synapsen und somit die synaptische Stärke oder Schlagkraft, das heißt die Wahrscheinlichkeit, dass weiterer Input die Nervenzelle zum Feuern veranlasst. Die so genannte synaptische Plastizität – die Fähigkeit der Synapse, ihre Eigenschaften zu verändern – gilt schon seit Mitte des 20. Jahrhunderts als neuronale Grundlage des Gedächtnisses. Zunächst wurde sie aber vor allem mit Blick auf das Langzeitgedächtnis untersucht.


Nota. - Für den Laien interessant: Das Kurzzeitgedächtnis alias Arbeitsspeicher ist kein Subsystem des Langzeitgedächtnisses, noch ist das Langzeitgedächtnis das Archiv des Kurzzeitgedächtnisses. Beide sind überhaupt nicht systemisch miteinander verbunden. Da aber das Langzeitgedächtnis den Arbeits speicher speist - sonst hießen beide anders -, muss wohl dieser einen Zugriff auf jenen haben. Wie das?
JE  

Donnerstag, 13. Juni 2019

Ästhetik in der Naturwissenschaft, III.

Das Farbenspektrum Newtons - auch Newton selber empfand das als besonders schönes Experiment.
aus Tagesspiegel.de, 13. 5. 2019                                                               Das Farbenspektrum Newtons

Physik im Schönheitswah
Welche Rolle spielt Ästhetik in den Naturwissenschaften? 
Wissenschaftler diskutieren, ob "schöne" Experimente die Forschung antreiben - oder sie blockieren.
   
 

Schönheit in der Physik – das erschließt sich vielleicht nicht jedem gleich in der sechsten Klasse. Aber nach einigen Jahren empfindet so mancher diesen Zusammenhang, mancher sieht ihn auch als Wegweiser auf dem Pfad zu neuer Erkenntnis, mancher gar als Dogma, das das Denken bestimmt und vom Weg der Erkenntnis fortführt. Sagen zumindest die Kritiker.

Doch welche Rolle spielt die Ästhetik in den Naturwissenschaften wirklich? Dieser Frage versucht sich Olaf Müller, Professor für Naturphilosophie und Wissenschaftstheorie an der Humboldt-Universität Berlin, seit langem zu nähern.

Das Farbspektrum Newtons Seit 15 Jahren, so erzählt er bei der Vorstellung seines neuen Buchs am Dienstagabend im HU-Senatssaal, lasse er sich von Physikern Experimente zeigen. „Es durchflutet mich mit Freude, wenn ich diese Schönheit sehe.“ Besonders angetan hat es Müller die Versuchsreihe Isaac Newtons, bei der er einen Sonnenlichtstrahl durch ein Prisma in die Dunkelkammer fallen ließ, wodurch der Strahl in alle Farben des Regenbogens auffächert. „Man kann sich kaum sattsehen an den Farben des Spektrums“, schwärmt Müller und kommt sogleich auf die Umkehrung zu sprechen. Wenn weißes Licht sich so zerlegen lässt, so überlegte Newton, muss das farbige auch wieder zurück ins weiße gemischt werden können. Anders ausgedrückt: Was vorwärts geht, geht auch rückwärts.

Newton schaffte es, war aber nicht zufrieden, zu schmutzig sah das Ergebnis aus. Bis zu seinem Lebensende veröffentlichte der Physiker ein halbes Dutzend dieser „Weißsysnthesen“. „Auch in der Mathematik sehen wir oft, dass ein und derselbe Satz zigfach bewiesen wird – aber warum?“, fragt Müller. Er bietet folgende Antwort an. „Sie waren unzufrieden, das Resultat war nicht schön genug.“ Bekanntermaßen gelang die Weißsynthese dank einer speziellen Ausrichtung eines Prismas, die John Desaguliers entwickelt hatte. Sie besticht durch strahlendes Weiß und den Beweis der Symmetrie. „Was vorwärts geht, geht auch rückwärts.“

Symmetrien spielen eine große Rolle in der Physik

Symmetrien spielen überhaupt eine große Rolle in der Physik, in Experimenten wie in Theorien, argumentiert Müller weiter. „Hätten wir Menschen keinen Schönheitssinn, so hätten wir eine ganz andere Physik“, sagt er und formuliert eine wesentliche Botschaften des Buches.

„Ein wirklich großes Werk; ein riesiger Stoff, der auf wunderbare Weise dargeboten wird“, wie Horst Bredekamp. Kunsthistoriker an der HU, meint. Auch er sieht für sein Fachgebiet eine große Kraft in Symmetrien. Doch mindestens ebenso bedeutsam seien Symmetriebrüche, kleine Abweichungen wie beim David von Michelangelo, dessen Hände und Kopf unverhältnismäßig groß sind gegenüber dem Rest seines ansonsten perfekt gestalteten Körpers. „Das macht ihn noch faszinierender.“ Oder eine minimale Abweichungen bei der Ausrichtung der Herrenhäuser Gärten in Hannover. Gerade das Wechselspiel aus Symmetrien und Symmetriebrüchen schaffe eine Lebendigkeit in der Kunst, sagt Bredekamp. Die Rolle der Brüche vermisse er in Müllers Buch.

Wo Kepler irrte

Holm Tetens, Philosoph an der Freien Universität, wirft in seiner durchweg positiven Besprechung des Werks mehrfach die ketzerische Frage auf: Müssen Experimente und Theorien in der Physik nicht in erster Linie und vor allen Dingen wahr sein? Gut möglich, dass bei der Weiterentwicklung von Theorien das ursprünglich Schöne sich in den neuen Verästelungen verliert, es unschön und hässlich wird. „Dann sollten wir noch einmal von vorn beginnen und gegebenenfalls auch Messdaten freier interpretieren“, entgegnet Müller. So wie Kepler, der die naturgemäß fehlerbehafteten Messungen der Planetenpositionen so „interpretiert“ habe, bis aus den damals als schön geltenden kreisrunden Planetenbahnen elliptische wurden.

An dieser Stelle gerät die Argumentation tatsächlich in Schwierigkeiten. Heute weiß man, dass die Orbits elliptisch sind. Keiner käme auf die Idee, diese Form als „hässlich“ zu bezeichnen. Was eben auch bedeutet, dass sich der Schönheitsbegriff im Lauf der Zeit ändert, wie die Theoretische Physikerin Sabine Hossenfelder vom Frankfurt Institute for Advanced Studies erklärt. Sie ist so etwas wie der Gegenpol zu Müller. Mit ihrem Buch „Das hässliche Universum“ rechnet sie mit dem „Schönheitswahn der Theoretischen Physik“ ab, der ihrer Meinung nach dazu beiträgt, dass es seit Jahrzehnten keinen Durchbruch in der Grundlagenphysik mehr gab und der mittlerweile in Konflikt mit wissenschaftlicher Objektivität gerät.

Ein Überschuss an "schönen" Theorien

Sie bezieht sich vor allem auf die Teilchenphysik, wo mit dem Wunsch nach Symmetrie immer neue Partikel postuliert werden, die der Large Hadron Collider am Kernforschungszentrum Cern in Genf nicht fand (mit Ausnahme des Higgs-Bosons) und auch der geplante Nachfolger, der Future Circular Collider, ihrer Meinung nach kaum große Entdeckungen machen wird.

Müller argumentiert mit einer Vielzahl von Fällen, wo sich die Schönheit als erfolgreiches Prinzip erwiesen habe, mehr Fälle als nach dem Zufallsprinzip zu erwarten wäre. Ist das wirklich so? Und falls ja, was ist der Grund für den Überschuss an „schönen Theorien“? Hossenfelder und Müller kommen zu unterschiedlichen Schlüssen. Was sie eint, ist der gleiche Verlag, der ihre Bücher herausgegeben hat – und damit eine gute Basis für weitere Diskussionen schafft.

Olaf Müller: „Zu schön, um falsch zu sein“ (2019), Verlag S. Fischer, 576 Seiten, gebunden, 34 Euro; Sabine Hossenfelder: „Das hässliche Universum – Warum die Suche nach Schönheit die Physik in die Sackgasse führt“ (2018), Verlag S. Fischer, 368 Seiten, 22 Euro.


Nota. -  Ich frage mich, was die vielen Worte sollen. Hat denn einer behauptet, über die Richtigkeit einer naturwissenschaftlichen Theorie müssten ästhetische Gesichtspunkte entscheiden und nicht das Experiment? Es geht doch lediglich um die heuristische Frage: Wo bekomme ich meine Einfälle her? Einer trinkt viel, einer raucht viel, ein anderer guckt Fußball oder Naturreportagen; und besonders Gewitzte versetzen sich in den ästhetischen Zustand. Ästhetische Bilder regen mehr Leute zu eigenem Vorstellen an als eine mathema- tische Formel, und regen sie womöglich zu mehr an als eine mathematische Formel.


Wenn ein Forscher in einem Fachjournal eine neue Theorie vorstellt, erzählt er, wenn ich nicht irre, niemals, wie er darauf gekommen ist, und die Anekdote von Newton und dem Apfel stammt sicher nicht von ihm selber. Und täte er es, würde kein wissenschaftler sie danach beurteilen; sondern nach den Experimenten, die er zu ihrer Unterstützen vorweisen kann.

Gibt es ein Buch über die anregende Wirkung von Kaffee bei der physikalischen Theoriebildung? Und wenn, würden sich wahrscheinlich weniger Wissenschftler davon angeregt fühlen als von einem Buch über Ästehtik und Wissenschaft. Und ganz gewiss würde sich sehr viel weniger Theoretiker angeregt fühlen, selber darüber zu schreiben. Man erwartet einfach, dass beim Ästhetischen mehr kitzliche Sägespäne abfallen.

*

Ach, und da fällt mir ein: Immer mehr Menschen konkurrieren heute in den Wissenschaften, und ihre Forschungen werden immer teurer. Also braucht man Leute, die viel Geld lockermachen. Die muss man motivieren. Da wirkt das Ästhetische sicher nachhaltiger, als wenn man bloß mal einen Kaffee mit ihnen trinkt.
JE 

Dienstag, 11. Juni 2019

Der Fall Birbaumer: eine Systempanne?

aus spektrum.de, 11. Juni 2019


System-Logik: Der Fall Professor Birbaumers
Was uns der Forschungsskandal über das Wissenschaftssystem lehrt

Von Stephan Schleim 

Jetzt ist es also amtlich: “Untersuchungskommission stellt wissenschaftliches Fehlverhalten durch Tübinger Hirnforscher fest” titelt die Pressemitteilung der Universität Tübingen vom 6. Juni. Namen werden darin keine genannt. Bloß vom “Fall zweier Hirnforscher” ist die Rede.

Die Presse war nicht so zurückhaltend. Bereits am 8. April erschien in der Süddeutschen Zeitung ein Artikel über “Massive Zweifel an Studie zum Gedankenlesen.” Science berichtete schon einen Tag später. Dass die Rede vom “Gedankenlesen” hier fehlplatziert ist, lassen wir einmal beiseite.

Es geht schlicht darum, dass (zum Beispiel gelähmte) Versuchspersonen auf Kommando bestimmte Denkprozesse vornehmen, etwa sich die Bewegung mit einem Körperteil vorstellen, die mit bestimmten Gehirnprozessen einhergehen. Diese können unter Umständen über eine Gehirn-Computer-Schnittstelle als Ja-nein-Reaktion interpretiert werden.

Niels Birbaumer, laut SZ “einer der prominentesten Wissenschaftler Deutschlands”, leistete jahrzehntelang Pionierarbeit auf diesem Gebiet. Und diese Forschung ist in der Tat nicht nur wissenschaftlich interessant, indem sie uns mehr über die Arbeitsweise des Gehirns verrät, sondern auch für bestimmte Patientengruppen essenziell: eben diejenigen, die aufgrund fortschreitender Lähmungen nicht mehr mit der Außenwelt kommunizieren können oder eigene Körperfunktionen nicht mehr unter Kontrolle haben. Eine Art Gehirn-Schreibmaschine oder eine gedanklich gesteuerte Neuroprothese kann dann die letzte Hoffnung sein.

Vier Verstöße gegen gute wissenschaftliche Praxis

Keine zwei Monate später liegt nun schon das Untersuchungsergebnis einer Kommission im Auftrag der Universität Tübingen vor. Und diese kommt nun zum Ergebnis, dass der Hirnforscher und ein Kollege auf vier Weisen gegen die Regeln guter wissenschaftlicher Praxis verstoßen haben:
Erstens seien bei der Erhebung Daten selektiv ausgewählt worden: So seien auf nicht nachvollziehbare Weise Datensätze bei der Auswertung nicht berücksichtigt worden. Nach Auffassung der Kommission ist das eine “Verfälschung von Daten durch Zurückweisen unerwünschter Ergebnisse ohne Offenlegung.”

Zweitens seien Daten und Skripte nicht offengelegt worden. Somit konnten die in der strittigen Publikation in der Zeitschrift PLoS Biology aus dem Jahr 2017 veröffentlichten Ergebnisse nicht nachvollzogen werden. Die Kommission nennt das “Verfälschung von Daten durch Unterdrücken von relevanten Belegen.”

Drittens würden Daten schlicht fehlen. Für die Studie wurden von mehreren Patienten tagelang Gehirnströme gemessen, zwischen sechs und 17 Tagen pro Patient. Für mehrere Tage seien aber keine Daten vorhanden. “Nach den Ermittlungen der Kommission stimmt die Anzahl der Tage, zu denen Daten vorliegen, mit der Anzahl der Tage, für die im Artikel Auswertungen dargestellt werden, in keinem Fall überein.”

Viertens und letztens gebe es eine mögliche Datenverfälschung durch eine fehlerhafte Analyse. Die statistischen Berechnungen ließen sich, wie gesagt, ohnehin nicht nachvollziehen. Die Kommission fand aber zusätzlich heraus, “dass ein ehemaliger Mitarbeiter des Seniorprofessors diesen bereits im November 2015 darauf hingewiesen hatte, dass sich aus den Daten in statistisch korrekter Auswertung keine signifikanten Ergebnisse belegen lassen.” Das lässt den Verdacht aufkommen, dass hier bewusst falsche Resultate veröffentlicht wurden.

Solch ein Vorgehen wäre schon bei Grundlagenforschung hochproblematisch. In angewandter Forschung mit Patienten, die, wie hier, im Endstadium völlig gelähmt und somit ausgeliefert (“completely locked-in”) sind und deren Angehörige in der Gehirn-Computer-Schnittstelle die einzige Chance zur Kommunikation sehen, fehlt schlicht ein angemessenes Wort. Das Rektorat der Universität Tübingen kündigte dann auch schon Konsequenzen an, darunter eine Anlaufstelle für die Betroffenen.

Birbaumer wehrt sich

Ich will hier nicht viel über den Einzelfall schreiben, sondern auf ein paar Aspekte der System-Logik der heutigen Wissenschaft hinweisen. Dass Birbaumer die Vorwürfe schon im April als “Blödsinn” bezeichnet und gemeint haben soll, die Untersuchung der Kommission interessiere ihn überhaupt nicht, klingt jedenfalls nicht sehr professoral.

Der SWR berichtet nun von einem Brief des Hirnforschers an die Medien, in dem er behaupte, die Universität sei womöglich einem Informanten aufgesessen, der ihn verleumden wolle. Das überzeugt allerdings wenig, wenn man weiß, dass der Untersuchung und den Medienberichten bereits ein langer Streit innerhalb der Wissenschaft vorangegangen war. Und die Kommission sowohl Birbaumer als auch einen anderen Autor der strittigen Veröffentlichung stundenlang befragte.

Wenn die Vorwürfe haltlos wären, dann hätten sie sich doch in dieser Zeit überzeugend zurückweisen lassen können. Und wenn sich, wie oben genannt, fehlende Daten und Skripte spätestens während der über Monate dauernden offiziellen Untersuchung nicht auftreiben ließen, wie sollte sich daran auf einmal etwas ändern?

PLoS Biology ist auch nicht irgendein Journal, sondern genießt einen guten Ruf. Die Redakteure der nun seit 15 Jahren bestehenden Zeitschrift wollten es gerade besser machen als die herkömmlichen Publikationsorgane des Mainstreams: Open Access und so viel wie möglich Open Data als Garant für Offenheit und höchste wissenschaftliche Standards.

Die Dachorganisation PLoS (für Public Library of Science) gibt inzwischen zehn Journals heraus und operiert nicht auf Profitbasis. PLoS Biology ist die älteste davon und gilt laut dem Web of Science als die am dritthäufigsten zitierte Zeitschrift von 85 in der Kategorie Biologie und ist auf Platz 18 von 293 in der Kategorie Biochemie/molekulare Biologie.


Schlüsse auf die System-Logik

Das erste allgemeine Problem, das hier ans Tageslicht kommt, betrifft das Gutachtersystem: Fachkollegen sollen unabhängig und anonym die Methodik und Ergebnisse so einer Studie überprüfen. Das nennen wir Peer Review.

In so einer Forschungsarbeit wie der hier vorliegenden steckt wahrscheinlich monatelange Arbeit, nicht nur für die Datenerhebung, sondern auch die Auswertung und Interpretation. Von Gutachtern wird nun erwartet, diese Arbeit neben den schon zwingend vorhandenen Forschungs-, Lehr- und Verwaltungstätigkeiten durchzuführen – und das alles gratis, aus purem Idealismus.

Dass man als Gutachter überhaupt Originaldaten mitgeschickt bekommt und nicht nur die Ergebnisse, ist eher schon die Ausnahme. Aber wer hat selbst dann Zeit und Muße, alle Auswertungsschritte nachzuvollziehen? Dass selbst die Untersuchungskommission nicht alle Daten oder wenigstens die Skripte, mit denen sie ausgewertet wurden, vorgelegt bekam, stärken meine Vermutung, dass die Peer Reviewer hier nur eine Plausibilitätskontrolle vornehmen konnten. Für mehr reicht die Zeit meist auch gar nicht.

Für eine allumfassende Kontrolle müsste man schlicht Vollzeitpersonal einstellen, das nichts anderes macht, als die Berechnungen und Schlussfolgerungen anderer nachzuvollziehen. Woher sollte aber das Geld hierfür kommen, wo ohnehin viele Forschungszweige und -Institute schon unter Kürzungen leiden? Ab einem gewissen Grad muss man im heutigen System den Forscherkollegen schlicht vertrauen.

Dabei ist noch gar nicht berücksichtigt, dass die Gutachter in so einem hochspezialisierten Gebiet wahrscheinlich alte Bekannte sind, die dem Autorenteam nicht völlig neutral gegenüberstehen (Warum die Wissenschaft nicht frei ist). Das kann sich übrigens sowohl positiv als auch negativ auswirken. Die Letztentscheidung über die Publikation obliegt den Redakteuren, die in erster Linie ihren Unternehmen gegenüber verantwortlich sind und nicht der Wissenschaft.

Karriere nach dem Konkurrenzprinzip

Nun sind die Publikationsplätze in den angesehensten Zeitschriften künstlich beschränkt. Dort, wo die meisten Wissenschaftler publizieren wollen oder müssen, werden die meisten Manuskripte ohne jegliche Begutachtung gleich von der Redaktion abgelehnt. Nature, Science oder auch PNAS gehören dabei zu den begehrtesten Zeitschriften.

Dabei darf man nicht vergessen, dass die Publikationsorgane selbst im Wettbewerb um Aufmerksamkeit und Zitationen stehen, die sich in Einfluss und finanziellem Gewinn ausdrücken. Nature bekommt inzwischen übrigens jährlich mehr als 10.000 Manuskripte zugeschickt, von denen weniger als 8% veröffentlicht werden. In den 90ern waren es noch um die 8.000, von denen schließlich über 10% akzeptiert wurden.

Ein Kollege aus der Psychologie berichtete mir einmal von seiner jahrelangen Durststrecke, in der er auf Bewerbungen um Professuren nur Absagen erhalten habe. Auf Nachfrage habe ihm ein Bekannter gesagt: “Du hast zwar einen guten Lebenslauf. Dir fehlt aber noch die eine Nature-Publikation.” Dieser Bekannte hat ausgeharrt und inzwischen seinen Lehrstuhl (und für ihn noch wichtiger: endlich ein Kind), auch ohne Nature. Doch nicht jeder hat so viel Geduld.

Wir haben jetzt also schon die Zutaten Wettbewerb, mitunter wird gar vom Hyperwettbewerb gesprochen, dazu kommen begrenzte Ressourcen, Konkurrenz – um Stellen und Forschungsmittel – und begrenzte Kontrolle. Letztere bezieht sich sowohl auf das, was die Gutachter tun können, als auch auf die Anonymität ihres Handelns und auf die Entscheidung der Redakteure.

Nun hatten wir im Sport (Doping), in der Wirtschaft (Korruption) und in der Politik (Vetternwirtschaft) in den letzten Jahren schon so viele Skandale. Sollten wir einfach so glauben, dass Wissenschaftler über alle menschlichen Motive und Bedürfnisse erhaben sind? Im Hyperwettbewerb? Damit ist nicht gesagt, dass es zwangsweise schiefgehen muss. Allerdings sind in der System-Logik bestimmte Stellschrauben darauf ausgelegt.

Das Schweigen der Fachwelt

Bemerkenswert ist auch, dass sich bei der umfangreichen Untersuchung durch die Süddeutsche Zeitung kein einziger Fachkollege namentlich zum Fall Birbaumers äußern wollte. Dazu hieß es in der immerhin zwölfseitigen Reportage im SZ-Magazin:
Namentlich will niemand genannt werden. Das sei gefährlich, sagen sogar jene, die längst nicht mehr angewiesen wären auf das Wohlwollen des berühmten Pioniers ihres Fachs. “Wir kennen uns alle sehr gut”, erklärt ein Professor, “jeder ist Gutachter von jedem.” Birbaumer habe einen “Riesenruf” und viel Einfluss. (SZ Magazin 15/2019, S. 14)
Die einzigen Ausnahmen waren der junge Informatiker Martin Spüler, der mit seinen Auswertungen und seiner Beharrlichkeit den Stein überhaupt erst ins Rollen brachte. Sein Vertrag wurde von der Universität Tübingen übrigens nicht verlängert. Und eine extern eingeschaltete Statistikerin, die die Datenauswertung der strittigen Studie laut SZ als “praktisch wertlos” bezeichnet.

Das hört sich jedenfalls nicht nach einer freien Kommunikationskultur an. Und gerade das Gutachterwesen ist hier ein Knackpunkt: Der Kollege, den man heute kritisiert, kriegt morgen vielleicht schon die Publikation oder den Forschungsantrag zur Beurteilung, an dem die zukünftige Karriere hängt. In einem kleinen Fachgebiet ist das sogar recht wahrscheinlich.

Kein Raum für Zweifel und Kritik

Aus System-Logik ist es so, dass man sich mit Kritik vor allem Feinde schafft. Belohnt wird das keinesfalls. Warum sollte man also diesen Preis bezahlen, wenn man in der Wissenschaft Karriere machen will? Ähnlich wurde auch Karl Poppers Falsifikationismus in die Schranken verwiesen: Wissenschaftler würden ihre Hypothesen oder Theorien in der Praxis gar nicht widerlegen, sondern vor allem bestätigen wollen.

Laut Popper kommt die Wissenschaft als ganze aber gerade durch die Falsifikation starker Theorien voran. Für einen Wissenschaftler kann die Einsicht, dass der jahrelang verfolgte Ansatz nicht funktioniert, mitunter ein ganzes Lebenswerk in Frage stellen. Da bedarf es schon besonderer Charakterstärke, sich dem zu stellen.

Dazu ein denkwürdiges Zitat aus der Denkschrift zur Sicherung guter wissenschaftlicher Praxis der Deutschen Forschungsgemeinschaft (DFG):
Forschung als Tätigkeit ist Suche nach neuen Erkenntnissen. Diese entstehen aus einer stets durch Irrtum und Selbsttäuschung gefährdeten Verbindung von Systematik und Eingebung. Ehrlichkeit gegenüber sich selbst und gegenüber anderen ist eine Grundbedingung dafür, dass neue Erkenntnisse – als vorläufig gesicherte Ausgangsbasis für weitere Fragen – überhaupt zustande kommen können. “Ein Naturwissenschaftler wird durch seine Arbeit dazu erzogen, an allem, was er tut und herausbringt, zu zweifeln, … besonders an dem, was seinem Herzen nahe liegt.” (DFG Denkschrift, 2013, S. 40)
Die fast schon rührende Sache mit dem Herzen ist ein Zitat des Physikers Heinz Maier-Leibnitz (1911-2000), der früher selbst Präsident der DFG war. Der Satz steht in seinem Aufsatz “Über das Forschen” aus dem Jahre 1981. Er wirkt auf mich aber wie ein Anachronismus.

Nach meiner Erfahrung haben Forscher heute gar keine Zeit zum Zweifeln. Jedes Experiment, das man nicht veröffentlicht, ist ein möglicher Wettbewerbsnachteil im Konkurrenzkampf. Nach Thomas Kuhns Paradigmenmodell kann allenfalls in der vorwissenschaftlichen Phase gezweifelt und gestritten werden. Kommt ein Paradigma aber erst einmal ins Rollen, dann geht es schlicht um Produktivität. “Stillstand ist der Tod”, könnte man mit Herbert Grönemeyer singen.

Von mutigen jungen Leuten

Bleiben wir noch einen Moment bei der Tatsache, dass der beharrliche Kritiker, der für Birbaumer und seinen Mitarbeiter zum Problem wurde, ein junger Informatiker ist, namentlich Martin Spüler.
Beim Aufdecken des umfangreichen Forschungsbetrugs des Sozialpsychologen Diderik Stapel von der Universität Tilburg in den Niederlanden vor ein paar Jahren war es auch ein junger Wissenschaftler, der sich gegen den Widerstand des Establishments durchsetzen musste. Und dem Harvard-Primatologen Marc Hauser wurden die eigenen studentischen Hilfskräfte zum Verhängnis, die unmoralische Praktiken des Moralforschers ans Tageslicht brachten (Unmoralischer Moralforscher?).

Wie gesagt, es gibt überhaupt keinen Anreiz, im Gegenteil sogar viele Gründe dagegen, einem Forscher öffentlich Fehlverhalten nachzuweisen. Das gilt umso mehr für Koryphäen wie Birbaumer, Hauser oder Stapel. Die Mehrheit übt sich dann lieber in Schweigen und es sind nur ein paar unverbesserliche und unangepasste Idealisten, die sich die Unbequemlichkeit des Zweifels zumuten und dafür sogar ihren Kopf hinhalten.

Stephan Schleim

Aus eigener Erfahrung

An dieser Stelle kann ich eine eigene Erfahrung hinzufügen: Ich hatte nicht viel mit Birbaumer zu tun, der übrigens meine am häufigsten zitierte Arbeit begutachtete, jedoch einmal mit einem jungen Wissenschaftler aus seinem Institut.

Wir hatten ein gemeinsames Forschungsprojekt, an dem noch einige andere beteiligt waren. Auf eine gemeinsame Tagung lud dieser Kollege seinen Chef als Sprecher ein, also Birbaumer. Der Rest von uns hatte jeweils externe Fachleute eingeladen, die neue Perspektiven in die Diskussion einbrachten.
Mit diesem Forscher hatte ich ein gemeinsames Experiment geplant: Ein Versuch mit dem Kernspintomographen (fMRT) aus meiner Forschung sollte mit einer Interventionsstudie mit transcranieller Gleichstromstimulation (TDCS) aus seiner Forschung kombiniert werden. Gesagt, getan.

Der Kollege schien mir dann aber recht schnell die Daten bestimmter Versuchspersonen auszuschließen, die nicht zur Hypothese passten, siehe “selektive Datenauswahl” oben. Mein Verdacht, dass hier nicht alles mit rechten Dingen zugeht, interessierte aber niemanden. Stattdessen entstand eine Meinungsverschiedenheit darüber, wer nun Erst- und Letztautor sein würde, die wichtigsten Stellen auf der Autorenliste.

Letztlich lief es darauf hinaus, dass ich, der den Großteil der experimentellen Arbeit und 100% der Schreibarbeit für das erste Manuskript geleistet hatte, die erste Stelle aufgeben sollte. Da ließ ich es bleiben. Mein Dateisystem verrät mir, dass dieses Manuskript seit dem 30. März 2009 unangetastet blieb. Gemäß der System-Logik gab es aber jeden Anreiz, es doch zu veröffentlichen.

Der Forscherkollege, der sich, wie ich später herausfand, auch schon lange Doktor genannt hatte, bevor er promoviert war (siehe übrigens §132a StGB), rief mich noch Jahre später in Groningen an, ob ich die Arbeit nicht doch noch veröffentlichen wolle. Das habe ich jeweils diplomatisch abgelehnt.
Dabei half mir aber auch, dass das Psychologische Institut der Universität Groningen meine Arbeit inhaltlich beurteilte und wertschätzte, und nicht nur auf die Anzahl und die Zeitschriften meiner Publikationen schielte. Das ist eine alternative System-Logik, die meiner Erfahrung nach heute leider eher die Ausnahme als die Regel ist.

Den Ruf wahren

In der Reportage über den Fall Birbaumers im SZ-Magazin wird noch ein anderer interessanter Aspekt genannt, der die Sache weiter verkompliziert: Da äußern sich die – aus besagten Gründen lieber anonym bleibenden – Forscherkollegen dahingehend, dass hier der Ruf eines ganzen Forschungsgebiets auf dem Spiel stehe, eben das der Gehirn-Computer-Schnittstellen. Wenn nun einer Koryphäe aus diesem Gebiet wissenschaftliches Fehlverhalten nachgewiesen wird, dann beschädige das möglicherweise das ganze Feld.

Das ist nun ein hervorragendes Beispiel strategischen Denkens, das einerseits menschlich nachvollziehbar ist, die Sache andererseits aber nur schlimmer macht. Denn für das Forschungsgebiet wäre es natürlich besser gewesen, wenn die Fachkollegen die Probleme selbst aufgedeckt hätten und das nicht einem idealistischen Informatiker überlassen hätten, der dem Anschein nach dafür jetzt auch noch von seinem Arbeitgeber geschasst wurde. So viel zum Mythos, die Wissenschaft korrigiere sich auf lange Sicht selbst.

Dieser Arbeitgeber könnte selbst einen Interessenkonflikt in der Sache haben. So wird in der SZ-Reportage darauf verwiesen, dass die Universität Tübingen ihren Ruf als Exzellenzuniversität zu verlieren hat. Es könnte durchaus sein, dass Birbaumers Name in der milliardenschweren Bewerbungsrunde großes Gewicht hatte.

So verrät mir das Web of Science, dass er 811 Veröffentlichungen hat, von denen neun mehr als 500-mal zitiert wurden. Die Nature-Journals tauchen dabei zehnmal auf, Science einmal, PNAS viermal. Mitveröffentlichte Daten gebe es übrigens nur für sieben, also nicht einmal ein Prozent.

So hat auch die Exzellenzuniversität Tübingen durch eine Aufklärung nichts zu gewinnen und möglicherweise viel zu verlieren. Das folgt aus der System-Logik. Was jetzt geschieht, wo sich die Probleme nicht länger leugnen lassen, dürfte vor allem Schadensbegrenzung sein.

Im Falle Hausers hatte sich die Harvard-Universität übrigens sehr bedeckt gehalten und auch die Frage des Vorsatzes offengelassen. In dieser Hinsicht war die Universität Tübingen bisher immerhin transparenter.

Die Göttinger Sieben

An dieser Stelle will ich einen kurzen historischen Exkurs einschieben: Bewegen wir uns 450km nördlich von der Eberhard-Karls-Universität Tübingen (laut Selbstdarstellung “ein Ort der Spitzenforschung und der exzellenten Lehre”), dann gelangen wir zur Georg-August-Universität Göttingen (“zum Wohle aller”). Dort ereignete sich 1837 eine Revolte sieben widerspenstiger Professoren, eben der Göttinger Sieben, die sich gegen den Staatsstreich des neuen Königs Ernst August I. stellten.

Dieser erklärte das unter der Herrschaft seines Bruders Wilhelm IV. verabschiedete liberale Staatsgrundgesetz des Königtums Hannover, auf das die Professoren vereidigt worden waren, für nichtig. Denn es war ja ohne seine Mitwirkung zustande gekommen. Zu den dagegen protestierenden Sieben zählten auch die Germanisten und Rechtswissenschaftler Jacob und Wilhelm, besser bekannt als Gebrüder Grimm.

Amts- und Würdenträger der Universität fielen den Göttinger Sieben schnell in den Rücken und dienten sich lieber beim neuen König an. Gut für die Karriere wird es wohl gewesen sein. Schlecht jedoch für das Ansehen der Uni, an die in den Folgejahren weniger Studierende und hochkarätige Professoren kamen.

Von den sieben Widerspenstigen, die ihrer Ämter enthoben wurden, verbannte der König sogar drei des Landes, darunter Jacob Grimm. Dieser Workaholic begann schon im Folgejahr zusammen mit seinem eher müßiggängerischen Bruder Wilhelm die Arbeit am Deutschen Wörterbuch. Dieses wurde, übrigens auch von der DFG gefördert, erst 1961 fertig, also 123 Jahre später, und umfasst 17 Bände, die heute jeder auf den Seiten der Universität Trier (“eine junge Universität in Deutschlands ältester Stadt”) gratis im Internet durchstöbern kann.

Die Grimms fanden schon bald ein neues Zuhause, nämlich in Berlin beim preußischen Friedrich Wilhelm IV., der damals für seine liberale Haltung und Wissenschaftsfreundlichkeit bekannt war. In der Zwischenzeit hatten Bürger die Sieben mit Spendenaktionen unterstützt.

Das sei noch dem Informatiker mit auf den Weg gegeben, dessen Vertrag von der Universität Tübingen nicht verlängert wurde. Er findet bestimmt bald etwas Besseres. Und Günter Grass hat auch dargelegt, dass man vom durchschnittlichen Professor nicht zu viel Rückgrat erwarten sollte. (Lesetipp: Grimms Wörter.)

Das deutsche Doktoranden(un)wesen

Zum Schluss noch ein paar Gedanken zu einer Spezialität des deutschen Wissenschaftsbetriebs, nämlich der Doktorandenausbildung. Da kommt es nämlich regelmäßig vor, dass der Doktorvater auch der Gutachter der Dissertation ist. Hier in den Niederlanden und, nach allem was ich weiß, in Großbritannien, ist das dagegen ausgeschlossen.

Der Doktorvater schlägt hier zwar jemanden zur Promotion vor – das Urteil muss aber eine davon unabhängige Kommission fällen. Wobei “unabhängig” wieder so eine Sache ist. Formal stellt der Dekan, der Chef einer Fakultät, die Promotionskommission zusammen.

Der wird sich aber wahrscheinlich für Vorschläge bedanken, die ihm Zeit und Mühe sparen. Und der Dekan beziehungsweise die Fakultät hat wiederum auch ein Interesse daran, dass eine Doktorarbeit erfolgreich abgeschlossen wird. Bei uns gibt es dafür sogar einen dicken finanziellen Bonus.

Das ist aber unabhängiger als das deutsche Modell, in dem der Betreuer gleichzeitig auch der Chef (im Falle einer Anstellung als wissenschaftlicher Mitarbeiter) und der Gutachter ist. Ein Schelm, wer denkt, dass so eine mehrfache Abhängigkeit zu Ausbeutung der in Deutschland in der Regel ohnehin unterbezahlten Doktoranden führen kann.

So ist es natürlich auch mir niemals passiert, dass mir unbezahlte Lehre erst schmackhaft gemacht wurde (“gut für deinen Lebenslauf”) oder später Druck ausgeübt wurde (“die anderen stellen sich auch nicht so an”). Und der Geldgeber, eine große Stiftung in Deutschland, hat natürlich Jahre später, als ich dieses Problem nicht ansprach, die Verantwortung nicht auf die Forschungsinstitution abgewälzt: “Wir vertrauen darauf, dass dort die Richtlinien des Arbeitsvertrags eingehalten werden.”

Die Forschungsinstitution hat aber doch ein Interesse daran, Mittel für das Lehrpersonal zu kürzen und lieber in die Anschaffung teurer Apparate oder einen dicken Bonus zum Einwerben einer Koryphäe zu investieren, die dem Prestige nutzen. Das ist wieder System-Logik und hilft vielleicht sogar bei im Exzellenzwettbewerb.

Wer wäre für die Ausbeutung geeigneter als die Knechte der Wissenschaft, eben die Doktoranden in ihrer mehrfachen Abhängigkeit? Medizindoktoranden (in Deutschland) machen das für ihren “Titel” mitunter sogar völlig gratis. Dementsprechend ist ihr akademischer Grad dann auch nicht so viel wert.

Das Schwert des Strafrechts

Man könnte einmal erwägen, ob in den notorischen Fällen solchen Missbrauchs nicht der Tatbestand der Untreue (§266 StGB) erfüllt sein könnte. Immerhin werden dann dezidierte Forschungsmittel zur Füllung von Löchern in der Lehre zweckentfremdet. Auf Untreue stehen neben Geldstrafe übrigens bis zu fünf Jahre Freiheitsstrafe.

Vielleicht liegt in dem einen oder anderen Fall auch eine Nötigung (§240 StGB) vor. Einem widerspenstigen Doktoranden könnte man doch Schwierigkeiten bei der Begutachtung der Dissertation in Aussicht stellen, etwa indem man ein Gutachten so lange verschiebt, bis der Termin der Verteidigung platzt. (Nicht, dass dem Autor dieses Texts so etwas passiert wäre.)

Da könnte doch das ein oder andere Rückgrat brechen, zumal eine nicht abgeschlossene Promotion Schwierigkeiten bei Folgebewerbungen oder gar das Ende der wissenschaftlichen Laufbahn bedeuten kann. Natürlich bleibt man auch auf Empfehlungsschreiben der Professoren angewiesen.

Auf Nötigungen stehen neben Geldstrafe übrigens bis zu drei Jahre Freiheitsstrafe. Mit Ausnahme von schweren Fällen (§240 StGB, Absatz 4), etwa bei Amtsträgern, dann sind es fünf Jahre. Und was war noch einmal ein Professor? Vielleicht ein Landesbeamter?

Verbesserungsvorschläge

Enden wir aber nicht so trist. Und ich will auch keine guten Leute davon abhalten, in die Wissenschaft zu gehen. Wer aber freie, unabhängige und ehrliche Forschung möchte, der sollte die System-Logik auch demnach ausrichten. Förderlich wären dafür meiner Meinung nach:
  • Offenlegung der Daten zusammen mit der Publikation (Open Data);
  • Offenlegung der Gutachten mit, nach Möglichkeit, Namen der Gutachter;
  • Offenlegung der Entscheidung der Redaktion, eine Arbeit zu akzeptieren beziehungsweise abzulehnen;
  • eine unabhängige Schiedsstelle, an der solche Entscheidungen begründet angefochten werden können;
  • die vorherigen drei Punkte könnte man auch für die Vergabe von Forschungsmitteln und die Besetzung von Lehrstühlen erwägen, wo es um öffentliche Mittel und öffentliche Einrichtungen geht;
  • kontinuierliche Kontrolle und Diskussion durch die wissenschaftliche und Internetgemeinschaft, die durch Open Access und Open Data möglich werden;
  • sinnvolle Beurteilungskriterien in der Wissenschaft auf allen Ebenen, die vor allem inhaltlich ausgerichtet sind und nicht bloß quantitativ;
  • ehrliche Bezahlung für das Personal auf allen Ebenen;
  • Vermeidung mehrfacher Abhängigkeiten, insbesondere bei den Doktoranden;
  • Raum für Zweifel und Kritik in der Wissenschaft, nicht nur für Pragmatiker und Opportunisten; und
  • Einbeziehung von Personen von außerhalb der Wissenschaft, ähnlich der Laienrichter in bestimmten Gerichtsverfahren.
Diese Vorschläge wären zugegebenermaßen ein radikaler Bruch mit der gewachsenen Tradition. Aber wenn man einmal genauer darüber nachdenkt, handelt es sich in den meisten Fällen um logische Prinzipien eines demokratischen Rechtsstaats. Dass etwa ein Strafgericht eine Entscheidung im Geheimen träfe, ohne jede Möglichkeit eines effektiven Einspruchs, und auf der Basis unbekannter Gutachter, würden wir eher mit einem totalitären Regime in Zusammenhang bringen. Ein offenes und faires Verfahren ist ein Menschenrecht. Warum akzeptieren wir wie selbstverständlich, dass es in der Wissenschaft anders zugeht?

Die Vorgänge haben neben der System-Logik aber auch noch eine individualpsychologische Ebene: Warum geht jemand überhaupt so weit, seine Daten zu manipulieren? Um eine Publikation in einem bestimmten Medium zu erzielen, die wiederum ein Türöffner für Forschungsmittel, Stellen, Macht, Einfluss und Geld ist? Es muss erst ein persönlicher Bewertungs- und Identifikationsprozess stattgefunden haben, der diesem Ziel, der Professur oder der Institutsleitung, so einen hohen Wert beimisst.

Es ist ja nicht so, dass jemand, der keine wissenschaftliche Laufbahn einschlagen kann, darum gleich verhungern müsste. Es geht also nicht ums pure Überleben, sondern um die Ausrichtung des Selbstwerts an einem bestimmten äußeren Maßstab. Und woher kommt der? Dafür kann es in der individuellen Autobiographie Gründe geben. Die starke Ausrichtung auf die “Exzellenz” trägt aber das Ihre dazu bei.

Dann leben wir eben in einer Welt, in der wir so tun, als ob die obersten zehn Prozent alles wären, und wir den ganzen Rest als zweitklassig abstempeln. Auch hierin äußert sich die System-Logik des Konkurrenzprinzips, wie sie nicht zuletzt die Bologna-Erklärung von 1999, die in Kürze ihr zwanzigjähriges Jubiläum haben wird, in die Wissenschaft zementiert hat (Fünfzehn Jahre Bologna-Erklärung – eine Polemik).

Dem möchte ich hier noch einmal die für mich echte Bologna-Erklärung entgegenstellen, nämlich die Magna Charta Universitatum von 1988, die inzwischen von immerhin 388 Rektoren von Universitäten weltweit unterzeichnet wurde, und in der es unter anderem heißt,
dass die Zukunft der Menschheit … in hohem Maße von der kulturellen, wissenschaftlichen und technischen Entwicklung abhängt, die an Universitäten als den wahren Zentren der Kultur, Wissenschaft und Forschung stattfindet; dass die Aufgabe der Universitäten, der jungen Generation Wissen zu vermitteln, die ganze Gesellschaft betrifft, deren kulturelle, soziale und wirtschaftliche Zukunft besondere Bemühungen um ständige Weiterbildung erfordert; dass die Universität eine Bildung und Ausbildung sicherstellen muss, welche es künftigen Generationen ermöglicht, zum Erhalt des umfassenden Gleichgewichts der natürlichen Umgebung und des Lebens beizutragen. (Magna Charta Universitatum)
Und um diese Ziele zu erreichen heißt es unter anderem in den Grundsätzen der Charta, dass die Universitäten “gegenüber allen politischen, wirtschaftlichen und ideologischen Mächten unabhängig sein” und an ihnen zur “Wahrung der Freiheit von Forschung und Lehre … allen Mitgliedern der Universitätsgemeinschaft die zu ihrer Verwirklichung erforderlichen Instrumentarien zur Verfügung stehen” müssen.

Hinweis: Dieser Beitrag erscheint parallel auf Telepolis – Magazin für Netzkultur.

Donnerstag, 6. Juni 2019

Geheimnis des Quantensprungs entdeckt?

aus spektrum.de, 05.06.2019

Geheimnis des Quantensprungs gelüftet?
Mit einem ausgeklügelten Experiment nähern sich Physiker einem 100 Jahre alten Rätsel: Was passiert vor einem Quantensprung? Und lässt sich dieser wirklich nicht stoppen?

von Robert Gast

Der Quantensprung ist ein ewiges Missverständnis: Immer wieder taucht er in den Reden von Politikern und Unternehmern auf und dient dort als Metapher für eine gewaltige Veränderung. Physiker zucken in solchen Situationen für gewöhnlich zusammen, denn Quantensprünge sind eigentlich bloß winzige Hüpfer von Elektronen zwischen verschiedenen Schalen eines Atoms.

Besonders an ihnen sind drei Dinge: Erstens sind die Sprünge nur zwischen bestimmten Energieniveaus möglich. Zweitens scheinen die Hüpfer zufällig zu erfolgen. Und drittens kann man die Elektronen während des Kunststücks nicht beobachten oder beeinflussen. So sah es zumindest der berühmte Physiker Niels Bohr, der sich das Konzept 1913 ausdachte.

Doch dieses traditionelle Bild könnte nicht ganz stimmen, berichtet nun ein Team um Zlatko Minev von der Yale University im Fachmagazin »Nature«. Den Forschern zufolge könnte es einerseits Indizien geben, dass ein Quantensprung unmittelbar bevorsteht. Andererseits lasse sich dieser sogar stoppen, wenn man genau zur richtigen Zeit einschreitet.

Diese Erkenntnisse ziehen die Physiker aus einem ausgeklügelten Experiment, das sie in einem supraleitenden Schaltkreis durchgeführt haben. In diesem gibt es drei Energieniveaus, zwischen denen ein künstliches Atom hin- und herwechseln kann. Zwei davon sollen das Grundniveau und einen angeregten Zustand in einem gewöhnlichen Atom repräsentieren. Das dritte Level in dem Schaltkreis dient zur Kontrolle.

Spektrum Kompakt:  Quantentechnologien – Auf dem Weg zur Anwendung
Das könnte Sie auch interessieren:
Spektrum Kompakt: Quantentechnologien – Auf dem Weg zur Anwendung

In ihrem Versuch feuerten die Forscher einen Strahl aus Mikrowellen in den Schaltkreis, worauf das System zunächst schnell zwischen dem Grundzustand und dem Kontrollzustand hin- und hersprang. Über eine an den Kontrollzustand angeschlossene Leitung gab es bei jedem dieser Sprünge ein kleines Energiepäckchen ab, was zu einem stetig oszillierenden Signal in dem angeschlossenen Messgerät führte.

Hin und wieder absorbierte das künstliche Atom jedoch eine Mikrowelle mit anderer Energie, wodurch es in den dritten Zustand des Systems springen konnte, der für längere Zeit Bestand hatte. In diesem Fall schlug das an den Kontrollzustand angeschlossene Messgerät nicht aus.

Zur Überraschung der Forscher blieb der Kanal jedoch bereits in den Mikrosekunden vor dem Sprung stumm. Das Team um Minev interpretiert dies so, dass sich das Versuchsatom gewissermaßen auf den anstehenden Hüpfer vorbereitet. Der Gruppe will es anschließend sogar gelungen sein, einen bereits begonnenen Quantensprung umzukehren: Wenn sie genau zum richtigen Zeitpunkt ein elektrisches Signal in den Schaltkreis einspeisten, machte das System kurzerhand kehrt und fiel in den Grundzustand zurück.

Noch muss sich zeigen, ob die Arbeit und ihre spektakuläre Interpretation dauerhaft Bestand haben wird. Sie wurde zwar von Gutachtern geprüft. Es ist jedoch wahrscheinlich, dass Quantenphysiker den Aufsatz in den kommenden Wochen und Monaten kontrovers diskutieren werden.




Nota. - Sensation machte der Quantensprung seinerzeit, weil er das Kausalitätsgesetz durchbrach: Er schien zufällig stattzufinden, ohne 'hinreichenden Grund'. Wenn das Prinzip von Ursache und Wirkung schon ganz unten in der physischen Welt ausfiel - wie dürfte man glauben, dass es weiter oben im Rest der Wirklich- keit wieder zuträfe? 

Sollte es nun so sein, dass sich ein vorbereitender Zustand vor dem Quantensprung beobachten lässt, dann wäre der Quantensprung selbst nicht mehr 'zufällig', sondern sachlich bedingt.

Wie 'notwendig' allerdings der vorbreitende Zustand war, ist die nächste Frage. Wurde er von außen indu- ziert, kann man ihn jedenfalls nicht 'der Natur' anlasten.
JE

Mittwoch, 5. Juni 2019

Vereinheitlichung physikalischer Theorien.

 
aus spektrum.de, 2. Juni 2019

Vereinheitlichung von Theorien

Von Josef Honerkamp

Liebe Leserinnen und Leser meines Blogs, dies ist der letzte Beitrag in der Serie von Posts, die ich in den letzten 20 Wochen hier jeweils am Wochenende eingestellt habe. Jetzt muss ich erst einmal eine Pause machen, um dann diese Texte im Hinblick auf ein Buch zu überarbeiten und gegebenenfalls zu ergänzen. Viel muss dafür noch getan werden. Ich bin gespannt, wohin mich das noch führen wird.
—————————————————————————————————————

Nach der Übersicht über die Theorien für fundamentale Wechselwirkungen und einem Bericht darüber, wie dort jeweils die Axiome gefunden worden sind, soll jetzt dargelegt werden, wie man die Realisierung der Idee einer vereinheitlichten Theorie aller fundamentalen Kräfte bzw. Wechselwirkungen im Laufe der Zeit vorangetrieben hat und wie weit man inzwischen dabei gekommen ist.

Im vorletzten Blog habe ich den Raum der Phänomene eingeführt. Ein anderer nützlicher Begriff in diesem Zusammenhang ist der „Gültigkeitsbereich“ einer Theorie. Dieser umfasst alle Phänomene, die im Rahmen der Theorie erklärt werden können. Aussagen über ein Phänomen eines Gültigkeitsbereichs können dann, bei Berücksichtigung aller gegebenen Umstände, aus den Axiomen mit Hilfe mathematischer Methoden abgeleitet werden und stimmen im Rahmen der Messunsicherheiten mit den experimentellen Ergebnissen bzw. Beobachtungen überein.

Der Gültigkeitsbereich und mögliche Erweiterungen

So umfasst der Gültigkeitsbereich der Newtonschen Mechanik alle Bewegungen materieller Körper am Himmel und auf der Erde. So dachte man wenigstens, bevor Albert Einstein die Spezielle Relativitätstheorie entwickelte. Heute haben wir mit dieser Relativitätstheorie eine neue Theorie, die auch für all diese Bewegungen zuständig sein soll, dabei aber einen viel größeren Gültigkeitsbereich als die Newtonsche Mechanik besitzt. Dieser erwies sich nämlich auf Phänomene beschränkt, in denen nur Geschwindigkeiten auftreten, die vernachlässigbar gegenüber der Lichtgeschwindigkeit sind.

Mit der speziellen Relativitätstheorie haben wir den Fall einer neuen Theorie vor uns, mit der eine bestehende Theorie „erweitert“ wird, d.h. mit der ihr Gültigkeitsbereich erweitert wird. Für kleine Geschwindigkeiten stimmen beide Theorien überein, Je größer die Geschwindigkeit wird, umso größer wird auch der Unterschied, umso mehr kommen auch Eigenschaften von Raum und Zeit zum Vorschein, die in der Relativitätstheorie richtig beschrieben werden, in der Newtonschen Theorie aber gar nicht thematisiert werden konnten, weil entsprechende Phänomene bei ihrer Entwicklung gar nicht bekannt sein konnten.

Deshalb ist die Newtonsche Theorie nicht als falsch zu bezeichnen und die spezielle Relativitätstheorie dagegen als wahr. „Falsch“ und „wahr“ sind für Aussagen angemessene Kategorien, aber nicht für Theorien. Man kann nur von deren Gültigkeitsbereich reden, für die Phänomene in diesem Bereich gibt es dann wahre Aussagen. Eine ernst zu nehmende Theorie hat einen respektablen Gültigkeitsbereich, aber auch der kann immer noch erweitert werden, wie man an diesem Beispiel sieht. Vielleicht ist ja auch die spezielle Relativitätstheorie noch nicht das Ende der Fahnenstange.

Der Begriff des Gültigkeitsbereichs ist auch hilfreich, wenn man verstehen will, was sich an bestimmten Wendepunkten der Physik ereignet hat, z.B. bei der Entdeckung der Quantenhaftigkeit der Natur zu Beginn des letzten Jahrhunderts. Zwei beeindruckende Phänomene haben damals die Physiker beschäftigt. Die besten Physiker, Max Planck und Albert Einstein, haben dafür jeweils eine Erklärung geben können und dabei die ersten Schritte in eine Quantenphysik getan. Beide Phänomene waren im Rahmen der Elektrodynamik nicht mehr zu verstehen, sie lagen schon außerhalb der Grenzen ihres Gültigkeitsbereichs.

Es war einerseits die sogenannte Hohlraumstrahlung, das ist die elektromagnetische Strahlung, die von einer kleinen Öffnung eines Hohlraums ausgeht. Diese Strahlung kann präzise vermessen werden und man stellt fest, dass ihre Intensität eine Funktion allein von der Temperatur der inneren Wände des Hohlraums und ihrer Frequenz ist. Damit treten nur fundamentale Konstanten in dieser Funktion auf. Max Planck konnte diese im Jahr 1900 erklären, wenn man die Energie pro Frequenzintervall, die von den Wänden in den Hohlraum abgestrahlt wird und dann durch die Öffnung austritt, “als zusammengesetzt aus einer ganz bestimmten Anzahl endlicher gleicher Teile” betrachtet.

Andererseits waren es die experimentellen Ergebnisse beim Photoeffekt, die Albert Einstein erklären konnte, und zwar unter einer ähnlichen Annahme, dass bei diesen Experiment das Licht als ein Strom von “lokalisierten Energiequanten, welche nur als Ganze absorbiert und erzeugt werden können” (Einstein, 1905) angesehen werden muss.

Das waren zwei ganz bedeutende Hinweise auf die Notwendigkeit einer Theorie „hinter“ der Elektrodynamik, die dann in der Tat auch als eine Quantenelektrodynamik entwickelt wurde. Die Elektrodynamik blieb in ihrem Gültigkeitsbereich unangetastet, wurde aber als eine “Quantenelektrodynamik für das Grobe” erkannt, wobei das “Grobe” für Situationen steht, in der nur das Verhalten einer sehr großen Anzahl von Lichtquanten interessiert. So können wir auch von einer Erweiterung der Elektrodynamik sprechen. In (Honerkamp, 2010) habe ich dieses ausgeführt.

Verschmelzung von Gültigkeitsbereichen

Solche Erweiterungen vergrößern das Portfolio der Physik an Theorien.  Das große Thema der Physik, das wir auch in diesem Buch verfolgen, war aber dagegen die Idee einer einheitlichen Theorie. So suchte man stets danach, ob man die Gültigkeitsbereiche zweier Theorien „unter einen Hut“ bringen konnte, sodass also die Gültigkeitsbereiche zweier Theorien zu einem einzigen Bereich verschmelzen und eine einzige Theorie ist für diesen zuständig wird. Normalerweise sind dann die Begriffe und Aussagen beider ursprünglichen Theorien in der vereinheitlichen Theorie als Spezialfälle oder Näherungen enthalten.

Wir werden sehen, dass das in der Neuzeit auch immer der Fall gewesen ist. Nur beim Übergang von der Aristotelischen Bewegungstheorie zur Newtonschen Theorie war es anders. Aristoteles unterschied ja, wie schon früher ausgeführt, mehrere Typen von Bewegungen, und für jeden Typ hatte er eine eigene Erklärung. Es gab also mehrere Theorien mit ihren eigenen Gültigkeitsbereichen. In der Newtonschen Theorie gibt es nun im 2. Newtonschen Axiom eine einzige Vorschrift für die Aufstellung einer Gleichung für fast alle aristotelischen Typen von Bewegungen, also z.B. für die „erzwungene“ wie für die „natürliche“, ob nach oben oder nach unten gerichtet. Hier werden also mehrere althergebrachte Theorien vollständig durch eine einzige neue Theorie ersetzt.

Von Elektrizität und Magnetismus zum Elektromagnetismus

Eine erste Verschmelzung der Gültigkeitsbereiche zweier Theorien kann man in der Mitte des 19. Jahrhunderts bei der Entwicklung der Elektrodynamik beobachten. Elektrizität und Magnetismus erschienen zunächst völlig unabhängige Phänomene zu sein. So gab es, wie in früheren Kapiteln schon erwähnt, eine Theorie für die elektrischen und eine für die magnetischen Phänomene, und beide waren ganz nach dem Newtonschen Vorbild, also ausgehend von bestimmten Axiomen, aufgebaut.

Der dänische Physiker Hans Christian Ørsted hatte sich in den 20er Jahren des 19. Jahrhunderts aber auf die Suche nach einer Beziehung zwischen elektrischen und magnetischen Phänomenen gemacht. Er war die Zeit der Romantik, und er war auch von der Idee einer Einheit der Natur „infiziert“ worden. Im Jahre 1831 hat er tatsächlich entdeckt, dass ein elektrischer Strom ein Magnetfeld erzeugt. Weitere Entdeckungen solcher Beziehungen folgten. Der schottische Physiker James Clerk Maxwell konnte schließlich in den 60er Jahren des 19. Jahrhunderts einen Satz von Gleichungen für elektrische und magnetische Felder aufstellen, die die Rolle von Axiomen übernehmen konnten. Man sprach fortan von „elektromagnetischen“ Feldern.

Als das Licht als elektromagnetische Welle erkannt werden konnte, wurde dann noch die Optik vereinnahmt. Auch das kann man als eine Verschmelzung von Gültigkeitsbereichen bzw. Verschmelzung von Theorien sehen.

Elektromagnetismus und Gravitation?

Die Allgemeine Relativitätstheorie, die Albert Einstein im Jahre 1915 nach 10 Jahren intensivster Arbeit vorstellte, war wie die Elektrodynamik eine Feldtheorie. Während das elektromagnetische Feld aus sechs Komponenten bestand, enthielt das Gravitationsfeld zehn Komponenten. In beiden Fällen konnten diese aber als Elemente eines Tensors angesehen werden und ebenso ließ sich jeweils aus den Axiomen, den Grundgleichungen, ableiten, dass es Wellen geben müsse.

Solche elektromagnetischen Wellen waren von Heinrich Hertz entdeckt worden.  Man hat damit dem Feld eine reale physikalische Existenz zubilligen müssen. So war man nach 1915 überzeugt, dass es auch Gravitationswellen geben muss. Man glaubte allerdings zunächst, dass diese viel zu schwach sind, als dass man sie jemals entdecken könnte. Aber etwa 100 Jahre später, im Jahre 2016, hat man solche zum ersten Male direkt nachweisen können.

Albert Einstein wurde für das Jahr 1921 der Nobelpreis verliehen. Aber erst im Jahre 1923 konnte er den Nobelvortrag halten. In diesem sagte er: „Der nach Einheitlichkeit der Theorie strebende Geist kann sich nicht damit zufriedengeben, dass zwei ihrem Wesen nach ganz unabhängige Felder existieren sollen.“ Damals arbeitete Einstein schon an einer Vereinheitlichung der Theorien des Elektromagnetismus und der Gravitation. Er soll bis zu seinem Tode im Jahre 1955 an dieser Idee festgehalten und immer wieder mit neuen Ansätzen hart an ihr gearbeitet haben (Fölsing, 1993, p. 627ff) Es wäre eine einheitliche Theorie für alle Phänomene der Welt der mittleren und größten Dimensionen geworden. Aber es ließ sich keine mathematische Struktur finden, in der beide Felder einen Platz hatten und in der ihre physikalischen Beziehungen aufrechterhalten werden konnten.

Einstein war nicht der Einzige, der eine Vereinheitlichung suchte. Auch andere sehr respektable theoretische Physiker waren von der Idee eines einheitlichen physikalischen Weltbildes beseelt. Gustav Mie, Hermann Weyl, Theodor Kaluza und Arthur Eddington – alles Namen, die einem Physiker auch aus anderen Gründen etwas sagen. Sie alle legten entsprechende Arbeiten vor. Aber diese waren bei näherem Studium alle nicht überzeugend. Es fehlten jeweils Folgerungen aus den Axiomen, die physikalisch geprüft werden konnten; sie blieben „in der mathematischen Luft hängen“.

Einstein unterschied sich von diesen Kollegen darin, dass er sich zunächst nicht allein von einer „Schönheit und Eleganz“ mathematischer Strukturen leiten lassen wollte. „Ich glaube, man müsste, um wirklich vorwärts zu kommen, wieder ein allgemeines, der Natur abgelauschtes Prinzip finden“, so schrieb Einstein im Sommer 1922 in einem Brief an Hermann Weyl (nach (Fölsing, 1993, p. 635)). So hatte er es ja bei der Formulierung seiner beiden Relativitätstheorien getan: Die „Konstanz der Lichtgeschwindigkeit“ bzw. die „Gleichheit von schwerer und träger Masse“ waren die Phänomene, die er in der Tat der Natur damals „abgelauscht“ und dann an die Spitze der jeweiligen Theorie gestellt hatte. Für die Vereinheitlichung der beiden Feldtheorien ließ sich aber nichts von dieser Art finden, nicht irgendeine Parallele zum Induktionsgesetz der Elektrodynamik. Dazu müsste man ja eine Beziehung zwischen einem Gravitations- und einem elektromagnetischen Feld entdecken.

So klang es dann schon in seinem Nobelvortrag im Jahre 1923 anders: „Leider können wir uns bei dieser Bemühung nicht auf empirische Tatsachen stützen wie bei der Ableitung der Gravitation, sondern wir sind auf das Kriterium der mathematischen Einfachheit geschränkt, das von Willkür nicht frei ist.“

Als Einstein im Jahre 1955 starb, war die Quantenphysik längst etabliert.  Die elektromagnetische Wechselwirkung hatte als Quantenelektrodynamik innerhalb der Quantenphysik einen prominenten Platz gefunden und wurde auch Vorbild für weitere Theorien. Mit ihr konnte die Idee der Vereinheitlichung einen neuen Anlauf finden.

Vereinheitlichungen bei Quantentheorien

Mit der Entdeckung von Phänomenen in der Welt der kleinsten Dimensionen stellte sich das Problem der Vereinheitlichung ganz neu. Man erkannte, dass man bisher nur einen kleinen Teil des Raums der Phänomene kennen gelernt hatte. Für die theoretische Beschreibung der elektromagnetischen Phänomene musste man weit über die Quantenmechanik hinausgehen und erst den Begriff eines Quantenfeldes entwickeln. In einer Quantenelektrodynamik konnte man dann auch „Quanten“ einführen, Entitäten, die die Rolle von elementaren Teilchen einnehmen. Nun fanden die Lichtquanten, die Albert Einstein bei der Erklärung des Photoeffektes postuliert hatte, ihren Platz in einer Theorie.

Eine besondere Eigenschaft der klassischen Elektrodynamik, die man auch in der Quantenversion übernommen hatte, sollte nun eine Leitlinie für alle folgenden Quantenfeldtheorien werden. Die zwei beobachtbaren Felder, das elektrische und das magnetische Feld mit jeweils drei Komponenten, lassen sich nämlich durch ein einziges, so genanntes Eichfeld mit vier Komponenten ausdrücken. Dieses ist dann aber nicht eindeutig bestimmt, man kann es durch eine mathematische Operation in ein anderes Feld transformieren, ohne dass das elektrische und das magnetische Feld dadurch verändert wird. Die beobachtbaren Felder sind also invariant gegenüber der Transformation, und da Invarianzen in der Mathematik immer auch als Symmetrien darstellbar sind, spricht man auch von einer Eichsymmetrie und von einer Invarianz der physikalischen Felder unter Eichtransformationen.

In der klassischen Elektrodynamik musste man dieser Möglichkeit keine tiefere Bedeutung zumessen. In der Quantenelektrodynamik aber wurde dieses Eichfeld zu dem Feld des Photons, des Lichtquants also. Die Quantenelektrodynamik wurde damit zu einer „Eichfeldheorie“. Ein Unterschied zwischen einem Eichfeld, welches ein Photon repräsentiert, und einem Materiefeld, das für ein Elektron steht, wurde deutlich: Die elektromagnetische Wechselwirkung zwischen den Elektronen kann nun gesehen werden als vermittelt durch die Lichtquanten, in einfachster Form durch den Austausch eines Lichtquants. Eichfelder in einer Theorie beschreiben also die Wechselwirkung zwischen jenen massebehafteten Quanten, die durch Materiefelder dargestellt werden. Dieses Bild sollte zur Leitidee für die Konstruktion anderer Quantentheorie avancieren.

Die Theorie der elektroschwachen Wechselwirkung

Wie im vorletzten Kapitel schon erwähnt, führte die Aufklärung der Natur all der Strahlen, die man nach und nach um die Wende zum 20. Jahrhundert entdeckt hatte, zu der Vorstellung, dass es auf atomarer Längenskala zwei neue Typen von Wechselwirkungen geben muss, deren Wirkung aber nicht wesentlich über atomare Distanzen hinausreicht. Der Phänomenbereich der Zerfälle von Quanten in andere, leichtere sollte durch eine „schwache“ Kraft verursacht werden. Für ein anderes Phänomen musste dagegen eine „starke“ Kraft verantwortlich sein, nämlich dafür, dass ein Atomkern stabil sein kann, obwohl er doch aus vielen Protonen mit einer positiven elektrischen Ladung besteht, die sich einander ja alle abstoßen. Diese Kraft ist also so stark, dass sie die elektrische Abstoßung überkompensieren kann.

Die Geschichte der schwachen Wechselwirkung beginnt mit der Analyse der β-Strahlung (Wikipedia: Schwache Wechselwirkung). Man lernte, dass diese Strahlung aus Elektronen besteht, die offensichtlich aus der Umwandlung von den Bausteinen der Atomkerne stammen müssen. Der italienische Physiker Enrico Fermi formulierte 1934 eine erste Theorie für den Zerfall eines Neutrons. Die Theorie musste nach und nach neuen experimentellen Entdeckungen angepasst werden. Es blieb aber nach wie vor schwierig, aus den jeweiligen Axiomen überhaupt verlässliche Aussagen mathematisch abzuleiten.

Es war klar, dass man etwas „Besseres“ finden musste, und das Vorbild für dieses konnte nur die Quantenelektrodynamik sein. Dort gab es ja die Photonen, also Quanten, welche die Wechselwirkung zwischen den Materieteilchen, den Protagonisten wie Elektronen oder Protonen, vermittelten. Warum nicht auch solche Austausch-Quanten für die schwache Wechselwirkung einführen?  Und sogar: Warum nicht gleich nach einer einheitlichen Theorie für die elektromagnetische und schwache Wechselwirkung suchen, in denen es dann zusätzlich zum Photon auch noch weitere Austausch-Quanten gibt, welche die schwache Wechselwirkung vermitteln?

Man postulierte also die Existenz einer ganz neuen Sorte von Quanten, handelte sich damit aber nicht nur das Problem ein, dass man ihre Existenz dann ja auch irgendwann nachweisen müsste, sondern auch noch ein tiefliegendes theoretisches Problem: Die schwache Wechselwirkung ist kurzreichweitig. Es gibt aber einen klaren Zusammenhang zwischen der Reichweite der Wechselwirkung und der Masse des Quants, welches diese Kraft bzw. Wechselwirkung vermittelt: Je größer die Masse, umso kürzer die Reichweite. Das Photon z.B. besitzt keine Masse, die elektromagnetische Wechselwirkung ist entsprechend sehr langreichweitig. Ein Austauschteilchen einer kurzreichweitigen Kraft muss demnach aber eine Masse besitzen. Eine Theorie mit massebehafteten Austauschteilchen hat aber die gleichen theoretischen Schwierigkeiten wie die erste Theorie von Fermi: Man kann aus den Axiomen nichts seriös ableiten. Man schien sich im Kreis zu drehen.

Als Ausweg postulierte man die Existenz eines weiteren Teilchens. Das sieht für Außenstehende wie eine schlechte Ausrede aus, führte aber zum Erfolg und wurde auch nicht ganz gedankenlos vorgeschlagen. Es gab bedeutende Vorbilder in der Festkörpertheorie, dort kannte man die Einführung eines Terms in die Theorie, der für eine beobachtbare Größe zu einer Masse führt, als Higgs-Mechanismus, benannt nach britischen Physiker Peter Higgs (1929). Dieser bekam zusammen mit einem belgischen Physiker François Englert (1932) für die Entwicklung dieses Mechanismus den Nobelpreis.

Das neue Teilchen, Higgs-Boson, konnte nicht nur dazu dienen, den neuen Austausch-Teilchen, den W-Bosonen, jeweils eine Masse zuzubilligen, es avancierte zum allgemeinen „Massenspender“, d.h. nach der Theorie ergibt sich die Masse aller Teilchen, abgesehen vom Higgs-Teilchen selbst, durch eine Wechselwirkung mit diesem Higgs-Boson.

Die so entstandene einheitliche Theorie der elektromagnetischen und schwachen Wechselwirkung hat bisher alle experimentellen Tests bestanden und gilt mit dem Nachweis des Higgs-Bosons im Jahre 2012 endgültig als etabliert.

Die starke Wechselwirkung und das Standardmodell

In den 60er Jahren des letzten Jahrhunderts entdeckte man immer mehr neue „Elementarteilchen“, wie man sie damals nannte. Ein ganzer „Zoo“ von Teilchen mit verschiedenen Massen, elektrischen Ladungen und „Spins“ entstand. In dieser Menge konnte man bald eine gewisse Ordnung feststellen, die man durch eine bestimmte mathematische Struktur beschreiben konnte. Diese musste wohl physikalische Gegebenheiten widerspiegeln, denn auch Teilchen, die nach der Struktur vorhanden sein mussten, aber noch nicht bekannt waren, konnten nachgewiesen werden. 

Die Art dieser mathematischen Struktur legte den Gedanken nahe, dass es insgesamt drei verschiedene Bausteine geben muss, aus denen alle Teilchen in diesem Zoo bestehen, wenn es sich nicht gerade um Elektronen und ähnliche Teilchen handelt, die man zu der Gruppe der „Leptonen“ zählte und die nicht der starken Wechselwirkung unterliegen. Der amerikanische Physiker Murray Gell-Mann veröffentlichte im Jahre 1964 eine entsprechende Hypothese, er nannte diese Bausteine „Quarks“. Die elementarsten Quanten sollten also nun Leptonen und Quarks sein. Im Jahre 1969 konnte diese Vorstellung durch die Experimente erhärtet werden.

In Analogie zur elektroschwachen Wechselwirkung musste es auch Austauschteilchen geben, die hier die starken Kräfte vermittelten und auch zu den gebundenen Zuständen wie Protonen oder Neutronen führen. Man nannte sie Gluonen (nach glue = kleben), diese mussten bestimmte Freiheitsgrade besitzen, ähnlich einer elektrischen Ladung, nur dass es hier nicht zwei, sondern drei Ladungen geben musste. Man nannte sie Farbladung, und die Theorie, die man so konzipierte, hieß dann auch Quantenchromodynamik (QCD). Mit den Farben bei unseren Sinneseindrücken haben diese „Farben“ natürlich nichts zu tun.

Ein Konzept für diese Theorie war also schnell gefunden. Schwieriger gestalteten sich die Anpassung der Details an die experimentelle Situation. Man musste erklären können, warum man von einem „Confinement“, also einem Einschluss der Quarks reden muss, d.h. warum man freie Quarks nie beobachten kann. Man entdeckte auch, dass es neben drei zunächst postulierten Quarks noch weitere drei Typen von Quarks gibt.

Dies ist inzwischen alles verstanden worden und die QCD hat sich bisher in allen Experimenten 
bewährt.

Von einer Verschmelzung der elektroschwachen Wechselwirkung mit der Quantenchromodynamik kann man nun allerdings noch nicht reden. Das, was man heute als „Standardmodell“ bezeichnet, ist bisher nur ein gemeinsames Dach, denn die QCD steht dort gewissermaßen unbeteiligt neben der elektroschwachen Theorie. Um diesen Punkt besser zu verstehen, erinnere man sich an die Verschmelzung der Theorie der Elektrizität mit der Theorie des Magnetismus. Diese geschah dadurch, dass man zeigen konnte, dass ein elektrischer Strom ein Magnetfeld zur Folge hat. Das bedeutet: Eine Größe aus der einen Theorie wirkt auf eine Größe der anderen Theorie. So erhoffte sich Albert Einstein für die Verschmelzung der Gravitationstheorie und der Elektrodynamik auch, dass man entdecken könnte, dass ein Gravitationsfeld sich auf elektrische Phänomene auswirkt. Eine Wirkung der starken Kraft auf einen Effekt der schwachen oder elektromagnetischen Wechselwirkung ist aber noch nicht nachgewiesen. Teilchen, welche diese Wirkung vermitteln würden, wären so etwas wie „Leptoquarks“. Sie würden die Umwandlung von Leptonen in Quarks beschreiben und könnten auf diese Weise auch erklären, dass Elektronen und Protonen betragsmäßig die gleiche elektrische Ladung besitzen.

Festzuhalten bleibt: Es gibt bei fast allen Phänomenen auf der subatomaren Längenskala eine gute, ja zum Teil außerordentlich gute Übereinstimmung der Aussagen des Standardmodells mit den experimentellen Ergebnissen. Diese Theorie ist aber keineswegs schon zufriedenstellend, es fehlt eine interne Vereinheitlichung (QCD und elektroschwache Wechselwirkung) und eine Einbeziehung der Gravitation (siehe auch Wikipedia: Standardmodell). Schließlich müssen jene Phänomene erklärt werden können, die Anlass zu der Vermutung geben, dass es im Kosmos noch so etwas wie “dunkle Materie” und “dunkle Energie” geben muss.

Wer weiß, wie weit der Weg zu einer wirklich einheitlichen Theorie für alle physikalischen Phänomene der Welt der kleinsten Dimensionen noch ist. Mit Albert Einstein möchte man sagen: „Um wirklich vorwärts zu kommen, müsste man wieder ein allgemeines, der Natur abgelauschtes Prinzip finden“. Dieses würde dann ein wirklich ganz allgemeines, umfassendes Prinzip sein, hinter dem man nichts mehr suchen müsste. Wahrscheinlich jedoch wird man immer nur etwas „Besseres“ finden, aber nie etwas „Endgültiges“. 


Nota. - Sollen Theorien vereinigt werden, so muss sich unter den ausgessprochenen oder  unausgesproche- nen Prämissen einer jeden wenigstens eine Bestimmung finden, die sie alle teilen. Die wäre der Grund, auf dem die Einheitstheorie aufbauen müsste. 

Ob das dann gelingt, ist eine faktische Frage; es müsste ausprobiert werden. Das gedankliche Problem wäre zunächst, diese eine gemeinsame Bestimmung aufzufinden. Zunächst? Nein; zuerst ist die Frage zu prüfen, ob es eine solche Bestimmung überhaupt geben kann.

Wir haben schon zu tun mit zwei Standardmodellen, von denen das ganze Universum - 'alles, was ist' - beschrieben werden sollen; von der äußersten - kosmischen - bis zur innersten - mikrophysischen - Di- mension. Außer ihnen kann es definitionsmäßig nichts geben. Was haben sie - definitionsmäßig - mit einander gemeinsam? Dass sie zutreffen. Sie stimmen logisch in sich zusammen und stehen nirgends in Widerspruch zu erfahrbaren Tatsachen.


Das bestrifft aber ihren immanenten Zusammenhalt, nicht irgendein Verhältnis zu einem Äußeren. Das heißt nur: Jede gilt für ihren Bereich. Bleibt immer noch das Problem, den Mikrobereich in den Makro- bereich umzurechnen - das wäre es ja, was die Einheitstheorie leisten soll.

Man kann es drehen, soviel man will: Die Vorstellung, dass beide in einander aufgelöst werden könnten, setzt voraus, dass beide... wahr sind. Dass es eine Objektivität jenseits - oberhalb? unterhalb? - der beiden Bereiche gibt, in der sie gemeinsam 'Statt haben'.

Das ist offenbar keine Frage an die Physik. Es ist Meta phsysik. Es ist ein philosophisches Thema. Aller- dings ein Thema der spezifisch kritischen Philosophie.

Die kritische Philosophie weist darauf hin, dass unser Wissen aus dem besteht, was in unserm Bewusstsein vorkommt: beide Ausdrücke bedeuten dasselbe. In unserm Bewusstsein kommen keine Dinge vor, sondern Vorstellungen von Dingen; keine Mikro- oder Makro - und nicht einmal unsere Meso-Sphäre, sondern die Vorstellung einer Mikro-, einer Makro- und einer Mesosphäre.

Die wirkliche Wissenschaften gingen von den Erfahrungen aus, die unser Wahrnehmungsapparat in der Mesosphäre, in der unsere Gattung sich entwickelt hat, uns ermöglicht hat. Wir haben die Erfahrungs- tatsachen zu Theorien erweitert und haben die meisten wissenschsaftlichen Entdeckungen nur gemacht, indem wir Theorien erdacht haben, die wir überprüfen konnten. 

Da war zunächst die Physik unserer Mesosphäre, die wir heute die Newtonsche nennen, weil raffinierte Beobachtungsmittel und hochdestillierte Begriffe uns erlaubt haben, uns nicht nur über das, was wir sinn- lich bemerken, sondern selbst über das, was wir uns mit unseren Sinnen vorstellen können, weit hinweg- setzen können. Weit hinaus 'nach oben', in den Makrokosmos hinaus, weit hinaus (!) 'nach unten' in den Mikrokosmos hinein.

Das sind zwei diametral entgegengesetzte Richtungen. Es müsste mit allen Teufeln zugehen, wenn sie uns eines Tages in ein einheitliches Feld führen sollten. Aber wohlbemerkt: Sachlich unmöglich ist das nicht. Wir können es uns lediglich nicht vorstellen.
JE