Dienstag, 30. April 2019
Transzendentale Synthesis?
aus derStandard.at, 30. April 2019
Unser Gehirn kombiniert Sinneseindrücke nur, wenn dies sinnvoll ist Wissenschafter untersuchten die Flexibilität der Sinneswahrnehmung
Unser Gehirn ist permanent damit beschäftigt, zahlreiche unterschiedliche Sinnesreize zu verarbeiten und miteinander zu verknüpfen. Um der Flut von Wahrnehmungen Herr zu werden, bedient es sich einer Art Filtersystem. Dabei werden Sinneseindrücke nur dann kombiniert, wenn es für die aktuelle Aufgabe erfor- derlich und sinnvoll ist. Diese enorme Flexibilität hat nun ein internationales Team genauer analysiert.
"Uns interessiert, wie das Gehirn Sinnesreize verarbeitet", sagt Christoph Kayser von der Universität Bielefeld. In seiner Forschung beschäftigt er sich mit multisensorischer Integration, also der Kombination verschiedener Sinnesinformationen. Das ist zum Beispiel der Fall, wenn man einen Film schaut: Hier hört man, wie die Figuren miteinander sprechen, und sieht gleichzeitig ihre Lippenbewegungen. Es ist jedoch nicht immer sinnvoll, dass auditive und visuelle Informationen automatisch im Gehirn kombiniert werden, etwa wenn ein fremdsprachiger Film synchronisiert ist und die Lippenbewegungen nicht zum Ton passen.
Drei Modell im Test
In ihrer Studie haben die Wissenschafter erforscht, in welchen Bereichen des Gehirns Sinnesreize flexibel integriert werden. Dazu haben sie drei mögliche Modelle getestet. Während verschiedene Sinnesreize im ersten Modell komplett getrennt verarbeitet werden, werden sie im zweiten Modell automatisch kombiniert. Die dritte Variante ist schließlich das Modell der "kausalen Inferenz": Verschiedene Sinnesreize werden nur dann kombiniert, wenn sie nicht räumlich oder zeitlich voneinander entfernt sind. Hört man zum Beispiel immer einen Ton und sieht gleichzeitig ein Bild, kombiniert das Gehirn die Informationen. Tauchen Ton und Bild jedoch zusammen auf, obwohl sie vorher getrennt waren, werden sie nicht kombiniert. "Im Modell der kausalen Inferenz schließt das Gehirn also auf eine mögliche gemeinsame Quelle der Sinnesreize. Sinnes- reize werden nicht einfach automatisch integriert, sondern nur, wenn sie eine gemeinsame Quelle haben", sagt Kayser.
Um die drei Modelle zu vergleichen, wurden Testpersonen mit Licht- und Tonreizen konfrontiert. Licht und Ton tauchten dabei manchmal gleichzeitig auf, manchmal mit unterschiedlichen Häufigkeiten. Während- dessen zeichneten die Wissenschafter die Hirnaktivität der Testpersonen mithilfe einer Magnetenzephalogra- phie (MEG) auf. Das Ergebnis: Die drei Modelle passen jeweils zu unterschiedlichen Bereichen des Gehirns und damit auch zu unterschiedlichen Stufen der Verarbeitung.
Filter im Frontallappen
Auf der niedrigsten Stufe werden die Informationen getrennt in der Seh- und der Hörrinde abgebildet. Da- nach werden sie im Parietallappen – das ist der obere Teil des Gehirns – automatisch kombiniert. Erst auf einer höheren Verarbeitungsstufe liest das Gehirn die Informationen aus den vorherigen Stufen aus und filtert bei Bedarf störende Sinnesreize. Diese Flexibilität in der Wahrnehmung wird in speziellen Arealen des Fron- tallappens verortet, die für abstraktere Denkprozesse zuständig sind. "Auf der Ebene des Verhaltens weiß man schon länger, wie Menschen mit verschiedenen Sinnesinformatio- nen umgehen. Mit unserer Studie können wir erstmals zeigen, wie und wo das Gehirn solche Infor- mationen verarbeitet", sagt Kayser.
Die Ergebnisse der im Fachjournal "Neuron" erschienen Studie können in verschiedenen weiteren For- schungsbereichen genutzt werden. Sie sind zum Beispiel hilfreich für die Erforschung des abstrakten Denkens, weil dort Flexibilität und kausale Zusammenhänge eine wichtige Rolle spielen. "Wie das Gehirn Sinnesinformationen verarbeitet, ist zudem für technische Anwendungen relevant, etwa bei der Interaktion zwischen Mensch und Maschine", sagt Kayser. Damit befassen sich seine Kolleginnen und Kollegen im Bielefelder Exzellenzcluster CITEC. Und schließlich sind die Studienergebnisse im klinischen Kontext von Bedeutung. Dort können sie helfen, Krankheiten wie Autismus besser zu verstehen, bei denen Menschen Schwierigkeiten haben, Sinnesinformationen richtig zu verarbeiten. (red.)
Abstract
Neuron: "Causal Inference in the Multisensory Brain."
Nota. - Nach Kant gehört die Transzendentale Synthesis, in der mannigfaltige Sinneseindrücke zu sinnvollen Wahrnehmungen zusammengefasst wird, schon zur Verstandestätigkeit, und er folgt damit Baumgarten, der unter Ästhetik das 'untere', sinnliche Erkenntnisvermögen verstand. Hier nun zeigt sich, dass das Auslesen, Sortieren, Kombinieren und Synthetisieren schon auf diesen untersten drei Stufen - von Blau über Pink bis Rot - beginnt. Mit andern Worten, das Bestimmen von Sinneskomplexen zu bedeutungsvollen Einheiten nimmt seinen Lauf, bevor nach Fichte mit der Anschauung eine erste Reflexion eingetreten ist.
Wenn der Übergang vom Fühlen zum Reflektieren nicht als gleitend, aber auch nicht als ein Sprung, sondern als Folge von Sprüngen aufgefasst würde, wäre eine Wendung 'gegen sich selbst' etwas plausibler; nicht lo- gisch, aber in der lebendigen Vorstellung: Eine mehrfach gebrochene Distanz erscheint als eine qualifizierte- re Distanz. Das 'Zusammenfassen' geschieht nacheinander in drei Schritten; das Angeschaute - Rot - ist schon Eines (ein Ganzes), es 'fehlt nur noch' die qualifizierende Bestimmung. Fragt sich, ob die Reflexion dieser Vorarbeit notwendig folgen muss oder ob sie sich darüber hinwegsetzen und das Ganze auch neu ordnen kann.
Die Tatsache der Reflexion ist ein Rätsel, aber eben eine Tatsache. Wo man nicht erklären kann, muss man raten, und da ist Plausibilität besser als gar nichts.
JE
Montag, 29. April 2019
Von zweifelhafter Abstammung.
aus scinexx Vertreter der Khoisan tragen Spuren unbekannter Menschen in ihrem Erbgut
Als unsere Vorfahren Afrika verließen, begann eine Geschichte der
Seitensprünge: Genomanalysen belegen, dass sich anatomisch moderne
Menschen mehrfach mit Neandertalern und Denisova-Menschen kreuzten. So
findet sich im Erbgut von Europäern bis heute archaische Neandertaler-DNA. In Asien wiederum tragen einige Bevölkerungsgruppen Denisova-Gene
in sich – und kürzlich haben Forscher sogar die Spuren einer dritten
Menschenart im Genom von Individuen aus Asien und Ozeanien entdeckt.
Unklar war bisher allerdings, ob sich auch in Afrika solche Techtelmechtel zwischen Homo sapiens und anderen Menschenarten ereigneten. Lediglich in Populationen aus Nordafrika wurden bisher ebenfalls Spuren von Neandertaler- und Denisova-Erbgut gefunden. Afrikaner aus anderen Teilen des Kontinents galten Experten dagegen als Modell für eine Population ohne sogenannte Introgression. Doch kam es dort wirklich nie zur Übertragung eines Gens von einer fremden Spezies auf den Homo sapiens?
Künstliche Intelligenz als Helfer
Um dies zu überprüfen, haben Wissenschaftler um Belen Lorente-Galdos von der Universität Pompeu Fabra in Barcelona nun das Erbgut heutiger Afrikaner unter die Lupe genommen. Insgesamt analysierten sie für ihre Studie das Genom von 21 Individuen, die 15 unterschiedliche Populationen aus allen Teilen des Kontinents repräsentierten und alle wichtigen Sprachgruppen sowie Lebensstile abdeckten.
Die genetischen Daten dieser Menschen ließ das Team von einer künstlichen Intelligenz (KI) analysieren. Dieser Algorithmus hatte gelernt, anhand der Gensequenzen auf die demographische Geschichte zu schließen. Welche Kreuzungsereignisse aus der Vergangenheit konnten die heutige Zusammensetzung des Erbguts der untersuchten Populationen am besten erklären?
Spuren eines Unbekannten
Das überraschende Ergebnis: „Um die genetische Vielfalt in den afrikanischen Bevölkerungsgruppen erklären zu können, muss die Anwesenheit einer weiteren ausgestorbenen archaischen Population angenommen werden, mit der sich anatomisch moderne Menschen in Afrika kreuzten“, berichtet Mitautor Oscar Lao vom Barcelona Institut für Wissenschaft und Technologie.
Konkret fanden die Forscher Spuren eines solchen Techtelmechtels in Populationen aus Subsahara-Afrika, darunter den Khoisan, den Mbuti-Pygmäen und dem Volk der Mandinka. Doch wer war der Unbekannte, der sich mit den Vorfahren dieser Afrikaner paarte und sich bis heute in deren Genom verewigt hat? Den Untersuchungen des Teams zufolge muss es sich dabei um Vertreter einer bisher unbekannten, ausgestorbenen Menschenlinie handeln.
„Archaische Geisterpopulation“
„Tatsächlich koexistierten während des Pleistozäns in Subsahara-Afrika die Vorfahren anatomisch moderner Menschen mit anderen archaischen Menschen“, betonen die Wissenschaftler. Die nun identifizierte „archaische Geisterpopulation“ spaltete sich ihnen zufolge in etwa zu jenem Zeitpunkt von der Abstammungslinie des Homo sapiens ab, als sich auch die Neandertaler- und Denisova-Linie davon trennten.
Dieses Ergebnis hat nun auch Auswirkungen auf das Verständnis des genetischen Erbes von Bevölkerungsgruppen außerhalb Afrikas, wie das Forscherteam betont. So zeigten weitere Analysen: Berücksichtigt man in entsprechenden Modellen die Anwesenheit der neu identifizierten Geisterpopulation, anstatt afrikanisches Erbgut als von fremden Faktoren unbeeinflusst zu bewerten, ergibt sich auch ein verändertes Bild der Genom-Zusammensetzung eurasischer Populationen.
Dreimal mehr Neandertaler-Gene?
„Unsere Ergebnisse offenbaren, dass der geschätzte Anteil des Neandertaler-Erbguts bei Eurasiern stark von der Präsenz der Geisterpopulation beeinflusst wird“, schreiben die Wissenschaftler. „Die Menge der DNA, die von Neandertalern kommt, könnte demnach bis zu dreimal höher sein als bisherige Modelle vermuten ließen“, schließt Lorente-Galdos. (Genome Biology, 2019; doi: 10.1186/s13059-019-1684-5)
Quelle: Centre for Genomic Regulation
29. April 2019
Afrikaner erbten Gene eines Unbekannten
Ausgestorbene Menschenlinie kreuzte sich mit Vorfahren heutiger Afrikaner
Frühes Techtelmechtel: Die Vorfahren heutiger Afrikaner
müssen sich mit einer bisher unbekannten anderen Menschenart gepaart
haben. Spuren dieser ausgestorbenen archaischen Population haben
Forscher nun im Genom von Bevölkerungsgruppen aus Subsahara-Afrika
entdeckt. Diese überraschende Erkenntnis wirkt sich ihnen zufolge auch
auf das Verständnis des genetischen Erbes von uns Europäern aus.
Unklar war bisher allerdings, ob sich auch in Afrika solche Techtelmechtel zwischen Homo sapiens und anderen Menschenarten ereigneten. Lediglich in Populationen aus Nordafrika wurden bisher ebenfalls Spuren von Neandertaler- und Denisova-Erbgut gefunden. Afrikaner aus anderen Teilen des Kontinents galten Experten dagegen als Modell für eine Population ohne sogenannte Introgression. Doch kam es dort wirklich nie zur Übertragung eines Gens von einer fremden Spezies auf den Homo sapiens?
Künstliche Intelligenz als Helfer
Um dies zu überprüfen, haben Wissenschaftler um Belen Lorente-Galdos von der Universität Pompeu Fabra in Barcelona nun das Erbgut heutiger Afrikaner unter die Lupe genommen. Insgesamt analysierten sie für ihre Studie das Genom von 21 Individuen, die 15 unterschiedliche Populationen aus allen Teilen des Kontinents repräsentierten und alle wichtigen Sprachgruppen sowie Lebensstile abdeckten.
Die genetischen Daten dieser Menschen ließ das Team von einer künstlichen Intelligenz (KI) analysieren. Dieser Algorithmus hatte gelernt, anhand der Gensequenzen auf die demographische Geschichte zu schließen. Welche Kreuzungsereignisse aus der Vergangenheit konnten die heutige Zusammensetzung des Erbguts der untersuchten Populationen am besten erklären?
Spuren eines Unbekannten
Das überraschende Ergebnis: „Um die genetische Vielfalt in den afrikanischen Bevölkerungsgruppen erklären zu können, muss die Anwesenheit einer weiteren ausgestorbenen archaischen Population angenommen werden, mit der sich anatomisch moderne Menschen in Afrika kreuzten“, berichtet Mitautor Oscar Lao vom Barcelona Institut für Wissenschaft und Technologie.
Konkret fanden die Forscher Spuren eines solchen Techtelmechtels in Populationen aus Subsahara-Afrika, darunter den Khoisan, den Mbuti-Pygmäen und dem Volk der Mandinka. Doch wer war der Unbekannte, der sich mit den Vorfahren dieser Afrikaner paarte und sich bis heute in deren Genom verewigt hat? Den Untersuchungen des Teams zufolge muss es sich dabei um Vertreter einer bisher unbekannten, ausgestorbenen Menschenlinie handeln.
„Archaische Geisterpopulation“
„Tatsächlich koexistierten während des Pleistozäns in Subsahara-Afrika die Vorfahren anatomisch moderner Menschen mit anderen archaischen Menschen“, betonen die Wissenschaftler. Die nun identifizierte „archaische Geisterpopulation“ spaltete sich ihnen zufolge in etwa zu jenem Zeitpunkt von der Abstammungslinie des Homo sapiens ab, als sich auch die Neandertaler- und Denisova-Linie davon trennten.
Dieses Ergebnis hat nun auch Auswirkungen auf das Verständnis des genetischen Erbes von Bevölkerungsgruppen außerhalb Afrikas, wie das Forscherteam betont. So zeigten weitere Analysen: Berücksichtigt man in entsprechenden Modellen die Anwesenheit der neu identifizierten Geisterpopulation, anstatt afrikanisches Erbgut als von fremden Faktoren unbeeinflusst zu bewerten, ergibt sich auch ein verändertes Bild der Genom-Zusammensetzung eurasischer Populationen.
Dreimal mehr Neandertaler-Gene?
„Unsere Ergebnisse offenbaren, dass der geschätzte Anteil des Neandertaler-Erbguts bei Eurasiern stark von der Präsenz der Geisterpopulation beeinflusst wird“, schreiben die Wissenschaftler. „Die Menge der DNA, die von Neandertalern kommt, könnte demnach bis zu dreimal höher sein als bisherige Modelle vermuten ließen“, schließt Lorente-Galdos. (Genome Biology, 2019; doi: 10.1186/s13059-019-1684-5)
Quelle: Centre for Genomic Regulation
29. April 2019
- Daniela Albat
Sonntag, 28. April 2019
Die alles zusammenhalten.
aus wienerzeitung.at,
Faszien:
Dehnen, ziehen, drücken gegen den Schmerz
Faszien halten uns geschmeidig, machen uns aber auch schmerzhaft aufmerksam, wenn wir zuviel Stress haben.
Faszien:
Dehnen, ziehen, drücken gegen den Schmerz
Faszien halten uns geschmeidig, machen uns aber auch schmerzhaft aufmerksam, wenn wir zuviel Stress haben.
Sie bilden jene Strukturen im Körper,
die alles verbinden - aber auch trennen. Sie halten die Muskeln zusammen
und die Organe an ihrem Platz. Die Rede ist von den Faszien, dem
menschlichen Bindegewebe. Lange Zeit kaum beachtet, ist um sie ein
regelrechter Hype entstanden. Faszien sind heute ein Objekt
schulmedizinischer Forschung. Neueste Studienergebnisse sprechen den
Faszien sogar Bedeutung in der Tumortherapie zu. "Die Heilpraktiker
kratzen sich am Kopf: ‚Das ist unser Bindegewebe!‘. Plötzlich heißt es
Faszien und jeder will sie erfunden haben", wundert sich Robert Schleip,
Leiter der Fascia Research Group der Universität Ulm, im Gespräch mit
der "Wiener Zeitung". Das fasrige Etwas kennt jeder Mediziner aus der
Ausbildung: "Man ist Stunden damit beschäftigt, das Bindegewebe weg zu
präparieren, um endlich etwas sehen zu können", so der Forscher.
Jahrzehntelang hielt man Faszien für so unnütz wie die Verpackung eines
Weihnachtsgeschenkes.
Stress verklebt die Faszien
Doch das Gegenteil ist der Fall. Faszien versehen
gute Dienste in der Haut, an Knorpeln, Knochen, Gelenken, Muskeln und
Organen. Sie sorgen für Zusammenhalt und Zugfestigkeit, aber auch für
Geschmeidigkeit und Gleitfähigkeit zwischen den Muskeln. Faszien
besitzen etwa sechs Mal mehr Nervenendigungen und mehr Schmerzrezeptoren
als das Muskelgewebe. Das macht das Bindegewebe zum größten Sinnesorgan
des Menschen.
Bewegungsmangel, chronische Anspannungen und Stress
können dazu führen, dass Faszien verkleben, wie der Wiener
Physiotherapeut, Osteopath und Rolfer Florian Beer erklärt. Sie werden
dicker und fester, wodurch sich die Aktivierungsmuster von Muskeln und
damit Bewegungsmuster verändern. Die verklebten Faszien beeinträchtigen
in der Folge auch die Körperwahrnehmung.
Die deutsche Forschergruppe hat den Einfluss von
chronischem Stress auf das Bindegewebe näher untersucht. Sie ist dabei
auf den Botenstoff TGF (transforming growth factor) gestoßen. Tests im
Organbad haben gezeigt, dass sich bei einem Anstieg des Botenstoffs die
Faszien kräftiger zusammenziehen, berichteten die Forscher um Schleip
erst jüngst im Fachblatt "Frontiers in Physiology". Bekannt ist, dass
sich TGF besonders bei Stress im Körper stark verändert.
Yoga oder Rolfing helfen
Gegen verklebte Faszien helfen Yoga, aber auch die
Faszienrollen. Die Spezialisten auf dem Gebiet der Faszien sind jedoch
die ausgebildeten Rolfer, die bestimmte Handgriffe einsetzen, um das
Bindegewebe wieder geschmeidig zu machen. Im Rahmen von zehn Sitzungen
wird zunächst versucht, die Faszien zu lösen. Dabei unterstützt man den
Patienten darin, sich in der Schwerkraft ökonomisch einzuordnen, sich zu
bewegen und festsitzende Körperregionen zu lösen und wieder in die
Bewegung zu integrieren. Im Zuge dessen kommt es zu einer aktiven
Auseinandersetzung mit sich selbst und der Umwelt. Dem Körper wird zudem
eine freiere Atmung ermöglicht.
Doch bei der Therapie muss der Patient Geduld
aufbringen, denn das Bindegewebe passt sich wesentlich langsamer an als
Muskeln. Auch wenn sich Symptome durch eine Behandlung schnell legen
können, braucht der Körper für einen strukturellen und damit auch
nachhaltigen Umbau Zeit. Um sich an die neue Situation anzupassen,
brauche es etwa ein Jahr, meint Beer.
In Österreich leiden bis zu 70 Prozent aller
Erwachsenen mindestens einmal im Leben an Rückenschmerzen. Bei zehn
Prozent der Jugendlichen und 30 Prozent der 60- bis 70-jährigen sind die
Schmerzen chronisch. Nur in knapp 20 Prozent der Fälle seien die
Bandscheiben der Übeltäter, sagt Schleip: "Beim Rest heißt es ‚Ursache
unbekannt‘." "Chronische Schmerzen manifestieren sich mit der Zeit
zwangsläufig im Bindegewebe", so Beer. Die häufigste Ursache von
Schmerzen im myofaszialen System sind Überlastungen, die aus
Fehlbelastungen resultieren.
Ursachenforschung
Da verklebte Faszienhüllen deutlich dicker sind als
normale, lässt sich heute mittels Ultraschall feststellen, ob verhärtete
Muskeln oder dicke Hüllen den Schmerz verursachen. Die Forschergruppe
in Ulm entwickelt spezialisierte Geräte, etwa einen elektronischen
Tastfinger, die die Unterschiede besser erkennbar machen. Damit sollen
gezieltere therapeutische Empfehlungen möglich sein.
Carla Stecco von der Uni Padua konnte kürzlich einen
neuen Zelltyp, die Fasziazyten, als einen Schlüssel zur Geschmeidigkeit
identifizieren. Fasziazyten mit hohem Hyaluronsäuregehalt sind
geschmeidiger und erlauben eine bessere Beweglichkeit. Durch gezieltes
Training produzieren sie vermehrt Hyaluronsäure.
Bald könnten die Faszien auch in der Tumortherapie
eine Rolle spielen. Helene Langevin vom Osher Center for Integrative
Medicine der Harvard Medical School konnte im Tierversuch nachweisen,
dass bestimmte Dehnübungen eine antientzündliche Wirkung haben und dass
Krebszellen unter Faszientherapie weniger schnell wachsen. Die
Tumorausbreitung reduzierte sich um 52 Prozent, skizzierte Schleip und
merkt an: "In der Tumortherapie ist man als Therapeut mit einer
Verbesserungsrate von 18 bis 20 Prozent mehr als zufrieden."
Der Forscher ortet eine "wuselnde Aufbruchstimmung"
in seinem Fachgebiet. Die derzeitigen Studienergebnisse dürften erst der
Beginn einer noch spannenden Reise sein.
Freitag, 26. April 2019
Doch wieder Zweifel am Standardmodell.
aus nzz.ch, 26. 4. 2019 Das Bild der Grossen Magellanschen Wolke wurde mit einem erdgebundenen Teleskop gemacht, die Detailansicht mit dem Hubble-Teleskop. Sie zeigt einen von vielen Sternhaufen in der Galaxie
Eine neue Messung der Hubble-Konstante verstärkt die Zweifel am Standardmodell der Kosmologie
Es
gibt verschiedene Methoden, die Expansionsrate des heutigen Universums
zu messen. Zum Verdruss vieler Astronomen liefern sie unterschiedliche
Resultate. Es wird immer wahrscheinlicher, dass sich dahinter mehr als
nur Zufall verbirgt.
von Christian Speicher
Die Kontroverse um die Expansionsrate unseres Universums spitzt sich zu. Im «Astrophysical Journal»
hat eine Arbeitsgruppe um den Nobelpreisträger Adam Riess von der Johns
Hopkins University in Baltimore die bisher genaueste Messung der
Hubble-Konstante vorgestellt. Der mit dem Hubble-Teleskop gemessene Wert
legt nahe, dass sich das Universum heute um neun Prozent schneller
ausdehnt, als es Messungen der kosmischen Hintergrundstrahlung erwarten
lassen.
Ein ungenügendes Modell?
Diese
Diskrepanz hatte sich bereits in früheren Messungen der
Hubble-Konstante abgezeichnet. Nun ist der Messfehler aber so klein,
dass man kaum mehr von einem Ausreisser sprechen kann. Die
Wahrscheinlichkeit für eine statistische Fluktuation betrage nur noch 1:
100 000, heisst es in einer Pressemitteilung
der Johns Hopkins University. Damit muss man der Möglichkeit ins Auge
blicken, dass das Standardmodell der Kosmologie die Entwicklung unseres
Universums nicht korrekt beschreibt.
Die
Hubble-Konstante ist eine fundamentale Grösse der Kosmologie, die
angibt, wie schnell sich unser Universum heute ausdehnt. Grundsätzlich
gibt es zwei Möglichkeiten, diese Grösse zu messen. Die eine Methode
setzt 380 000 Jahre nach dem Urknall an, als die kosmische
Mikrowellenhintergrundstrahlung freigesetzt wurde. Mit dem
Planck-Satelliten der ESA haben Forscher in den letzten Jahren die
winzigen Temperaturschwankungen dieser Strahlung vermessen. Auf dieser
Grundlage lässt sich mit dem Standardmodell der Kosmologie
extrapolieren, wie schnell sich das Universum heute ausdehnen sollte.
Die
andere Methode zur Messung der Hubble-Konstante setzt im Hier und Jetzt
an. Indem man die Geschwindigkeit misst, mit der sich Galaxien in
unserer kosmische Nachbarschaft von uns wegbewegen, und gleichzeitig die
Entfernung dieser Galaxien bestimmt, lässt sich ebenfalls die Rate
berechnen, mit der sich das Universum heute ausdehnt.
Der
schwierige Teil dabei ist die Entfernungsbestimmung. Dazu konstruieren
Astronomen anhand von pulsierenden Sternen (den Cepheiden) und
Supernovaexplosionen eine sogenannte Entfernungsleiter. Diese Leiter
erlaubt es, die Distanz zu entfernten Galaxien Schritt für Schritt auf
die Distanz zu näher gelegenen Galaxien zurückzuführen.
Fehler schrumpft, Diskrepanz bleibt
In
ihrer jüngsten Arbeit ist es der Gruppe von Riess gelungen, diese
Entfernungsleiter genauer zu kalibrieren. Dazu analysierten die
Astronomen mit dem Hubble-Teleskop das Licht von 70 Cepheiden in der
Grossen Magellanschen Wolke, einer Nachbargalaxie der Milchstrasse.
Zudem zogen sie eine Messung anderer Forscher heran, die kürzlich die
Entfernung zu dieser Galaxie neu bestimmt hatten. So konnten sie die
unterste Sprosse der Leiter besser verorten. Das schlug sich in einem
genaueren Wert für die Hubble-Konstante nieder. Der Messfehler beträgt
jetzt nur noch 1,9 Prozent. Damit ist der Fehlerbalken viel kleiner als
die Abweichung von dem Wert, den die Planck-Arbeitsgruppe anhand der
kosmischen Hintergrundstrahlung ermittelt hatte.
Riess
und seine Mitarbeiter halten es für unwahrscheinlich, dass diese
Diskrepanz auf systematische Fehler in einer der Messungen
zurückzuführen ist. Denn es gebe unabhängige Messungen, die den
kleineren Wert der Hubble-Konstante bestätigen würden und andere
Messungen, die ebenfalls einen grösseren Wert favorisieren.
Das
hatte vor drei Jahren noch ganz anders geklungen. Damals hatte Riess
davor gewarnt, die Diskrepanz überzubewerten. Jetzt aber scheint für ihn
der Punkt erreicht zu sein, wo man sich ernsthafte Sorgen über das
Standardmodell der Kosmologie machen muss. Die Wahrscheinlichkeit sei
gross, dass in dem Modell, das die beiden Ären miteinander verbinde,
etwas fehle, wird Riess in der Pressemitteilung seiner Universität
zitiert.
Das Problem
orten er und seine Mitarbeiter im «dunklen» Sektor des Universums.
Gemeint ist damit die ominöse dunkle Energie, die durch ihren negativen
Druck dafür sorgt, dass sich das Weltall seit einigen Milliarden Jahren
immer schneller ausdehnt. Im Standardmodell der Kosmologie geht man
davon aus, dass diese Energieform unbekannten Ursprungs konstant ist. Es
könnte jedoch auch sein, dass sie sich im Laufe der Zeit verändert. Ob
das die Diskrepanz zum Verschwinden bringen würde, lässt sich derzeit
noch nicht mit Sicherheit sagen. Ziemlich sicher ist hingegen, dass sich
in nächster Zeit die Vorschläge häufen werden, wie das Standardmodell
zu modifizieren ist, um das Gestern mit dem Heute in Einklang zu
bringen.
Donnerstag, 25. April 2019
Der Grundgedanke der Relativitätstheorie.
bettermarks
aus spektrum.de, 25. April 2019
Die Symmetrie der Bewegung
Von Joachim Schulz
Eigentlich ist die spezielle Relativitätstheorie ziemlich langweilig. Sie ist die konsequente Fortführung eines alten Konzepts: der Relativität der Bewegung. Spannend ist jedoch, was alles aus einer einfachen Annahme folgen kann.
In einem alten Beitrag von 2008, meinem ersten zur Relativitätstheorie, habe ich es schon geschrieben:
Die spezielle Relativitätstheorie basiert auf demselben Prinzip, wie die klassische Mechanik: Dem Relativi- tätsprinzip. Dieses Prinzip besagt, dass alle Naturgesetze eine bestimmte Symmetrie aufweisen. Sie ändern sich nicht mit dem Bewegungszustand des Gesamtsystems.* Führen wir ein physikalisches Experiment in einem schnell, aber gleichmäßig bewegten Zugabteil durch, so erhalten wir dasselbe Ergebnis, wie in einem ortsfesten Labor.
Das ist bei weitem nicht selbstverständlich. Es ist eine Eigenschaft des Universums, in dem wir leben. Die Aufgabe der Physik ist es, solche Eigenschaften herauszuarbeiten. Eine zentrale Frage ist, unter welchen Bedingungen die Physik unverändert bleibt und wann nicht.
Solche Unveränderlichkeiten nennen wir in der Physik Symmetrien. Oft sind diese Symmetrien recht ab- strakt und auf dem ersten Blick nicht ersichtlich. Die Symmetrie bezüglich der Bewegung kann zwar expe- rimentell mit einigem Aufwand belegt werden, auf den ersten Blick ist sie aber nicht ersichtlich: Auf der Erde kommen alle Objekte irgendwann zur Ruhe. Bewegungslosigkeit relativ zur Erdoberfläche scheint bevorzugt zu sein.
Nicht zuletzt deshalb hat es bis ins 16. Jahrhundert gedauert, bis dieses Prinzip von Galileo Galilei heraus- gearbeitet wurde. Wir benötigen die mathematische Darstellung physikalischer Vorgänge, um komplexe Symmetrien darstellen zu können.
Was in der Speziellen Relativitätstheorie neu war
Die wesentliche Aussage der Speziellen Relativitätstheorie ist, dass die Naturgesetze bei Geschwindigkeits- änderungen eine etwas andere Symmetrie zeigen, als Galileo sie angenommen hat. Naturgesetze bleiben unverändert, wenn man von einem System in ein dazu gleichmäßig bewegtes übergeht. Aber nur wenn man es richtig macht.
In vielen Diskussionen wird es so dargestellt, als sei in der klassischen Physik nur die Galileo-Transforma- tion, in der Relativitätstheorie nur die Lorentztransformation gültig. Das ist so nicht richtig. Beide Transfor- mationen sind gültige Transformationen von Koordinaten. Solch eine Transformation muss eigentlich nur in beide Richtungen eindeutig sein: Jedem Punkt der alten Koordinaten müssen neue Koordinaten zugeord- net werden und jeder Punkt in neuen Koordinaten muss aus alten hervorgehen. Im Grunde ist das nur eine Umbenennung von Punkten. Dazu kommt, dass neue Koordinaten zu neuen Abstands-Definitionen führen können.
Es kann für die Physik nicht entscheidend sein, wie wir die Koordinaten benennen. Aber wir müssen na- türlich mit den Koordinaten die mathematische Formulierung der Naturgesetze entsprechend mittransfor- mieren. Dabei ergibt sich nun, dass diese bezüglich manchen Tranformationen invariant sind, anderen gegenüber nicht.
Was bleibt? Was ändert sich?
Es ist gut bekannt, dass die Physik nicht unverändert bleibt, wenn wir sie aus einem rotierenden System heraus beschreiben. Es ergeben sich Trägheitskräfte, wie die Centrifugal- und die Coriolis-Kraft.
Gehen wir aber von einem System in ein hierzu geradlinig, gleichmäßig bewegtes über, so bleiben die Naturgesetze gleich, wenn wir es richtig machen. Fast gleich bleiben sie, wenn wir Abstands- und Zeit- maßstab unverändert lassen und die Relativgeschwindigkeit zwischen den Bezugssystemen deutlich kleiner als Lichtgeschwindigkeit ist. Das ist die alte Galilei-Transformation.
Bei hohen Geschwindigkeiten muss die Galilei-Transformation zwangsläufig zu anderen Naturgesetzen führen, denn die Lichtausbreitung im Vakuum ist in dem Zielsystem nicht mehr unabhängig von der Rich- tung. Das Vakuum hat aber, nach allem was wir wissen, keine Vorzugsrichtungen. Wenn es also eine Geschwindigkeits-Transformation gibt, die alle Naturgesetze unverändert lässt, ist das nicht die Galilei-Transformation.
Wir müssen dazu die Lorentz-Transformation benutzen. Die Lorentz-Transformation unterscheidet sich von der Galilei-Transformation dadurch, dass sie die Zeitachse und die Ortsachse, auf der die Bewegung statt- findet, dehnt und zugleich die Definition von Gleichzeitigkeit ändert. Wenn wir solch eine Koordinaten- transformation durchführen, bleiben alle Naturgesetze gleich. Jedenfalls im Rahmen heutiger Messgenauig- keit.
Ich werde manchmal gefragt, warum es so wenige Versuche gibt, die klassischen Experimente zu Längen- kontraktion und Zeitdilatation mit besserer Genauigkeit zu wiederholen. Der Grund ist einfach: Die Physik interessiert sich für viel grundlegendere Fragen: Wie weit geht eigentlich die hier geschilderte Symmetrie. Wenn Sie an neue Experimente interessiert sind, suchen Sie mal nach test of lorentz invariance.
Anmerkung:
aus spektrum.de, 25. April 2019
Die Symmetrie der Bewegung
Von Joachim Schulz
Eigentlich ist die spezielle Relativitätstheorie ziemlich langweilig. Sie ist die konsequente Fortführung eines alten Konzepts: der Relativität der Bewegung. Spannend ist jedoch, was alles aus einer einfachen Annahme folgen kann.
In einem alten Beitrag von 2008, meinem ersten zur Relativitätstheorie, habe ich es schon geschrieben:
Auf diesem Prinzip [dem Relativitätsprinzip von Galileo] aufbauend ist es möglich, die Relativitätstheorie einzuführen, ohne den Boden der klassischen Physik je zu verlassen. Blogartikel Einsteins BlinddarmInvarianz bei Bewegungswechsel
Die spezielle Relativitätstheorie basiert auf demselben Prinzip, wie die klassische Mechanik: Dem Relativi- tätsprinzip. Dieses Prinzip besagt, dass alle Naturgesetze eine bestimmte Symmetrie aufweisen. Sie ändern sich nicht mit dem Bewegungszustand des Gesamtsystems.* Führen wir ein physikalisches Experiment in einem schnell, aber gleichmäßig bewegten Zugabteil durch, so erhalten wir dasselbe Ergebnis, wie in einem ortsfesten Labor.
Das ist bei weitem nicht selbstverständlich. Es ist eine Eigenschaft des Universums, in dem wir leben. Die Aufgabe der Physik ist es, solche Eigenschaften herauszuarbeiten. Eine zentrale Frage ist, unter welchen Bedingungen die Physik unverändert bleibt und wann nicht.
Solche Unveränderlichkeiten nennen wir in der Physik Symmetrien. Oft sind diese Symmetrien recht ab- strakt und auf dem ersten Blick nicht ersichtlich. Die Symmetrie bezüglich der Bewegung kann zwar expe- rimentell mit einigem Aufwand belegt werden, auf den ersten Blick ist sie aber nicht ersichtlich: Auf der Erde kommen alle Objekte irgendwann zur Ruhe. Bewegungslosigkeit relativ zur Erdoberfläche scheint bevorzugt zu sein.
Nicht zuletzt deshalb hat es bis ins 16. Jahrhundert gedauert, bis dieses Prinzip von Galileo Galilei heraus- gearbeitet wurde. Wir benötigen die mathematische Darstellung physikalischer Vorgänge, um komplexe Symmetrien darstellen zu können.
Was in der Speziellen Relativitätstheorie neu war
Die wesentliche Aussage der Speziellen Relativitätstheorie ist, dass die Naturgesetze bei Geschwindigkeits- änderungen eine etwas andere Symmetrie zeigen, als Galileo sie angenommen hat. Naturgesetze bleiben unverändert, wenn man von einem System in ein dazu gleichmäßig bewegtes übergeht. Aber nur wenn man es richtig macht.
In vielen Diskussionen wird es so dargestellt, als sei in der klassischen Physik nur die Galileo-Transforma- tion, in der Relativitätstheorie nur die Lorentztransformation gültig. Das ist so nicht richtig. Beide Transfor- mationen sind gültige Transformationen von Koordinaten. Solch eine Transformation muss eigentlich nur in beide Richtungen eindeutig sein: Jedem Punkt der alten Koordinaten müssen neue Koordinaten zugeord- net werden und jeder Punkt in neuen Koordinaten muss aus alten hervorgehen. Im Grunde ist das nur eine Umbenennung von Punkten. Dazu kommt, dass neue Koordinaten zu neuen Abstands-Definitionen führen können.
Es kann für die Physik nicht entscheidend sein, wie wir die Koordinaten benennen. Aber wir müssen na- türlich mit den Koordinaten die mathematische Formulierung der Naturgesetze entsprechend mittransfor- mieren. Dabei ergibt sich nun, dass diese bezüglich manchen Tranformationen invariant sind, anderen gegenüber nicht.
Was bleibt? Was ändert sich?
Es ist gut bekannt, dass die Physik nicht unverändert bleibt, wenn wir sie aus einem rotierenden System heraus beschreiben. Es ergeben sich Trägheitskräfte, wie die Centrifugal- und die Coriolis-Kraft.
Gehen wir aber von einem System in ein hierzu geradlinig, gleichmäßig bewegtes über, so bleiben die Naturgesetze gleich, wenn wir es richtig machen. Fast gleich bleiben sie, wenn wir Abstands- und Zeit- maßstab unverändert lassen und die Relativgeschwindigkeit zwischen den Bezugssystemen deutlich kleiner als Lichtgeschwindigkeit ist. Das ist die alte Galilei-Transformation.
Bei hohen Geschwindigkeiten muss die Galilei-Transformation zwangsläufig zu anderen Naturgesetzen führen, denn die Lichtausbreitung im Vakuum ist in dem Zielsystem nicht mehr unabhängig von der Rich- tung. Das Vakuum hat aber, nach allem was wir wissen, keine Vorzugsrichtungen. Wenn es also eine Geschwindigkeits-Transformation gibt, die alle Naturgesetze unverändert lässt, ist das nicht die Galilei-Transformation.
Wir müssen dazu die Lorentz-Transformation benutzen. Die Lorentz-Transformation unterscheidet sich von der Galilei-Transformation dadurch, dass sie die Zeitachse und die Ortsachse, auf der die Bewegung statt- findet, dehnt und zugleich die Definition von Gleichzeitigkeit ändert. Wenn wir solch eine Koordinaten- transformation durchführen, bleiben alle Naturgesetze gleich. Jedenfalls im Rahmen heutiger Messgenauig- keit.
Ich werde manchmal gefragt, warum es so wenige Versuche gibt, die klassischen Experimente zu Längen- kontraktion und Zeitdilatation mit besserer Genauigkeit zu wiederholen. Der Grund ist einfach: Die Physik interessiert sich für viel grundlegendere Fragen: Wie weit geht eigentlich die hier geschilderte Symmetrie. Wenn Sie an neue Experimente interessiert sind, suchen Sie mal nach test of lorentz invariance.
Anmerkung:
*) Unter einem System verstehe ich hier ausnahmsweise mal kein Koordinatensystem, sondern ein System miteinander wechselwirkender Objekte.
Mittwoch, 24. April 2019
Egozentrisch von Natur.
aus spektrum.de, 24.04.2019
Gedächtnis
Der Egozentriker in uns
Unser Arbeitsgedächtnis verarbeitet Informationen besser, wenn sie mit uns selbst zu tun haben.
von Anna Lorenzen
Auch wenn es niemand gern zugibt: Uns allen wohnt eine gewisse Selbstbezogenheit inne. So erinnern wir uns etwa nach einer Veranstaltung mit fremden Menschen am ehesten an diejenigen, mit denen wir über uns selbst gesprochen haben. Dieser Selbstreferenzeffekt beim Langzeitgedächtnis ist gut untersucht. Doch findet er sich ebenfalls bereits auf der Ebene des Arbeitsgedächtnisses, das als Bindeglied zwischen Mensch und Umwelt dient?
Wissenschaftler aus China, Großbritannien und den USA haben diese Vermutung nun mit Hilfe eines Experiments bestätigt. Hierzu lernten 104 Studenten drei verschiedene Farbkreise mit den Begriffen »Ich«, »Freund« oder »Fremder« zu assoziieren. Anschließend erschienen eine Sekunde lang zwei der Farbkreise auf einem Bildschirm. Nach fünf Sekunden sahen die Probanden einen schwarzen Kreis und sollten so schnell wie möglich per Tastendruck entscheiden, ob sich dieser an der gleichen Stelle befand wie einer der beiden Farbkreise zuvor.
Die Reaktion erfolgte signifikant schneller, wenn es sich bei der Position um diejenige des ich-assoziierten Farbkreises handelte. Dieser Selbstreferenzeffekt trat selbst dann auf, wenn der schwarze Kreis doppelt so häufig auf Positionen des »Freund«- und »Fremder«-Farbkreises erschien. Die Bevorzugung der Ich-Reprä- sentation im Arbeitsgedächtnis erfolgt also offenbar automatisch, schlussfolgern die Forscher. Somit stellt sich die Frage, inwieweit sich ichzentriertes Denken überhaupt beeinflussen lässt. Da das Arbeitsgedächtnis eine zentrale Rolle bei der Handlungsplanung spielt, ist es wahrscheinlich, dass der Effekt auch unser sozia- les Leben prägt. In weiteren Studien wollen die Forscher deshalb herausfinden, ob sich durch Experimente dieser Art beispielsweise der Grad egozentrischen Verhaltens vorhersagen lässt.
Nota. - Das größte Rätsel der Hirnforschung ist - und dürfte für eine gute Weile bleiben - das Faktum der Reflexion: dass das Bewusstsein eines Individuums sich gegen sich 'selber' wenden und zur Vorstellung von einem Ich ausbilden kann.
Egozentrik ist offenbar das Gegenteil: Der Egozentriker richtet fast alle seine Aufmerksamkeit zwar auf, aber nicht gegen sich - nämlich nicht so, dass er sich von Anderem unterschiede, sondern so, dass alles Andere hinter dem Selbst verschwindet.
Der springende Punkt wäre also nicht schon das Hervorheben von 'sich', sondern: das Unterscheiden vom Anderen. Doch ist der zweite Schritt erst nach dem ersten möglich. Die Bevorzugung des Selbstbezugs im Arbeitsgedächtnis wäre mithin die Bedingung des Bewusstseins. Daraus folgte, dass bei den Tieren eine solche Bevorzugung nicht vorkäme - schon weil sie ein Arbeitsgedächtnis gar nicht haben?
Merke: Wer nur in den Spiegel schaut, sieht nicht bloß sich selbst, sondern sieht das Andere nicht.
JE
Gedächtnis
Der Egozentriker in uns
Unser Arbeitsgedächtnis verarbeitet Informationen besser, wenn sie mit uns selbst zu tun haben.
von Anna Lorenzen
Auch wenn es niemand gern zugibt: Uns allen wohnt eine gewisse Selbstbezogenheit inne. So erinnern wir uns etwa nach einer Veranstaltung mit fremden Menschen am ehesten an diejenigen, mit denen wir über uns selbst gesprochen haben. Dieser Selbstreferenzeffekt beim Langzeitgedächtnis ist gut untersucht. Doch findet er sich ebenfalls bereits auf der Ebene des Arbeitsgedächtnisses, das als Bindeglied zwischen Mensch und Umwelt dient?
Wissenschaftler aus China, Großbritannien und den USA haben diese Vermutung nun mit Hilfe eines Experiments bestätigt. Hierzu lernten 104 Studenten drei verschiedene Farbkreise mit den Begriffen »Ich«, »Freund« oder »Fremder« zu assoziieren. Anschließend erschienen eine Sekunde lang zwei der Farbkreise auf einem Bildschirm. Nach fünf Sekunden sahen die Probanden einen schwarzen Kreis und sollten so schnell wie möglich per Tastendruck entscheiden, ob sich dieser an der gleichen Stelle befand wie einer der beiden Farbkreise zuvor.
Die Reaktion erfolgte signifikant schneller, wenn es sich bei der Position um diejenige des ich-assoziierten Farbkreises handelte. Dieser Selbstreferenzeffekt trat selbst dann auf, wenn der schwarze Kreis doppelt so häufig auf Positionen des »Freund«- und »Fremder«-Farbkreises erschien. Die Bevorzugung der Ich-Reprä- sentation im Arbeitsgedächtnis erfolgt also offenbar automatisch, schlussfolgern die Forscher. Somit stellt sich die Frage, inwieweit sich ichzentriertes Denken überhaupt beeinflussen lässt. Da das Arbeitsgedächtnis eine zentrale Rolle bei der Handlungsplanung spielt, ist es wahrscheinlich, dass der Effekt auch unser sozia- les Leben prägt. In weiteren Studien wollen die Forscher deshalb herausfinden, ob sich durch Experimente dieser Art beispielsweise der Grad egozentrischen Verhaltens vorhersagen lässt.
Nota. - Das größte Rätsel der Hirnforschung ist - und dürfte für eine gute Weile bleiben - das Faktum der Reflexion: dass das Bewusstsein eines Individuums sich gegen sich 'selber' wenden und zur Vorstellung von einem Ich ausbilden kann.
Egozentrik ist offenbar das Gegenteil: Der Egozentriker richtet fast alle seine Aufmerksamkeit zwar auf, aber nicht gegen sich - nämlich nicht so, dass er sich von Anderem unterschiede, sondern so, dass alles Andere hinter dem Selbst verschwindet.
Der springende Punkt wäre also nicht schon das Hervorheben von 'sich', sondern: das Unterscheiden vom Anderen. Doch ist der zweite Schritt erst nach dem ersten möglich. Die Bevorzugung des Selbstbezugs im Arbeitsgedächtnis wäre mithin die Bedingung des Bewusstseins. Daraus folgte, dass bei den Tieren eine solche Bevorzugung nicht vorkäme - schon weil sie ein Arbeitsgedächtnis gar nicht haben?
Merke: Wer nur in den Spiegel schaut, sieht nicht bloß sich selbst, sondern sieht das Andere nicht.
JE
Montag, 22. April 2019
Wahrnehmen ist Prognosen stellen.
online-wahrsagen
aus spektrum.de, 22.04.2019
Predictive Coding
Sagt unser Gehirn die Zukunft voraus?
Mit »Predictive Coding« wollen Forscher von Grund auf neu erklären, wie unser Gehirn funktioniert: Geht es in unserem Kopf immer nur um den Blick in die Zukunft?
von Jordana Cepelewicz
Im Sommer 2018 stellte das Unternehmen Deep Mind, das zu Google gehört, eine neue Software vor. Diese kann anhand weniger Bilder von Objekten in einem virtuellen Raum dreidimensionale Szenen ableiten – ohne Vorgaben von Menschen. Dem Programm liegt ein System zu Grunde, das »Generative Query Network« (GQN) heißt. Damit kann die Software zum Beispiel das Layout eines einfachen Videospiels nachbilden.
Das macht GQN nicht nur für technologische Anwendungen interessant, auch Neurowissenschaftler haben ein Auge auf das System geworfen. Besonders interessiert sie der Trainingsalgorithmus, mit dem das Programm seine Aufgabe lernt. Und der funktioniert ungefähr so: Aus einem Bild einer räumlichen Szene erzeugt GQN Vorhersagen darüber, wie die Szene aus anderen Blickwinkeln aussehen würde – etwa, wo sich die Objekte befinden, wie ihre Schatten auf Oberflächen fallen und welche Bereiche aus verschiedenen Winkeln sichtbar sind. Die Unterschiede zwischen den Vorhersagen und den tatsächlichen Beobachtungen nutzt das System, um die Genauigkeit seiner künftigen Vorhersagen zu verbessern.
Danilo Rezende, Mitarbeiter des Deep-Mind-Projekts, erklärt die Vorgehensweise der Software folgendermaßen: »Der Algorithmus verändert die Parameter seines Vorhersagemodells so, dass er weniger überrascht ist, wenn er das nächste Mal auf die gleiche Situation stößt.«
Neurowissenschaftler vermuten schon seit Längerem, dass unser Gehirn auf ähnliche Weise funktioniert. Eine Vermutung, von der sich auch das GQN-Team hat inspirieren lassen. Dieser Theorie des »Predictive Coding« zufolge erzeugt das Gehirn auf allen Ebenen seiner kognitiven Prozesse Modelle, die beschreiben, was gerade auf der nächstniedrigeren Ebene vor sich geht. Diese Modelle übersetzt es in Vorhersagen darüber, was es in einer bestimmten Situation erleben wird. So liefert es die beste Erklärung für das, was geschieht: Es sorgt dafür, dass die Erfahrung Sinn ergibt.
Anschließend werden die Vorhersagen als Feedback in die sensorischen Areale des Gehirns heruntergereicht. Dort vergleicht es seine Vorhersagen mit den tatsächlichen Sinneseindrücken. Um die Ursachen für Abweichungen und Vorhersagefehler zu »erklären«, benutzt es wiederum interne Modelle. Unser internes Modell für einen Tisch könnte beispielsweise ein Ding aus Oberfläche mit vier Beinen beschreiben. Trotzdem erkennen wir einen Tisch selbst dann noch, wenn wir nur zwei Beine sehen, weil uns etwas die Sicht versperrt.
Vorhersagefehler, die so nicht erklärt werden
können, leitet das Gehirn an höhere Ebenen des Netzwerks weiter – und zwar nicht als »Feedback«-, sondern als »Feedforward«-Signal. Dort werden sie mit besonderer Priorität behandelt. »Es geht dann darum, die internen Modelle so anzupassen, dass der Vorhersagefehler unterdrückt wird«, erklärt Karl Friston vom University College London. Er ist renommierter Neurowissenschaftler und einer der Pioniere der Predictive-Coding-Hypothese.
Seit gut zwei Jahrzehnten wächst die Zahl der Kognitionswissenschaftler, Philosophen und Psychologen, die im Predictive Coding ein überzeugendes Modell der Wahrnehmung sehen. Manche wagen sich sogar noch einen Schritt weiter: Ihnen liefert das Predictive Coding gar den Ansatz für eine allumfassende Theorie der Funktionsweise unseres Gehirns. Erst seit Kurzem hat die Forschung überhaupt das Handwerkszeug, um spezifische Vorhersagen der Hypothese zu testen. Mehrfach wurde sie dabei schon eindrucksvoll bestätigt. Dennoch bleibt sie umstritten – abzulesen an der aktuellen Debatte darüber, ob einige der vermeintlich richtungsweisenden Resultate überhaupt einer genaueren Überprüfung standhalten.
Hund im Kaffee | Hören Versuchspersonen Wörter, die nicht in den Satzzusammenhang passen, erzeugt das Gehirn einen messbaren Vorhersagefehler.
Hund im Kaffee
»Ich nehme einen Kaffee
mit Milch und ____« – ein passendes Wort wäre hier »Zucker«. Das nahmen
auch die Kognitionswissenschaftler Marta Kutas und Steven Hillyard von
der University of California in San Diego an. Im Jahr 1980 führten sie eine Reihe von Experimenten
mit derartigen Lückensätzen durch. Dabei präsentierten sie ihren
Probanden den Satz Wort für Wort auf einem Bildschirm und nahmen dabei
deren Hirnaktivität auf. Mal endete der Satz mit »Zucker«, mal mit
»Hund«, also: »Ich nehme einen Kaffee mit Milch und Hund.«
Wenn die Versuchsteilnehmer dem unerwarteten Wort »Hund« begegneten, beobachteten die Forscher im EEG, dass deren Gehirn stärker reagierten. Die elektrische Aktivität nahm ein bestimmtes Muster an: Etwa 400 Millisekunden nach der Entdeckung des unpassenden Worts erreichte sie einen Höchststand. Heute bezeichnet man das als den »N400-Effekt«. Unklar blieb weiterhin, wie man das Muster interpretieren könnte. Reagierte das Gehirn darauf, dass die Bedeutung des Worts im Zusammenhang des Satzes keinen Sinn ergab? Oder weil es das Wort einfach nicht erwartet hatte, also nicht den Vorhersagen entsprach?
Im Jahr 2005 veröffentlichten Kutas und ihr Team eine weitere Studie, die Letzteres nahelegt. In der Studie baten sie Probanden, folgenden englischen Satz Wort für Wort auf einem Bildschirm zu lesen: »The day was breezy so the boy went outside to fly ____« (zu Deutsch: »Der Tag war windig, also ging der Junge hinaus, um ____ steigen zu lassen.«) Weil für diese Lücke die Wörter »a kite« (»einen Drachen«) am wahrscheinlichsten erscheinen, erwarteten die Probanden, zunächst das Wort »a« (»einen«) zu lesen. Der Artikel bedeutet zwar für sich genommen nichts, sagt aber das darauf folgende Wort in gewisser Weise vorher. Sahen die Teilnehmer stattdessen das Wort »an«, das nicht zu »kite« passt, sondern eher zu »an airplane« (»ein Flugzeug«), erzeugte ihr Gehirn erneut die N400-Reaktion. Der Effekt hatte also anscheinend nichts mit der Bedeutung des Worts zu tun oder mit Schwierigkeiten, das Dargestellte zu verarbeiten, sondern mit einem Konflikt zwischen Realität und intern gebildeten Vorhersagen.
Diese Ergebnisse scheinen gut in das Gerüst des Predictive Coding zu passen. Im April 2018 berichteten Forscher jedoch im Fachblatt »eLife«, dass es mehreren Laboren nicht gelungen sei, die Studie aus Kutas Labor zu replizieren. Warum, wird unter Fachleuten noch intensiv diskutiert. Einige Wissenschaftler sind dabei sogar der Ansicht, dass die neuen Ergebnisse bei genauerer Betrachtung Kutas' Interpretation stützen könnten.
Dieses Hin und Her kennzeichnet die aktuelle Debatte um das Predictive Coding. Wer will, kann Resultate wie die von Kutas auch mit anderen Modellen erklären. Zumal noch keine Studie einen definitiven Nachweis für die Hypothese des Predictive Coding erbracht hat, denn bisher hat sich noch niemand umfassend mit den dahinterstehenden Mechanismen befasst. An der Grundannahme – das Gehirn bildet laufend Schlussfolgerungen aus seinen Sinnesdaten und gleicht sie mit der Realität ab – zweifeln heute nur noch wenige Fachleute. Was die Befürworter des Predictive Coding noch schuldig sind, ist der eindeutige Beleg dafür, dass ihre spezielle Sicht auf diese Vorgänge die richtige ist und dass sie sich auf alle Bereiche der Wahrnehmung übertragen lässt.
Bayessche Gehirne und effizientes Rechnen
Es wurde nicht immer als selbstverständlich angesehen, dass das Gehirn Vorhersagen über seine Erfahrungen macht und auswertet. Bis ins späte 20. Jahrhundert nahmen Hirnforscher an, dass das Gehirn eine Art Detektor für Muster in Sinnesdaten sei: Es registriere Sinnesreize, verarbeite sie und erzeuge ein Verhalten als Reaktion. Dabei repräsentiert die Aktivität einzelner Hirnzellen die An- oder Abwesenheit bestimmter Reize. Einige Neurone im visuellen Kortex reagieren zum Beispiel nur auf die Kanten sichtbarer Objekte, andere auf deren Orientierung, Färbung oder Schattierung.
Doch dieser Prozess erwies sich als weit komplizierter als zunächst angenommen. So ergaben spätere Experimente, dass die Neurone, die auf Linien reagieren, aufhören zu feuern, wenn das Gehirn eine immer länger werdende Linie wahrnimmt – obwohl die Linie nicht verschwindet. Außerdem kann die Detektortheorie nicht erklären, warum im Gehirn ein beträchtlicher Teil des Informationsflusses »top-down« zu verlaufen scheint, also von Arealen für komplexere Inhalte in Richtung jener, die einfachere Sinnesdaten verarbeiten.
Hier kommt das »bayessche Gehirn« ins Spiel, eine Theorie, die bis in die 1860er Jahre zurückreicht und das traditionelle Modell auf den Kopf stellt. Ihr zufolge erkennt das Gehirn nicht einfach Sinnesmuster, sondern zieht aus ihnen fortlaufend Schlüsse darüber, was in der Welt mutmaßlich zu passieren scheint. Dabei folgt es den Regeln der bayesschen Wahrscheinlichkeitsrechnung, die die Wahrscheinlichkeit eines kommenden Ereignisses auf Basis vorheriger Erfahrungen ermittelt. Statt auf Sinneseindrücke zu warten, konstruiert das Gehirn also ständig aktiv Hypothesen darüber, wie die Welt funktioniert. Es erklärt so außerdem neue Erfahrungen und füllt Lücken, wenn die Sinnesdaten unvollständig sind. Nach Meinung einiger Experten könnte man Wahrnehmung also auch als »kontrollierte Halluzination« auffassen.
So erklärt die Theorie vom bayesschen Gehirn auch, wie optische Täuschungen zu Stande kommen: Zwei Punkte, die im schnellen Wechsel auf einem Bildschirm blinken, erscheinen beispielsweise wie ein einzelner Punkt, der hin- und herspringt. Unser Gehirn beginnt unbewusst, die beiden Punkte als ein Objekt zu betrachten. Unser abstraktes Verständnis darüber, wie sich Objekte in der Welt bewegen, beeinflusst also grundlegend, wie wir Objekte wahrnehmen. Das Gehirn füllt einfach Informationslücken – in diesem Fall über die Bewegung –, auch wenn es dabei mitunter danebenliegt.
Wie das allerdings auf Ebene der neuronalen Schaltkreise funktioniert, ist weiterhin unklar. »Die Idee vom bayesschen Hirn macht eigentlich kaum Aussagen über die zu Grunde liegenden Mechanismen«, sagt Mark Sprevak, Professor für die Philosophie des Geistes an der University of Edinburgh in Schottland. Und genau hier kommt die Theorie des Predictive Coding ins Spiel. Sie liefert ein konkretes Rezept für den Bau eines bayesschen Hirns. Ein Hinweis darauf steckt im Namen: »Predictive Coding« ist von einer Technologie zur effizienten Übertragung von Telekommunikationssignalen abgeleitet. Bei Videos beispielsweise ähneln sich die Daten der aufeinanderfolgenden Einzelbilder sehr stark. Da wäre es ineffizient, die Pixel in jedem Bild einzeln zu codieren, wenn die Datei zum Verschicken komprimiert wird. Es ist sinnvoller, nur die Veränderungen der aufeinanderfolgenden Einzelbilder zu codieren und so das gesamte Video beim Empfänger wiederaufzubauen.
Im Jahr 1982 erkannten Forscher, dass sich dieses Prinzip wunderbar in der Hirnforschung nutzen lassen könnte. Es liefert nämlich eine Erklärung dafür, wie Neurone in der Netzhaut Informationen über visuelle Reize codieren und durch den Sehnerv schicken. Außerdem wusste man bereits, dass das Belohnungssystem des Gehirns auf ähnliche Weise arbeitet: Dopaminneurone codieren hier die Diskrepanz zwischen einer erwarteten und der tatsächlichen Belohnung. Solche Prognosefehler helfen Tieren, ihre Erwartungen an künftige Ereignisse anzupassen und so bessere Entscheidungen zu treffen.
Dennoch glaubten die meisten Forscher, dass Predictive Coding nur in bestimmten Netzwerken des Gehirns implementiert ist. Ein Bild, an dem neue Methoden wie die funktionelle Magnetresonanztomografie (fMRT) zu rütteln begonnen haben.
Eine universelle Theorie
Was die Hypothese des Predictive Coding so attraktiv macht, ist ihre ungewöhnliche Erklärungskraft. »Was ich überzeugend finde, ist, wie viele Phänomene man damit unter einen Hut bringt«, sagt Andy Clark, der ebenfalls an der University of Edinburgh forscht. Der Professor für Logik und Metaphysik gilt als Experte der Theorie.
Predictive Coding begreift zum Beispiel Wahrnehmung und motorische Steuerung als zwei Seiten derselben Informationsverarbeitung. In beiden Fällen minimiert das Gehirn Vorhersagefehler, bloß auf unterschiedliche Weise. Bei der Wahrnehmung wird das interne Modell angepasst, bei der motorischen Steuerung die Außenwelt selbst. Stellen Sie sich etwa vor, dass Sie Ihre Hand heben wollen. Wenn Ihre Hand nicht bereits gehoben ist, erzeugt die wahrgenommene Diskrepanz einen großen Vorhersagefehler. Der kann leicht minimiert werden, indem Sie Ihre Hand heben.
Die bisher überzeugendsten Belege für die Predictive-Coding-Theorie haben denn auch Experimente zur Wahrnehmung und motorischen Steuerung geliefert. In einem Artikel, der im Juni 2018 im Fachmagazin »Journal of Neuroscience« veröffentlicht wurde, beschreiben die Autoren ein Experiment, bei dem sie Probanden das englische Wort »kick« auf einem Bildschirm lesen ließen. Anschließend spielten sie ihnen eine verzerrte Aufnahme des Wortes »pick« vor, die wie ein lautes Flüstern klang. Viele der Probanden hörten jedoch statt »pick« das Wort »kick«. fMRT-Scans zeigten, dass im Gehirn dabei der einleitende »k«- oder »p«-Laut am stärksten repräsentiert war – jener Laut also, der mit dem Vorhersagefehler korreliert. Hätte die Hirnaktivität nur die Wahrnehmungserfahrung wiedergegeben, hätte das stärkste Signal stattdessen auf das Wortende »ick« fallen müssen, das sowohl auf dem Bildschirm als auch in der Aufnahme vorkam.
Einige Forscher versuchen nun zu zeigen, dass Predictive Coding auch in Bereichen außerhalb der Wahrnehmung und Motorik relevant ist. Sie wollen den Vorhersagemechanismus als Grundlage aller Vorgänge im Gehirn etablieren. »Er gibt uns eine Art Baukasten, mit dem ganz unterschiedliche Verarbeitungsstrategien zusammengesetzt werden können«, erklärt Clark. Jede Hirnregion könnte so ihre jeweils eigene Art von Vorhersage produzieren.
Karl Friston und andere Forscher denken, dass dies auch für höhere kognitive Prozesse einschließlich der Aufmerksamkeit und Entscheidungsfindung gelte. Jüngste Simulationen des präfrontalen Kortex legen etwa nahe, dass das Predictive Coding eine Rolle beim Arbeitsgedächtnis und zielorientierten Verhalten spielt. Einige Wissenschaftler vermuten sogar, dass auch Emotionen auf dem Predictive Coding beruhen: Sie könnten Zustände sein, die Gehirne erzeugen, um Vorhersagefehler über interne Signale wie Körpertemperatur, Herzfrequenz oder Blutdruck zu minimieren. Bei emotionaler Aufregung etwa weiß das Gehirn sofort, dass sich all diese physiologischen Faktoren ändern. So entsteht womöglich auch das Konzept des Selbst.
Die meisten aktuellen Arbeiten zum Predictive Coding konzentrieren sich heute auf den Bereich Neuropsychiatrie und Entwicklungsstörungen. »Wenn das Gehirn eine Schlussfolgerungsmaschine ist, ein Organ der Statistik, dann wird es auch die gleichen Fehler machen wie ein Statistiker«, sagt Friston. Das bedeutet, es wird gelegentlich falsche Schlüsse ziehen, also zu viel oder zu wenig Gewicht auf Vorhersagen oder Vorhersagefehler legen.
Auf diese Weise könnte man einige Merkmale des Autismus als die Unfähigkeit des Gehirns verstehen, Fehler in der Vorhersage sensorischer Signale auf der untersten Ebene der Verarbeitungshierarchie zu ignorieren. Die Betroffenen würden viel zu viel Gewicht auf Sinneserfahrungen legen, ein Bedürfnis nach Wiederholung und Vorhersehbarkeit erzeugen und eine besondere Empfänglichkeit für bestimmte Illusionen mit sich bringen. Bei der Schizophrenie könnte das Gegenteil der Fall sein: Legt das Gehirn den Fokus zu stark auf die eigenen Vorhersagen und nicht ausreichend auf die Sinnesdaten, kommt es zu Halluzinationen. Experten mahnen jedoch zur Vorsicht: Autismus und Schizophrenie seien viel zu kompliziert, um auf eine einzige Erklärung oder einen einzigen Mechanismus reduziert zu werden.
»Die größte Tragweite hat dabei die Erkenntnis, wie anfällig unsere mentale Funktion für Fehler ist«, sagt Philip Corlett, ein klinischer Neurowissenschaftler an der Yale School of Medicine. Zur Demonstration pflanzte sein Team gesunden Probanden falsche Überzeugungen ein und ließ sie Dinge »halluzinieren«, die sie zuvor wahrgenommen hatten. Konkret konditionierte Corletts Team die Freiwilligen darauf, einen Ton mit einem visuellen Muster zu assoziieren. Nach der Konditionierung hörten sie dann auch den Ton, selbst wenn nur das visuelle Muster präsentiert wurde: eine Illusion, die durch eine erlernte Überzeugung ausgelöst wird. Nun versuchen Corlett und seine Mitarbeiter herauszufinden, wie es funktioniert, dass sich solche Überzeugungen in der Wahrnehmung niederschlagen. »Mit den Studien haben wir einen ersten Beweis dafür geliefert, dass Wahrnehmung und Kognition nicht getrennt arbeiten«, sagt Corlett. »Neue Überzeugungen können antrainiert werden, und dann verändern sie, was man wahrnimmt.«
Ein tieferer Blick ist nötig
In den Kognitionswissenschaften ist die Theorie auch auf Grund solcher Erkenntnisse schon recht weit verbreitet. Ein echter Beweis für das Predictive Coding sind aber auch diese experimentellen Resultate nicht. »Solche Ergebnisse sind mit dem Predictive Coding zwar kompatibel«, sagt Sprevak, »sie können jedoch nicht zeigen, dass das Modell die bestmögliche Erklärung für die Daten liefert.« Dafür müsste man tiefer in die Netzwerke des Gehirns schauen.
»In der System-Neurowissenschaft ist Predictive Coding noch immer ein Nebenschauplatz«, sagt Georg Keller, Neurowissenschaftler am Friedrich-Miescher-Institut für Biomedizinische Forschung in Basel. Sein Labor versucht das zu ändern. In einer im Jahr 2017 im Fachmagazin »Neuron« veröffentlichten Studie berichten Keller und seine Kollegen, wie sie beobachteten, dass sich im Sehsystem von Mäusen Neurone entwickelten, die auf Basis neuer Erfahrungen Vorhersagen machten. Die Entdeckung ist einem technischen Missgeschick zu verdanken. Das Ziel der Forscher war, ihre Mäuse in einer Art virtueller Welt zu trainieren. Bei der 3-D-Programmierung war ihnen allerdings ein Fehler unterlaufen: Wenn sich die Tiere nach links drehten, wanderte ihr Blickfeld nach links statt nach rechts wie in der Realität.
Die Forscher machten sich dies zu Nutze. Sie nahmen die Signale der Hirnaktivität der Tiere auf, die den visuellen Fluss repräsentieren. Dabei stellten sie fest, dass sich die Signale langsam an die Regeln der verkehrten Trainingswelt anpassten, als die Tiere die neuen Regeln lernten. »Die Signale sahen aus wie Vorhersagen visueller Bewegungen nach links«, sagt Keller.
Das Argument der Forscher: Würden die Signale reine Sinnesdaten darstellen, hätten sie sich in der virtuellen Welt sofort umdrehen müssen. Würden sie motorischen Signalen entsprechen, würden sich die Tiere nie umdrehen. Beides war nicht der Fall. Stattdessen seien es Prognosen, die die Veränderungen im Sichtfeld bei einer Bewegung vorhersagen, sagt Keller. Diese Ergebnisse von Keller seien eine völlig neue Art des Nachweises, meint Clark. »Sie demonstrieren Zelle für Zelle und Schicht für Schicht, dass Predictive Coding die beste Erklärung dafür liefert, was in dem Experiment vor sich ging.«
Etwa zur gleichen Zeit berichteten Forscher um Caspar Schwiedrzik vom European Neuroscience Institute Göttingen von ähnlichen Ergebnissen in einem Teil des Makakenhirns, das mit der Gesichtserkennung im Zusammenhang steht. Frühere Studien hatten bereits gezeigt, dass Neurone in den unteren Schichten des so genannten Gesichtsnetzwerks orientierungsrelevante Merkmale von Gesichtern codieren – einige werden zum Beispiel nur bei Gesichtern im Profil aktiv, andere bei Frontalansichten. In höheren Schichten des Netzwerks repräsentieren die Neurone dagegen Gesichter auf abstraktere Weise, sie reagieren dort eher auf die Identität als auf die Ausrichtung im Raum.
In der Makakenstudie trainierten die Forscher die Affen mit Paaren von Gesichtern. Das Gesicht, das den Affen zuerst gezeigt wurde, verriet immer auch etwas über das darauf folgende. Später manipulierten sie die dabei entstandenen Erwartungen der Affen, indem sie das erwartete Gesicht entweder aus einem anderen Blickwinkel zeigten oder ein ganz anderes Gesicht verwendeten. Dabei beobachteten die Wissenschaftler Vorhersagefehler in den niedrigeren Ebenen des Netzwerks. Ihren Ursprung hatten diese Fehlersignale aber in den höheren Schichten des Netzwerks, wo die Vorhersagen über die Identität getroffen werden. Das weist darauf hin, dass die niedrigeren Ebenen Fehlersignale erzeugen, indem sie die Sinnessignale mit den Vorhersagen vergleichen, die aus höheren Schichten stammen.
»Es war spannend, dass wir nicht nur Vorhersagefehler selbst, sondern auch den spezifischen Inhalt dieser Vorhersagefehler in diesem System gefunden haben«, sagt Studienautor Schwiedrzik. Bei Versuchen an Menschen scheint sich die Hypothese des Vorhersagefehlers ebenfalls zu bestätigen. Zumindest deuten darauf noch vorläufige Ergebnisse einer Studie von Forschern um Lucia Melloni vom Max-Planck-Institut für empirische Ästhetik in Frankfurt hin.
Eine Vorhersage bitte – codiert oder verarbeitet?
Doch längst nicht alle Forscher sind der Auffassung, dass sich Predictive Coding als grundlegender Hirnmechanismus herauskristallisiert. Bei anderen sind die Zweifel noch prinzipieller. David Heeger, Professor für Psychologie an der New York University, findet es wichtig, zwischen »Predictive Coding«, einer effizienten Form von Informationsübertragung, und »Predictive Processing« zu unterscheiden. Wobei er Letzteres als das beständige Treffen von Vorhersagen über Zukünftiges auffasst. »In der Literatur herrscht darüber große Verwirrung, weil diese unterschiedlichen Konzepte oft in einen Topf geworfen werden«, sagte er. Andere bayessche Modelle könnten unter bestimmten Umständen eine genauere Beschreibung der Gehirnfunktion liefern.
Einig dagegen sind sich die meisten Experten darüber, dass die Forschung am Predictive Coding viel Potenzial für maschinelles Lernen bietet. Zwar beschäftigt sich die künstliche Intelligenz derzeit nicht sonderlich intensiv mit dem Modell. Friston aber denkt, dass eine »Deep-Learning«-Architektur, die auf Predictive Coding beruht, die Intelligenz der Maschinen noch näher an die des Menschen bringen könnte. Das eingangs erwähnte GQN von Deep Mind ist ein gutes Beispiel dafür. Ein anderes stammt von Forschern von der University of Sussex. 2018 implementierten sie das Predictive Coding in einer Kombination aus künstlicher Intelligenz und virtueller Realität. Heraus kam dabei eine »Halluzinationsmaschine«, die in der Lage war, halluzinatorische Zustände nachzuahmen, wie sie typischerweise durch psychedelische Drogen verursacht werden.
Derartige Fortschritte beim Maschinenlernen könnten auch dazu genutzt werden, neue Erkenntnisse über die Hirnfunktion zu gewinnen. Bevor es jedoch so weit ist, haben Hirnforscher noch viel zu tun. Sie müssen Methoden wie die von Keller, Schwiedrzik und anderen optimieren, wenn sie herauszufinden wollen, wo genau im Gehirn die internen Modelle sitzen. Es bleibt abzuwarten, ob weitere Experimente die Existenz des Predictive Coding auch in höheren kognitiven Prozessen belegen.
Predictive Coding »ist für die Neurowissenschaft so wichtig wie Evolution für die Biologie«, sagt Lars Muckli von der University of Glasgow, der sich intensiv mit der Theorie auseinandergesetzt hat. Bislang aber, findet Sprevak, »ist das letzte Wort noch nicht gesprochen«.
Von »Spektrum der Wissenschaft« übersetzte und redigierte Fassung des Artikels »To Make Sense of the Present, Brains May Predict the Future« aus dem »Quanta Magazine«, einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Verbreitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.
Übersetzung aus
Nota. - Richtiger wäre die Überschrift: Wahrnehmen heißt Modelle entwerfen. Doch nach der Theorie werden die Modelle um des Er- wägens der Möglichkeiten willen entworfen; das ist also, worauf es ankommt. Die Möglichkeiten werden erwogen, um die Verhaltensvarianten vorauszuplanen. Nicht um Erkenntnis geht es, sondern ums Handeln. Die Sinnesdaten treffen nicht auf eine Tabula rasa, sondern auf eine Erwartung; die Erwartung nämlich, wieder handeln zu müssen.
JE
aus spektrum.de, 22.04.2019
Predictive Coding
Sagt unser Gehirn die Zukunft voraus?
Mit »Predictive Coding« wollen Forscher von Grund auf neu erklären, wie unser Gehirn funktioniert: Geht es in unserem Kopf immer nur um den Blick in die Zukunft?
von Jordana Cepelewicz
Im Sommer 2018 stellte das Unternehmen Deep Mind, das zu Google gehört, eine neue Software vor. Diese kann anhand weniger Bilder von Objekten in einem virtuellen Raum dreidimensionale Szenen ableiten – ohne Vorgaben von Menschen. Dem Programm liegt ein System zu Grunde, das »Generative Query Network« (GQN) heißt. Damit kann die Software zum Beispiel das Layout eines einfachen Videospiels nachbilden.
Das macht GQN nicht nur für technologische Anwendungen interessant, auch Neurowissenschaftler haben ein Auge auf das System geworfen. Besonders interessiert sie der Trainingsalgorithmus, mit dem das Programm seine Aufgabe lernt. Und der funktioniert ungefähr so: Aus einem Bild einer räumlichen Szene erzeugt GQN Vorhersagen darüber, wie die Szene aus anderen Blickwinkeln aussehen würde – etwa, wo sich die Objekte befinden, wie ihre Schatten auf Oberflächen fallen und welche Bereiche aus verschiedenen Winkeln sichtbar sind. Die Unterschiede zwischen den Vorhersagen und den tatsächlichen Beobachtungen nutzt das System, um die Genauigkeit seiner künftigen Vorhersagen zu verbessern.
Danilo Rezende, Mitarbeiter des Deep-Mind-Projekts, erklärt die Vorgehensweise der Software folgendermaßen: »Der Algorithmus verändert die Parameter seines Vorhersagemodells so, dass er weniger überrascht ist, wenn er das nächste Mal auf die gleiche Situation stößt.«
Neurowissenschaftler vermuten schon seit Längerem, dass unser Gehirn auf ähnliche Weise funktioniert. Eine Vermutung, von der sich auch das GQN-Team hat inspirieren lassen. Dieser Theorie des »Predictive Coding« zufolge erzeugt das Gehirn auf allen Ebenen seiner kognitiven Prozesse Modelle, die beschreiben, was gerade auf der nächstniedrigeren Ebene vor sich geht. Diese Modelle übersetzt es in Vorhersagen darüber, was es in einer bestimmten Situation erleben wird. So liefert es die beste Erklärung für das, was geschieht: Es sorgt dafür, dass die Erfahrung Sinn ergibt.
Anschließend werden die Vorhersagen als Feedback in die sensorischen Areale des Gehirns heruntergereicht. Dort vergleicht es seine Vorhersagen mit den tatsächlichen Sinneseindrücken. Um die Ursachen für Abweichungen und Vorhersagefehler zu »erklären«, benutzt es wiederum interne Modelle. Unser internes Modell für einen Tisch könnte beispielsweise ein Ding aus Oberfläche mit vier Beinen beschreiben. Trotzdem erkennen wir einen Tisch selbst dann noch, wenn wir nur zwei Beine sehen, weil uns etwas die Sicht versperrt.
Vorhersagefehler, die so nicht erklärt werden
können, leitet das Gehirn an höhere Ebenen des Netzwerks weiter – und zwar nicht als »Feedback«-, sondern als »Feedforward«-Signal. Dort werden sie mit besonderer Priorität behandelt. »Es geht dann darum, die internen Modelle so anzupassen, dass der Vorhersagefehler unterdrückt wird«, erklärt Karl Friston vom University College London. Er ist renommierter Neurowissenschaftler und einer der Pioniere der Predictive-Coding-Hypothese.
Seit gut zwei Jahrzehnten wächst die Zahl der Kognitionswissenschaftler, Philosophen und Psychologen, die im Predictive Coding ein überzeugendes Modell der Wahrnehmung sehen. Manche wagen sich sogar noch einen Schritt weiter: Ihnen liefert das Predictive Coding gar den Ansatz für eine allumfassende Theorie der Funktionsweise unseres Gehirns. Erst seit Kurzem hat die Forschung überhaupt das Handwerkszeug, um spezifische Vorhersagen der Hypothese zu testen. Mehrfach wurde sie dabei schon eindrucksvoll bestätigt. Dennoch bleibt sie umstritten – abzulesen an der aktuellen Debatte darüber, ob einige der vermeintlich richtungsweisenden Resultate überhaupt einer genaueren Überprüfung standhalten.
Hund im Kaffee | Hören Versuchspersonen Wörter, die nicht in den Satzzusammenhang passen, erzeugt das Gehirn einen messbaren Vorhersagefehler.
Hund im Kaffee
Wenn die Versuchsteilnehmer dem unerwarteten Wort »Hund« begegneten, beobachteten die Forscher im EEG, dass deren Gehirn stärker reagierten. Die elektrische Aktivität nahm ein bestimmtes Muster an: Etwa 400 Millisekunden nach der Entdeckung des unpassenden Worts erreichte sie einen Höchststand. Heute bezeichnet man das als den »N400-Effekt«. Unklar blieb weiterhin, wie man das Muster interpretieren könnte. Reagierte das Gehirn darauf, dass die Bedeutung des Worts im Zusammenhang des Satzes keinen Sinn ergab? Oder weil es das Wort einfach nicht erwartet hatte, also nicht den Vorhersagen entsprach?
Im Jahr 2005 veröffentlichten Kutas und ihr Team eine weitere Studie, die Letzteres nahelegt. In der Studie baten sie Probanden, folgenden englischen Satz Wort für Wort auf einem Bildschirm zu lesen: »The day was breezy so the boy went outside to fly ____« (zu Deutsch: »Der Tag war windig, also ging der Junge hinaus, um ____ steigen zu lassen.«) Weil für diese Lücke die Wörter »a kite« (»einen Drachen«) am wahrscheinlichsten erscheinen, erwarteten die Probanden, zunächst das Wort »a« (»einen«) zu lesen. Der Artikel bedeutet zwar für sich genommen nichts, sagt aber das darauf folgende Wort in gewisser Weise vorher. Sahen die Teilnehmer stattdessen das Wort »an«, das nicht zu »kite« passt, sondern eher zu »an airplane« (»ein Flugzeug«), erzeugte ihr Gehirn erneut die N400-Reaktion. Der Effekt hatte also anscheinend nichts mit der Bedeutung des Worts zu tun oder mit Schwierigkeiten, das Dargestellte zu verarbeiten, sondern mit einem Konflikt zwischen Realität und intern gebildeten Vorhersagen.
Diese Ergebnisse scheinen gut in das Gerüst des Predictive Coding zu passen. Im April 2018 berichteten Forscher jedoch im Fachblatt »eLife«, dass es mehreren Laboren nicht gelungen sei, die Studie aus Kutas Labor zu replizieren. Warum, wird unter Fachleuten noch intensiv diskutiert. Einige Wissenschaftler sind dabei sogar der Ansicht, dass die neuen Ergebnisse bei genauerer Betrachtung Kutas' Interpretation stützen könnten.
Dieses Hin und Her kennzeichnet die aktuelle Debatte um das Predictive Coding. Wer will, kann Resultate wie die von Kutas auch mit anderen Modellen erklären. Zumal noch keine Studie einen definitiven Nachweis für die Hypothese des Predictive Coding erbracht hat, denn bisher hat sich noch niemand umfassend mit den dahinterstehenden Mechanismen befasst. An der Grundannahme – das Gehirn bildet laufend Schlussfolgerungen aus seinen Sinnesdaten und gleicht sie mit der Realität ab – zweifeln heute nur noch wenige Fachleute. Was die Befürworter des Predictive Coding noch schuldig sind, ist der eindeutige Beleg dafür, dass ihre spezielle Sicht auf diese Vorgänge die richtige ist und dass sie sich auf alle Bereiche der Wahrnehmung übertragen lässt.
Bayessche Gehirne und effizientes Rechnen
Es wurde nicht immer als selbstverständlich angesehen, dass das Gehirn Vorhersagen über seine Erfahrungen macht und auswertet. Bis ins späte 20. Jahrhundert nahmen Hirnforscher an, dass das Gehirn eine Art Detektor für Muster in Sinnesdaten sei: Es registriere Sinnesreize, verarbeite sie und erzeuge ein Verhalten als Reaktion. Dabei repräsentiert die Aktivität einzelner Hirnzellen die An- oder Abwesenheit bestimmter Reize. Einige Neurone im visuellen Kortex reagieren zum Beispiel nur auf die Kanten sichtbarer Objekte, andere auf deren Orientierung, Färbung oder Schattierung.
Doch dieser Prozess erwies sich als weit komplizierter als zunächst angenommen. So ergaben spätere Experimente, dass die Neurone, die auf Linien reagieren, aufhören zu feuern, wenn das Gehirn eine immer länger werdende Linie wahrnimmt – obwohl die Linie nicht verschwindet. Außerdem kann die Detektortheorie nicht erklären, warum im Gehirn ein beträchtlicher Teil des Informationsflusses »top-down« zu verlaufen scheint, also von Arealen für komplexere Inhalte in Richtung jener, die einfachere Sinnesdaten verarbeiten.
Hier kommt das »bayessche Gehirn« ins Spiel, eine Theorie, die bis in die 1860er Jahre zurückreicht und das traditionelle Modell auf den Kopf stellt. Ihr zufolge erkennt das Gehirn nicht einfach Sinnesmuster, sondern zieht aus ihnen fortlaufend Schlüsse darüber, was in der Welt mutmaßlich zu passieren scheint. Dabei folgt es den Regeln der bayesschen Wahrscheinlichkeitsrechnung, die die Wahrscheinlichkeit eines kommenden Ereignisses auf Basis vorheriger Erfahrungen ermittelt. Statt auf Sinneseindrücke zu warten, konstruiert das Gehirn also ständig aktiv Hypothesen darüber, wie die Welt funktioniert. Es erklärt so außerdem neue Erfahrungen und füllt Lücken, wenn die Sinnesdaten unvollständig sind. Nach Meinung einiger Experten könnte man Wahrnehmung also auch als »kontrollierte Halluzination« auffassen.
So erklärt die Theorie vom bayesschen Gehirn auch, wie optische Täuschungen zu Stande kommen: Zwei Punkte, die im schnellen Wechsel auf einem Bildschirm blinken, erscheinen beispielsweise wie ein einzelner Punkt, der hin- und herspringt. Unser Gehirn beginnt unbewusst, die beiden Punkte als ein Objekt zu betrachten. Unser abstraktes Verständnis darüber, wie sich Objekte in der Welt bewegen, beeinflusst also grundlegend, wie wir Objekte wahrnehmen. Das Gehirn füllt einfach Informationslücken – in diesem Fall über die Bewegung –, auch wenn es dabei mitunter danebenliegt.
Wie das allerdings auf Ebene der neuronalen Schaltkreise funktioniert, ist weiterhin unklar. »Die Idee vom bayesschen Hirn macht eigentlich kaum Aussagen über die zu Grunde liegenden Mechanismen«, sagt Mark Sprevak, Professor für die Philosophie des Geistes an der University of Edinburgh in Schottland. Und genau hier kommt die Theorie des Predictive Coding ins Spiel. Sie liefert ein konkretes Rezept für den Bau eines bayesschen Hirns. Ein Hinweis darauf steckt im Namen: »Predictive Coding« ist von einer Technologie zur effizienten Übertragung von Telekommunikationssignalen abgeleitet. Bei Videos beispielsweise ähneln sich die Daten der aufeinanderfolgenden Einzelbilder sehr stark. Da wäre es ineffizient, die Pixel in jedem Bild einzeln zu codieren, wenn die Datei zum Verschicken komprimiert wird. Es ist sinnvoller, nur die Veränderungen der aufeinanderfolgenden Einzelbilder zu codieren und so das gesamte Video beim Empfänger wiederaufzubauen.
Im Jahr 1982 erkannten Forscher, dass sich dieses Prinzip wunderbar in der Hirnforschung nutzen lassen könnte. Es liefert nämlich eine Erklärung dafür, wie Neurone in der Netzhaut Informationen über visuelle Reize codieren und durch den Sehnerv schicken. Außerdem wusste man bereits, dass das Belohnungssystem des Gehirns auf ähnliche Weise arbeitet: Dopaminneurone codieren hier die Diskrepanz zwischen einer erwarteten und der tatsächlichen Belohnung. Solche Prognosefehler helfen Tieren, ihre Erwartungen an künftige Ereignisse anzupassen und so bessere Entscheidungen zu treffen.
Dennoch glaubten die meisten Forscher, dass Predictive Coding nur in bestimmten Netzwerken des Gehirns implementiert ist. Ein Bild, an dem neue Methoden wie die funktionelle Magnetresonanztomografie (fMRT) zu rütteln begonnen haben.
Eine universelle Theorie
Was die Hypothese des Predictive Coding so attraktiv macht, ist ihre ungewöhnliche Erklärungskraft. »Was ich überzeugend finde, ist, wie viele Phänomene man damit unter einen Hut bringt«, sagt Andy Clark, der ebenfalls an der University of Edinburgh forscht. Der Professor für Logik und Metaphysik gilt als Experte der Theorie.
Predictive Coding begreift zum Beispiel Wahrnehmung und motorische Steuerung als zwei Seiten derselben Informationsverarbeitung. In beiden Fällen minimiert das Gehirn Vorhersagefehler, bloß auf unterschiedliche Weise. Bei der Wahrnehmung wird das interne Modell angepasst, bei der motorischen Steuerung die Außenwelt selbst. Stellen Sie sich etwa vor, dass Sie Ihre Hand heben wollen. Wenn Ihre Hand nicht bereits gehoben ist, erzeugt die wahrgenommene Diskrepanz einen großen Vorhersagefehler. Der kann leicht minimiert werden, indem Sie Ihre Hand heben.
Die bisher überzeugendsten Belege für die Predictive-Coding-Theorie haben denn auch Experimente zur Wahrnehmung und motorischen Steuerung geliefert. In einem Artikel, der im Juni 2018 im Fachmagazin »Journal of Neuroscience« veröffentlicht wurde, beschreiben die Autoren ein Experiment, bei dem sie Probanden das englische Wort »kick« auf einem Bildschirm lesen ließen. Anschließend spielten sie ihnen eine verzerrte Aufnahme des Wortes »pick« vor, die wie ein lautes Flüstern klang. Viele der Probanden hörten jedoch statt »pick« das Wort »kick«. fMRT-Scans zeigten, dass im Gehirn dabei der einleitende »k«- oder »p«-Laut am stärksten repräsentiert war – jener Laut also, der mit dem Vorhersagefehler korreliert. Hätte die Hirnaktivität nur die Wahrnehmungserfahrung wiedergegeben, hätte das stärkste Signal stattdessen auf das Wortende »ick« fallen müssen, das sowohl auf dem Bildschirm als auch in der Aufnahme vorkam.
Einige Forscher versuchen nun zu zeigen, dass Predictive Coding auch in Bereichen außerhalb der Wahrnehmung und Motorik relevant ist. Sie wollen den Vorhersagemechanismus als Grundlage aller Vorgänge im Gehirn etablieren. »Er gibt uns eine Art Baukasten, mit dem ganz unterschiedliche Verarbeitungsstrategien zusammengesetzt werden können«, erklärt Clark. Jede Hirnregion könnte so ihre jeweils eigene Art von Vorhersage produzieren.
Karl Friston und andere Forscher denken, dass dies auch für höhere kognitive Prozesse einschließlich der Aufmerksamkeit und Entscheidungsfindung gelte. Jüngste Simulationen des präfrontalen Kortex legen etwa nahe, dass das Predictive Coding eine Rolle beim Arbeitsgedächtnis und zielorientierten Verhalten spielt. Einige Wissenschaftler vermuten sogar, dass auch Emotionen auf dem Predictive Coding beruhen: Sie könnten Zustände sein, die Gehirne erzeugen, um Vorhersagefehler über interne Signale wie Körpertemperatur, Herzfrequenz oder Blutdruck zu minimieren. Bei emotionaler Aufregung etwa weiß das Gehirn sofort, dass sich all diese physiologischen Faktoren ändern. So entsteht womöglich auch das Konzept des Selbst.
Die meisten aktuellen Arbeiten zum Predictive Coding konzentrieren sich heute auf den Bereich Neuropsychiatrie und Entwicklungsstörungen. »Wenn das Gehirn eine Schlussfolgerungsmaschine ist, ein Organ der Statistik, dann wird es auch die gleichen Fehler machen wie ein Statistiker«, sagt Friston. Das bedeutet, es wird gelegentlich falsche Schlüsse ziehen, also zu viel oder zu wenig Gewicht auf Vorhersagen oder Vorhersagefehler legen.
Auf diese Weise könnte man einige Merkmale des Autismus als die Unfähigkeit des Gehirns verstehen, Fehler in der Vorhersage sensorischer Signale auf der untersten Ebene der Verarbeitungshierarchie zu ignorieren. Die Betroffenen würden viel zu viel Gewicht auf Sinneserfahrungen legen, ein Bedürfnis nach Wiederholung und Vorhersehbarkeit erzeugen und eine besondere Empfänglichkeit für bestimmte Illusionen mit sich bringen. Bei der Schizophrenie könnte das Gegenteil der Fall sein: Legt das Gehirn den Fokus zu stark auf die eigenen Vorhersagen und nicht ausreichend auf die Sinnesdaten, kommt es zu Halluzinationen. Experten mahnen jedoch zur Vorsicht: Autismus und Schizophrenie seien viel zu kompliziert, um auf eine einzige Erklärung oder einen einzigen Mechanismus reduziert zu werden.
»Die größte Tragweite hat dabei die Erkenntnis, wie anfällig unsere mentale Funktion für Fehler ist«, sagt Philip Corlett, ein klinischer Neurowissenschaftler an der Yale School of Medicine. Zur Demonstration pflanzte sein Team gesunden Probanden falsche Überzeugungen ein und ließ sie Dinge »halluzinieren«, die sie zuvor wahrgenommen hatten. Konkret konditionierte Corletts Team die Freiwilligen darauf, einen Ton mit einem visuellen Muster zu assoziieren. Nach der Konditionierung hörten sie dann auch den Ton, selbst wenn nur das visuelle Muster präsentiert wurde: eine Illusion, die durch eine erlernte Überzeugung ausgelöst wird. Nun versuchen Corlett und seine Mitarbeiter herauszufinden, wie es funktioniert, dass sich solche Überzeugungen in der Wahrnehmung niederschlagen. »Mit den Studien haben wir einen ersten Beweis dafür geliefert, dass Wahrnehmung und Kognition nicht getrennt arbeiten«, sagt Corlett. »Neue Überzeugungen können antrainiert werden, und dann verändern sie, was man wahrnimmt.«
Ein tieferer Blick ist nötig
In den Kognitionswissenschaften ist die Theorie auch auf Grund solcher Erkenntnisse schon recht weit verbreitet. Ein echter Beweis für das Predictive Coding sind aber auch diese experimentellen Resultate nicht. »Solche Ergebnisse sind mit dem Predictive Coding zwar kompatibel«, sagt Sprevak, »sie können jedoch nicht zeigen, dass das Modell die bestmögliche Erklärung für die Daten liefert.« Dafür müsste man tiefer in die Netzwerke des Gehirns schauen.
Das könnte Sie auch interessieren:
»In der System-Neurowissenschaft ist Predictive Coding noch immer ein Nebenschauplatz«, sagt Georg Keller, Neurowissenschaftler am Friedrich-Miescher-Institut für Biomedizinische Forschung in Basel. Sein Labor versucht das zu ändern. In einer im Jahr 2017 im Fachmagazin »Neuron« veröffentlichten Studie berichten Keller und seine Kollegen, wie sie beobachteten, dass sich im Sehsystem von Mäusen Neurone entwickelten, die auf Basis neuer Erfahrungen Vorhersagen machten. Die Entdeckung ist einem technischen Missgeschick zu verdanken. Das Ziel der Forscher war, ihre Mäuse in einer Art virtueller Welt zu trainieren. Bei der 3-D-Programmierung war ihnen allerdings ein Fehler unterlaufen: Wenn sich die Tiere nach links drehten, wanderte ihr Blickfeld nach links statt nach rechts wie in der Realität.
Die Forscher machten sich dies zu Nutze. Sie nahmen die Signale der Hirnaktivität der Tiere auf, die den visuellen Fluss repräsentieren. Dabei stellten sie fest, dass sich die Signale langsam an die Regeln der verkehrten Trainingswelt anpassten, als die Tiere die neuen Regeln lernten. »Die Signale sahen aus wie Vorhersagen visueller Bewegungen nach links«, sagt Keller.
Das Argument der Forscher: Würden die Signale reine Sinnesdaten darstellen, hätten sie sich in der virtuellen Welt sofort umdrehen müssen. Würden sie motorischen Signalen entsprechen, würden sich die Tiere nie umdrehen. Beides war nicht der Fall. Stattdessen seien es Prognosen, die die Veränderungen im Sichtfeld bei einer Bewegung vorhersagen, sagt Keller. Diese Ergebnisse von Keller seien eine völlig neue Art des Nachweises, meint Clark. »Sie demonstrieren Zelle für Zelle und Schicht für Schicht, dass Predictive Coding die beste Erklärung dafür liefert, was in dem Experiment vor sich ging.«
Etwa zur gleichen Zeit berichteten Forscher um Caspar Schwiedrzik vom European Neuroscience Institute Göttingen von ähnlichen Ergebnissen in einem Teil des Makakenhirns, das mit der Gesichtserkennung im Zusammenhang steht. Frühere Studien hatten bereits gezeigt, dass Neurone in den unteren Schichten des so genannten Gesichtsnetzwerks orientierungsrelevante Merkmale von Gesichtern codieren – einige werden zum Beispiel nur bei Gesichtern im Profil aktiv, andere bei Frontalansichten. In höheren Schichten des Netzwerks repräsentieren die Neurone dagegen Gesichter auf abstraktere Weise, sie reagieren dort eher auf die Identität als auf die Ausrichtung im Raum.
In der Makakenstudie trainierten die Forscher die Affen mit Paaren von Gesichtern. Das Gesicht, das den Affen zuerst gezeigt wurde, verriet immer auch etwas über das darauf folgende. Später manipulierten sie die dabei entstandenen Erwartungen der Affen, indem sie das erwartete Gesicht entweder aus einem anderen Blickwinkel zeigten oder ein ganz anderes Gesicht verwendeten. Dabei beobachteten die Wissenschaftler Vorhersagefehler in den niedrigeren Ebenen des Netzwerks. Ihren Ursprung hatten diese Fehlersignale aber in den höheren Schichten des Netzwerks, wo die Vorhersagen über die Identität getroffen werden. Das weist darauf hin, dass die niedrigeren Ebenen Fehlersignale erzeugen, indem sie die Sinnessignale mit den Vorhersagen vergleichen, die aus höheren Schichten stammen.
»Es war spannend, dass wir nicht nur Vorhersagefehler selbst, sondern auch den spezifischen Inhalt dieser Vorhersagefehler in diesem System gefunden haben«, sagt Studienautor Schwiedrzik. Bei Versuchen an Menschen scheint sich die Hypothese des Vorhersagefehlers ebenfalls zu bestätigen. Zumindest deuten darauf noch vorläufige Ergebnisse einer Studie von Forschern um Lucia Melloni vom Max-Planck-Institut für empirische Ästhetik in Frankfurt hin.
Eine Vorhersage bitte – codiert oder verarbeitet?
Doch längst nicht alle Forscher sind der Auffassung, dass sich Predictive Coding als grundlegender Hirnmechanismus herauskristallisiert. Bei anderen sind die Zweifel noch prinzipieller. David Heeger, Professor für Psychologie an der New York University, findet es wichtig, zwischen »Predictive Coding«, einer effizienten Form von Informationsübertragung, und »Predictive Processing« zu unterscheiden. Wobei er Letzteres als das beständige Treffen von Vorhersagen über Zukünftiges auffasst. »In der Literatur herrscht darüber große Verwirrung, weil diese unterschiedlichen Konzepte oft in einen Topf geworfen werden«, sagte er. Andere bayessche Modelle könnten unter bestimmten Umständen eine genauere Beschreibung der Gehirnfunktion liefern.
Einig dagegen sind sich die meisten Experten darüber, dass die Forschung am Predictive Coding viel Potenzial für maschinelles Lernen bietet. Zwar beschäftigt sich die künstliche Intelligenz derzeit nicht sonderlich intensiv mit dem Modell. Friston aber denkt, dass eine »Deep-Learning«-Architektur, die auf Predictive Coding beruht, die Intelligenz der Maschinen noch näher an die des Menschen bringen könnte. Das eingangs erwähnte GQN von Deep Mind ist ein gutes Beispiel dafür. Ein anderes stammt von Forschern von der University of Sussex. 2018 implementierten sie das Predictive Coding in einer Kombination aus künstlicher Intelligenz und virtueller Realität. Heraus kam dabei eine »Halluzinationsmaschine«, die in der Lage war, halluzinatorische Zustände nachzuahmen, wie sie typischerweise durch psychedelische Drogen verursacht werden.
Das könnte Sie auch interessieren:
Derartige Fortschritte beim Maschinenlernen könnten auch dazu genutzt werden, neue Erkenntnisse über die Hirnfunktion zu gewinnen. Bevor es jedoch so weit ist, haben Hirnforscher noch viel zu tun. Sie müssen Methoden wie die von Keller, Schwiedrzik und anderen optimieren, wenn sie herauszufinden wollen, wo genau im Gehirn die internen Modelle sitzen. Es bleibt abzuwarten, ob weitere Experimente die Existenz des Predictive Coding auch in höheren kognitiven Prozessen belegen.
Predictive Coding »ist für die Neurowissenschaft so wichtig wie Evolution für die Biologie«, sagt Lars Muckli von der University of Glasgow, der sich intensiv mit der Theorie auseinandergesetzt hat. Bislang aber, findet Sprevak, »ist das letzte Wort noch nicht gesprochen«.
Von »Spektrum der Wissenschaft« übersetzte und redigierte Fassung des Artikels »To Make Sense of the Present, Brains May Predict the Future« aus dem »Quanta Magazine«, einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Verbreitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.
Übersetzung aus
Nota. - Richtiger wäre die Überschrift: Wahrnehmen heißt Modelle entwerfen. Doch nach der Theorie werden die Modelle um des Er- wägens der Möglichkeiten willen entworfen; das ist also, worauf es ankommt. Die Möglichkeiten werden erwogen, um die Verhaltensvarianten vorauszuplanen. Nicht um Erkenntnis geht es, sondern ums Handeln. Die Sinnesdaten treffen nicht auf eine Tabula rasa, sondern auf eine Erwartung; die Erwartung nämlich, wieder handeln zu müssen.
JE
Abonnieren
Posts (Atom)