Posts für Suchanfrage analog digital werden nach Relevanz sortiert angezeigt. Nach Datum sortieren Alle Posts anzeigen
Posts für Suchanfrage analog digital werden nach Relevanz sortiert angezeigt. Nach Datum sortieren Alle Posts anzeigen

Donnerstag, 26. September 2013

Digital und analog - eine Worterklärung.

bernd sterzl, pixelio.de

Zur Erinnerung: Analog ist ein Zifferblatt, wenn sich darauf ein Zeiger in konstantem Tempo so dreht, dass die Drehbewegung auf sinnlich wahrnehm bare Weise das gleichmäßige 'Verlaufen' der Zeit "darstellt"; selbst wenn gar keine Ziffern zu sehen sind, sondern nur Striche und Punkte. Auf einem digitalen Zifferblatt erscheinen dagegen in gleichmäßigen Abständen nach einander die Ziffern selbst und zeigen an, "wie spät" es ist. Freilich nur dem, der weiß, was diese Ziffern – diese digits – bedeuten. Er muss unser Zahlensystem gelernt haben und wissen, dass der Tag vierundzwanzig Stunden hat. Auf dem analogen Ziffernblatt kann ein Fünfjähriger an der Bewegung des Sekundenzeigers zusehen, wie eine Minute vergeht. Er mag sogar geistig zurückgeblieben sein: Er sieht es doch!

Das ist der Unterschied zwischen Abbildung und Symbol. Das eine ist analog, das andere ist digital. Eine arabische Ziffer (nur die heißen so!) ist digital; die römischen Zahlen sind analog, aber auch nur die ersten drei. Bei der IV wird’s ebenfalls digital. Dazwischen liegt der Akt der Reflexion, der Akt des Verstehens, das Denken in specie: die Umrechnung einer (sinnlichen) Erscheinung in eine (logische) Bedeutung mit der in einem so entstehenden logischen Raum ‚operiert’ werden kann, ohne dass irgendwelche Gegenstände sinnlich anwesend wären). 

Der Haken: Im analogen Bilderraum gibt es keinen Verneinungs-Modus. Das ist der Vorzug der analogen Darstellung gegenüber der digitalen: Sie ist reicher, sie ist farbiger. Es kann immer noch eine und noch eine Gestaltqualität, noch eine Farbkombination hinzu erfunden werden. Aber die digitale Darstellungsweise ist bestimmter. Digits lassen sich eindeutig unterscheiden. Ein Apfel und eine Birne lassen sich – von Weitem schon gar – manchmal nicht so klar unterscheiden
 
Und vor allem: Das digitale Repräsentationsmuster erlaubt die Verneinung, das analoge nicht. Omnis determinatio est negatio: Bestimmen ist ohne verneinen unmöglich.

‚Ein Pferd’ kann ich mir anschaulich vor Augen führen. ‚Kein Pferd’ nicht: Wenn ich es mir „vorstelle“, sieht es auch nicht anders aus als, sagen wir, ‚keine Suppenschüssel’.


Und was das Schlimmste ist: Wo es keinen Verneinungsmodus gibt, da gibt es erst recht keinen Frage-Modus!*

Der entscheidende technische Unterschied zwischen der analogen und der digitalen Funktionsweise ist, dass im digitalen Modus nur diskrete Fortschritte in Stufen vorkommen, während es im analogen Modus nur gleitende, kontinuierliche Übergänge gibt. 


*) Historisch entsteht die Fähigkeit zum Verneinen aus dem Aufkommen der Fragen. Weil die Offene Welt der Savannen, anders als die geschlossene natürliche Umwelt des Regenwalds, fraglich ist, müssen ihre Bedeutungen bestimmt werden. Das ist die Voraussetzung der Reflexion und des Denkens in specie. Ihr Modus ist der digitale.

Mittwoch, 6. November 2013

"Das Langzeitgedächtnis speichert digital" - kommentiert.

aus derStandard.at, 05.11.2013

Aktuelle Studie stellt Lehrmeinung zum Langzeitgedächtnis in Frage 
Beobachtung von Nervenzellverbindungen im Gehirn über sieben Tage hinweg lieferte überraschende Ergebnisse 

Aktuelle Forschungsergebnisse weisen darauf hin, dass das etablierte Erklärungsmodell, wie das menschliche Langzeitgedächtnis funktioniert, möglicherweise so nicht stimmt. Deutsche Wissenschafter haben bei ihren Untersuchungen erstmals die Funktion einzelner Nervenzellverbindungen im Gehirn über sieben Tage hinweg beobachtet. Die Studie liefert dabei außergewöhnliche Einblicke in die Speichermechanismen des Gehirns.

Für langfristige Erinnerungen sind die Hippocampi in den Temporallappen der beiden Großhirnhälften von zentraler Bedeutung. Personen, die Schäden in diesen Gehirnarealen aufweisen, vergessen umgehend Situationen, die sie gerade erlebt haben. "Bisher nahmen wir an, dass die Informationsspeicherung im Hippocampus von der Stärke der dortigen Nervenzellverbindungen, den Synapsen, abhängig ist", sagt Thomas Oertner vom Zentrum für Molekulare Neurobiologie Hamburg (ZMNH).

Gängige Lehrmeinung in Frage gestellt

Synapsen sind die Strukturen, mit denen eine Nervenzelle in Kontakt zu einer anderen Zelle, etwa einer Sinnes-, Muskel-, Drüsen- oder Nervenzelle steht. Sie dienen der Übertragung von Informationen und spielen eine wichtige Rolle bei deren Speicherung. Für ein funktionierendes Langzeitgedächtnis, so die gängige Lehrmeinung, müssen die Zellverbindungen stark sein und unbegrenzt stabil bleiben. Dieser Prozess wird als "long-term plasticity" bezeichnet und ist seit mehreren Jahren ein zentrales Thema der neurobiologischen Forschung.

Das Team um Thomas Oertner ist nun jedoch zu anderen Ergebnissen gekommen. Mit experimentellen Tricks beeinflussten sie synaptische Verbindungen so, dass diese Informations-Autobahnen quasi in Tempo 30-Zonen umgewandelt wurden. "Wir haben die Stärke der Synapsen drastisch reduziert und die Zellverbindungen dann weiter beobachtet", erläutert Oertner. Das Ergebnis nach sieben Tagen war verblüffend. "50 Prozent der manipulierten Synapsen lösten sich auf, die anderen 50 Prozent kehrten in den Ausgangszustand zurück", sagt Simon Wiegert aus dem ZMNH, Erstautor der jetzt veröffentlichten Studie. "Eine stabile Langzeitveränderung der Synapsen gibt es offenbar nicht. Demnach muss das Langzeitgedächtnis auch anders als bislang angenommen funktionieren."

"Analoge" und "digitale" Speicherung im Gehirn

Die Studie legt den Wissenschaftern zufolge den Schluss nahe, dass das Gehirn ähnliche Strategien wie ein digitaler Computer verwendet, um Informationen über lange Zeiträume zu speichern. Dabei speichert der Hippocampus zunächst Information in "analoger" Form, indem die Stärke der Synapsen verändert wird. Doch dieser Zustand ist instabil. Nach wenigen Tagen wird diese analoge Speicherung durch eine "digitale" Form der Speicherung ersetzt – einige Synapsen fallen aus, andere kehren in den Ausgangszustand zurück. "Digitale Speicherung ist wesentlich weniger anfällig für langsamen Zerfall. Das könnte erklären, wieso wir uns an Schlüsselerlebnisse aus Kindheit und Jugend bis ins hohe Altern erinnern", so Wiegert. (red, derstandard.at)



Abstract
PNAS: Long-term depression triggers the selective elimination of weakly integrated synapses


Nota.

Ehrlich gesagt verstehe ich nicht recht, was daran 'digital' sein soll. -

Ich kann mir allerdings vorstellen, dass sie in dieser Meldung mit analog und digital nur den Umstand meinen, dass die Veränderungen hier kontinuierlich 'gleiten', dort in diskreten 'Sprüngen' dargestellt werden. Das ist aber nur eine technische Konsequenz der Digitalisierung, nicht ihr Wesen. Wesentlich unterscheiden sich der analoge und der digitale Darstellungsmodus darin, dass hier Bilder angeschaut und dort mit Bedeutung verknüpfte Zeichen entziffert werden. 


Wenn, wie im herkömmlichen Celluloidfilm, viele Bilder sehr schnell hintereinander abgespult werden, wird der Film in tausenden diskreten Sprüngen abgespielt - und trotzdem bleibt die Wiedergabe analog.

Bilder können verschwimmend 'ineinander übergehen'; man sieht immer, was man sieht. Das lässt sich am besten mit dem (digitalen!) Verfahren des morphing veranschaulichen; prominentes Beispiel die Schluss- sequenz in dem Black&white-Video von Michael Jackson: viele Gesichter aus sämtlichen Menschenrassen gehen nahtlos ineinander über - irgendein Gesicht, und sei es noch so 'künstlich', ist in jedem Moment zu erkennen. Arabische Ziffern lassen sich dagegen nicht 'morphen'. Wollen Sie eine 3 in eine 7 verwandeln, ist an irgendeinem Punkt die Drei nicht mehr erkennbar, die Sieben aber noch lange nicht in Sicht. - Ist nicht aber auch dies Gebilde ein 'Zeichen'? - Zeichen wofür? Die Bedeutung ist verloren gegangen. Ein Zeichen wäre es nur in einem anderen (Bedeutungs-)System.*

Dies ist das ganze Mysterium unseres 'Bewusstseins', versteckt in der Frage, ob die Sprache vor dem Denken oder das Denken vor der Sprache 'da war': Unsere Sinneswahrnehmungen - sehen, hören, riechen, tasten - geben uns ein 'anschauliches', analoges Bild der Welt. Wenn wir es wiedergeben - andern mitteilen oder im inneren Gespräch darüber reflektieren -, stellen wir es im digitalen Zeichensystem der Sprache dar. Wo - an welcher 'Stelle' - und wie hat die Übersetzung aus dem einen ins andere stattgefunden? Das wäre nämlich genau die Stelle, wo das Ich auftritt: das Subjekt, das sich im Wahrnehmungsakt von seinem Gegenstand unterscheidet, indem es ihm eine Bedeutung gibt; ihn 'bedeutet'. Mit andern Worten, das wäre der Akt der Symbolisierung.

Das wäre wirklich eine Revolution in der Hirnforschung: wenn im neuronalen Gewebe selbst eine Umwandlung fließender elekrochemischer Ströme in festgestellte Symbolzeichen zu beobachten wäre; etwa im Moment des Übergangs aus dem Arbeits- in das Langzeitgedächtnis.

Aber dazu würde man vielleicht doch noch zwei, drei Versuchsreihen mehr abwarten wollen.
JE 

*) Zwischen 3 und 7 entsteht irgendwann /. Auf meiner Tastatur hat es eine virtuelle Bedeutung, je nachdem, oder es könnte eine kursive lateinische I sein. Je nach System eben. Aber außerhalb eines Systems ist es nur ein schräger Strich.

Dienstag, 14. April 2015

Der Hirnforscher und die Verneinung.

Erstaunt bemerke ich, dass ich den folgenden Beitrag in diesem Blog noch nicht wieder gepostet hatte. Das hole ich nun nach, wenn auch die Aktualität es nicht erheischt.



Als der Hirnforscher Gerhard Roth im Philosophischen Quartett bei Sloterdijk und Safranski die These von der vollständigen Determiniertheit unseres durchaus nicht freien Willens vertrat, räumt er am Ende der Diskussion doch eine Ausnahme ein: „die Verneinung“.

Er hat die Tragweite seiner Einschränkung nicht bedacht. Wenn der Verneinungsmodus eine Ausnahme von der Determiniertheit unseres Willens ist, dann ist der ganze Mensch eine Ausnahme von der Determination. Denn der Mensch kann grundsätzlich Alles verneinen und verleugnen. Könnte er nicht nein sagen, dann könnte er nicht ja sagen. Eben das ist die Freiheit seines Willens.

„Der Mensch ist das Tier, das nein sagenkann“, meint Max Scheler.

Die Ausnahme von der Regel.

Ich will raus in den Park. Ich sehe aus dem Fenster. Eine dunkle Wolkenfront zieht auf. Ich sage „Nein!“

Da habe ich, nach Gerhard Roth,  frei gehandelt.


(Ich will raus in…) Ich sehe in den Himmel. „Soll ich oder soll ich nicht?“ Dann greife ich meinen Schirm und gehe doch.

Ich habe ebenfalls frei gehandelt. Denn zu dem Gedanken „ich soll nicht“ habe ich nein gesagt.
Das wird Gerhard Roth kaum bestreiten.

Ich bin im Park, ein unabweisliches Bedürfnis ergreift mich, „nein“ kommt überhaupt nicht in Frage, aber… wie? Taschentücher sind noch genügend da, da vorn ist ein Gebüsch, na wenn das mal nicht in (…) geht…

Eine Wahl habe ich nicht, aber einfach nur ja! sagen kommt schon gar nicht in Frage, es ist so vieles zu berücksichtigen, zu erwägen, in die Wege zu leiten, und alles so schnell…

Und das soll dann ‚unfrei’ sein?

Schnick- schnack, würde Wolf Singesagen. Kollege Roth hat manchmal einen schwachen Moment, ich für mein’ Teil hätte so eine Einschränkung gar nicht zugegeben: „Im Bezugssystem neurobiologischer Forschung gibt es keinen Raum für objektive Freiheit, weil die je nächste Handlung, der je nächste Zustand des Gehirns immer determiniert wäre durch das je unmittelbar Vorausgegangene.“ Einem jeden uns als frei gefasst dünkenden Gedanken liegt ein neuronales Verschaltungsmuster zu Grunde, das diesen und nur diesen einen Gedanken ‚bedeutet’. Singer sagt uns, „dass unterschiedlichen Gedanken verschiedene neuronale Aktivitätsmuster zugrunde liegen. Kein Gedanke ohne Substrat. Allem, was begrifflich trennbar ist, müssen unterschiedliche Gehirnzustände entsprechen.”

Abbildungs-Modi

(Lassen wir mal das ‚begrifflich’ beiseite, das hier gar nichts verloren hat. Und an dieser Stelle will ich mich auch nicht über die mögliche Umkehrung auslassen: Einer sagt mir das Wort ‚Pferd’, ich denke also ‚Pferd’ – und folglich stellt sich in meinem Hirn dieses eine und kein anderes Ver- schaltungsmuster ein… Da würde dann der Geist die Materie “determinieren”.)

Hier will ich genauer auf die Frage eingehen, was „zu Grunde liegen“ an dieser Stelle bedeuten mag. Dann werden wir nämlich sehen, dass im Verneinungs-Modus auch ganz ohne Gerhard Roth der Teufel steckt!

Mit Zugrundeliegen dürfte ja wohl Abbilden gemeint sein, wenn Singer das Wort auch meidet. Nämlich in einemanalogen Modus „wiedergeben“, „repräsentieren“, „nachzeichnen“.

Zur Erinnerung: ‚Analog’ ist ein Zifferblatt, wenn sich darauf ein Zeiger in konstantem Tempo so dreht, dass die Drehbewegung auf sinnlich wahrnehmbare Weise das gleichmäßige ‚Verlaufen’ der Zeit „darstellt“; selbst wenn gar keine Ziffern zu sehen sind, sondern nur Striche und Punkte. Auf einem ‚digitalen’ Zifferblatt erscheinen dagegen in gleichmäßigen Abständen nach einander die Ziffern selbst und zeigen an, „wie spät“ es ist. Freilich nur dem, der weiß, was diese Ziffern – diese ‘digits’ – bedeuten. Er muss unser Zahlensystem gelernt haben und wissen, dass der Tag vierundzwanzig Stunden hat. Auf dem analogen Ziffernblatt kann ein Fünfjähriger an der Bewegung des Sekundenzeigers zusehen, wie eine Minute vergeht. Er mag sogar geistig zurück geblieben sein: Er sieht es doch!

Das ist der Unterschied zwischen Abbildung und Symbol. Das eine ist analog, das andere ist digital. Eine arabische Ziffer (nur die heißen so!) ist digital; die römischen Zahlen sind analog, aber auch nur die ersten drei. Bei der IV wird’s ebenfalls digital. Dazwischen liegt der Akt der Reflexion, der Akt des Verstehens, das Denken in specie: die Umrechnung einer (sinnlichen) Erscheinung in eine (logische) Bedeutung – mit der in einem so entstehenden logischen Raum ‚operiert’ werden kann, ohne dass irgendwelche Gegenstände sinnlich anwesend wären).

Der Haken: Im analogen Bilderraum gibt es keinen Verneinungs-Modus. Das ist der Vorzug der analogen Darstellung gegenüber der digitalen: Sie ist reicher, sie ist farbiger. Es kann immer noch eine und noch eine Gestaltqualität, noch eine Farbkombination hinzu erfunden werden. Aber die digitale Darstellungsweise ist bestimmter. ‚Digits’ lassen sich eindeutig unterscheiden. Ein Apfel und eine Birne lassen sich – von Weitem schon gar – manchmal nicht so klar unterscheiden

Und vor allem: Das digitale Repräsentationsmuster erlaubt die Verneinung, das analoge nicht. ‚Ein Pferd’ kann ich mir anschaulich vor Augen führen. ‚Kein Pferd’ nicht: Wenn ich es mir „vorstelle“, sieht es auch nicht anders aus als, sagen wir, ‚keine Suppenschüssel’.

Und was das Schlimmste ist: Wo es keinen Verneinungsmodus gibt, da gibt es erst recht keinen Frage-Modus!

Wolf Singer mag sich drehn und winden wie er mag: Nicht nur haben die Menschen den Frage- und Verneinungsmodus, sondern es gibt sogar gewichtige anthropologische Gründe, darin ein – oder das – auszeichnende Merkmal des Menschlichen zu sehen.

Ein umgedrehter Spieß

Die Freiheit bestreitet Wolf Singer mit dem Argument, die Forschung habe im Menschenhirn keinen ‚Sitz’ des Ich lokalisieren können. Das Ich stelle sich immer wieder situativ neu her durch je andere neuronale Verschaltungen. Mit dem Vernei-nungsmodus dreht sich der Spieß von alleine um: Wenn er uns keine ‚Stelle’ nachweisen kann, wo durch rein neuronale Kettenreaktionen analoge Bilder in digitale Symbole „umgerechnet“ und so die gattungsmäßig unverzichtbaren Frage- und Verneinungsmodi möglich gemacht werden – dann kann unser Wille nicht ‚determiniert’, dann muss er ‚frei’ sein.


PS. Ich will allerdings nicht verhehlen, dass sich Wolf Singer und sein Kollege Roth in eine no-win-Situation begeben haben. Denn wenn sie eines Tages eine solche ‘Stelle’ lokalisieren sollten, dann… werde ich ihnen sagen: “Na da isses ja endlich, das Ich, nach dem Ihr so lange gesucht habt! An der Stelle, wo der physiologische Sinnesreiz mit einer Bedeutung ausgestattet wird, da ist der Sitz unserer Freiheit!”

September 21, 2008 

PPS. Gerhard Roth ist mit seinen Forschungen inzwischen bei ganz anderen Resultaten angelangt. Das ist hier noch nicht berücksichtigt.


Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Mittwoch, 16. Juli 2014

Hofstadters Apologie des Analogen.

aus DER SPIEGEL 18/2014

SPIEGEL-GESPRÄCH
Sprache ist alles 

Von Johann Grolle

Der US-Informatiker Douglas Hofstadter ist überzeugt, dass der Mensch intelligenter ist als jeder Rechner und dass Google, Apple und Co. schwere Irrtümer begehen.


Auf einem Regal über der Toilette hat Douglas Hofstadter seine Jugend archiviert. Kleine, in Leder gebundene Hefte stapeln sich dort. Als Teenager hat Hofstadter darin zusammengetragen, was ihm bewahrenswert schien: fremdländische Lettern, lustige Versprecher, mathematische Eingebungen.
Hofstadter, 69, ist ein Sammler. Sein Arbeitszimmer zu Hause in seiner Villa in Bloomington im US-Staat Indiana bordet über von Fundstücken, die er von Exkursionen in die Welt der Ideen mitgebracht hat. Einen Ehrenplatz nehmen dabei zwei Holzklötze ein: Hofstadter hat sie vor langer Zeit selbst ausgesägt, ihre Schatten bilden die Buchstaben G, E und B. Ein Foto dieser Würfel prangte 1979 auf dem Titelblatt von Hofstadters Bestseller "Gödel, Escher, Bach". Dieses Buch machte den damals 34-jährigen Sohn des Physik-Nobelpreisträgers Robert Hofstadter schnell berühmt. Viele priesen es als eine Art Bibel der künstlichen Intelligenz.

Es schien, als hätte Hofstadter einen Weg aufgezeigt, wie sich das menschliche Denken verstehen und in die Funktionsweise von Computern übertragen lasse.

Die Informatiker allerdings knüpften kaum an Hofstadters Erkenntnisse an, sondern begnügte sich mit der bloßen Imitation einzelner menschlicher Intelligenzleistungen. Hofstadter aber forschte an der Indiana University weiter - und hat sich auch der Sprache zugewandt: An ihr, so seine These, zeige sich die schöpferische Kraft des menschlichen Geistes.


In seinem Büro zeugen Wörterbücher von seiner Leidenschaft für Wörter und Grammatik. Wie viele Sprachen er beherrsche? Schwer zu sagen, meint er. Sein Deutsch und Spanisch reichten aus, um Vorträge halten zu können. Russische Literatur könne er übersetzen, Chinesisch flüssig simsen. Wirklich zu Hause aber fühle er sich nur im Italienischen und im Französischen.

Sein neues Buch "Die Analogie. Das Herz des Denkens" (Verlag Klett-Cotta) befasst sich mit dem Zusammenhang von Sprache und Geist. Hofstadter, der an der Indiana University in Bloomington lehrt, hat es gemeinsam mit dem französischen Mathematiker und Psychologen Emmanuel Sander, 46, verfasst.

SPIEGEL: Herr Professor Hofstadter, Sie können rückwärts reden?

Hofstadter: Es ist lustig, dass Sie danach fragen. Ja, als Teenager stellte ich mir einmal vor, dass es eine Sprache namens Hsilgne gebe, in der alles - die Grammatik, die Schreibweise, einfach alles umgekehrt als im Englischen ablaufe. Und das musste natürlich auch für die Aussprache gelten. Also habe ich versucht, rückwärts zu reden, und den Kassettenrecorder dann rückwärtslaufen lassen. Es war verständlich, klang allerdings, als hätte ich einen komischen Akzent.

SPIEGEL: Was für einen Akzent?

Hofstadter: Als käme ich vom Mars. Das Einzige, woran ich mich heute noch erinnere, klang übrigens ungefähr: "Oriesi wuhsch senyam uhsch", was bedeutet: "Two minus two is zero."

SPIEGEL: Zwei minus zwei ist null - offenbar fasziniert Sie das Phänomen Sprache. Warum?

Hofstadter: Wahrscheinlich weil Sprache eng mit dem verbunden ist, was den menschlichen Geist ausmacht. Mensch sein bedeutet, sich neue Konzepte anzueignen, Namen für sie zu haben, mit anderen zu kommunizieren. Aber auch das Alphabet hat mich in seinen Bann gezogen. Ich entdeckte die Alphabete Indiens und Sri Lankas, die Hindi-Schrift Devanagari. Und natürlich die chinesischen Schriftzeichen, die in der Bay Area in Kalifornien, wo ich aufwuchs, allgegenwärtig waren. All diese Formen, und jede stand für eine Idee. Ich konnte nicht genug davon kriegen.

SPIEGEL: Und der Klang der Sprachen?

Hofstadter: Ja, natürlich, ich liebe den Klang der Sprachen. Einige von ihnen sind extrem schön - sogar das Deutsche im Übrigen. Ich dachte immer, Deutsch sei unschön - bis ich irgendwann Marlene Dietrich singen hörte.

SPIEGEL: Sie haben eine Schwester, die nie sprechen lernte. Welchen Einfluss hatte das auf Ihre Sprachbegeisterung?

Hofstadter: Zunächst macht es mich sehr traurig. Gerade erst hatte ich wieder einen Traum, in dem Molly sprechen konnte. Sie war in meinem Traum ein kleines Mädchen. Ich sagte etwas zu ihr. Und zu meiner größten Überraschung lächelte sie und antwortete. Es war überwältigend.

SPIEGEL: Sie spricht nicht nur nicht, sie versteht auch nicht?

Hofstadter: Kaum mehr als unser Hund. Sie hat nur ein sehr, sehr begrenztes Verständnis für das, was Sprache ist.

SPIEGEL: In Ihrer 800-Seiten-Studie "Die Analogie" behaupten Sie, der Mensch sei intelligenter als jeder Computer, letztlich zeige sich das an der Sprache. Ist Denken auch ohne Sprache möglich?

Hofstadter: Im Prinzip schon. Auch Hunde denken, wenngleich nicht besonders anspruchsvoll. Aber sehr weit kommt man ohne Sprache nicht. Die Konzepte, in denen wir denken, verdanken wir der Sprache.

SPIEGEL: Abstrakte Denker, Mathematiker zum Beispiel, behaupten mitunter, dass sie eher in Bildern denken.

Hofstadter: Aber auch die lassen sich auf Sprache zurückführen. Mathematik ist zutiefst linguistisch. Lassen Sie mich dazu eine Geschichte erzählen: Ich hörte irgendwann von einem Schweizer Mathematiker namens Steiner, der seine Geometriekurse in völliger Dunkelheit abhielt. Das fand ich so verrückt, dass ich es selbst ausprobieren musste. Also habe ich für meinen Geometriekurs den Raum total abgedunkelt und dann den sogenannten Morley-Satz, einen wunderschönen Satz über Dreiecke, allein mit Worten bewiesen. Ich sage Ihnen: Es geht.

SPIEGEL: Ihr neues Buch über die "Analogie" handelt nicht von der Sprache selbst. Sie nutzen diese vielmehr als Werkzeug, um das Wesen des Denkens zu ergründen.

Hofstadter: Ja, nehmen Sie zum Beispiel Fehler, wie sie uns ständig beim Sprechen unterlaufen. Sie erlauben uns einen Blick direkt ins Unterbewusstsein.

SPIEGEL: Sie meinen, so wie Freud Versprecher als verräterisch betrachtete?

Hofstadter: Nein. Mir geht es nicht um Sexualität oder den Ödipuskomplex.

SPIEGEL: Sondern?

Hofstadter: Es geht mir um ganz alltägliche Fehler: Wortverwechslungen, Begriffsvermischungen, Lautverschiebungen. Wenn man all solche Fehler sammelt, dann stellt man fest, dass in unserem Geiste unentwegt Wörter miteinander konkurrieren. Jede neue Situation, in der wir uns wiederfinden, ruft in unserem Geist ein ganzes Geflirre von Wörtern wach. Es ist, als schwärmten in unserem Kopf lauter Teams aus, um nach dem richtigen Wort zu suchen, und sie alle stehen in Wettbewerb miteinander. In den meisten Fällen geht eines der Teams als unumstrittener Sieger durchs Ziel.

SPIEGEL: Aber wenn wir einen Fehler machen, dann heißt es, dass mehrere Wörter gleichzeitig über die Ziellinie gehen?

Hofstadter: Sie sagen es. Dann wird der Wettstreit sichtbar - am eindeutigsten, wenn wir Wörter auf komische Weise miteinander vermischen. Je mehr Fehler man analysiert, desto klarer wird: Im Grunde ist die Wahl jedes einzelnen Wortes, das wir aussprechen, das Ergebnis eines verborgenen Wettstreits der Wörter.

SPIEGEL: Verrät uns das auch etwas über die Wörter selbst?

Hofstadter: Allerdings. Es ist zum Beispiel ein weitverbreiteter Irrtum, unsere Wörter seien wohldefiniert. Wir glauben, das Wort "Tisch" sei unveränderlich mit diesem Gegenstand hier vor mir verbunden. Oder nehmen wir zum Beispiel dieses seltsam aussehende Blechding dort, wissen Sie, wie das heißt?

SPIEGEL: Dieses Gerüst da vor dem Kamin? Nein, keine Ahnung.

Hofstadter: Ehrlich gesagt, kann ich es selbst nicht sagen. Oder doch, jetzt schießt mir plötzlich ein Wort in den Sinn: "Feuerbock". Und da wird es jetzt interessant: Ich weiß nicht einmal, ob das der richtige Begriff ist. Und selbst falls dies wirklich ein Feuerbock ist, dann sehen andere Feuerböcke gewiss völlig anders aus. Trotzdem hat mein Geist irgendetwas Typisches an diesem Objekt erkannt, das in meinem Bewusstsein mit diesem Begriff verknüpft ist.

SPIEGEL: Und dieser Name, wollen Sie sagen, ist schon zuvor irgendwo in Ihrem Hirn abgespeichert und muss nun nur noch zugeordnet werden?

Hofstadter: Ja. Letztlich können wir immer nur das Neue, was wir wahrnehmen, auf das anwenden, was wir schon kennen.

SPIEGEL: Für diesen Vorgang wählen Sie in Ihrem Buch den Begriff "Analogie".

Hofstadter: Genau. Wobei das natürlich nicht nur für das gilt, was ich sehe, sondern auch für jeden anderen unserer Sinne. Wenn ich zum Beispiel ein Stück auf dem Klavier spiele, dann kann es sein, dass ich, obwohl ich das Stück nie zuvor gehört habe, sage: "Oh, das klingt nach Skrjabin." Und wenn mir jemand sagt: "Nein, das ist kein Skrjabin", sage ich: "Nein? Dann vielleicht Rachmaninow." Auch da bilde ich eine neue Erfahrung ab auf das, was ich schon kenne.

SPIEGEL: Analogien, so lautet die zentrale These Ihres Buches, sind Dreh- und Angelpunkt all unseres Denkens. Wann ist diese Überzeugung in Ihnen gereift?

Hofstadter: Schon als Teenager war ich fasziniert von Analogien. Ich interessierte mich damals für IQ-Tests und stellte fest, dass sich sehr viele Fragen darin um die Bildung von Analogien drehen. Je mehr ich mir diese Analogien aber ansah, desto mehr merkte ich, dass sie keineswegs eindeutig waren. Es gab gute und weniger überzeugende, aber vor allem gab es viele verschiedene.

SPIEGEL: Wie eng ist denn die Beziehung zwischen Analogie und Intelligenz?

Hofstadter: Sehr eng. Intelligenz ist die Fähigkeit, sehr schnell sehr tiefe Analogien zu erkennen. Die Fähigkeit, innerhalb kurzer Zeit den Finger auf das Wesentliche einer Situation zu legen. Sagen zu können: "Ha, das habe ich schon einmal gesehen. Das erkenne ich wieder."

SPIEGEL: Und diese Fähigkeit ist der Kern all unseres Denkens?

Hofstadter: Ja, aber es hat lange gedauert, bis ich zu dieser Erkenntnis gelangt bin. Ich will Ihnen dazu eine Anekdote erzählen: Im Jahr 2000 hat mich die physikalische Fakultät der Universität Stanford eingeladen, die Hofstadter-Vorlesung zu halten, die dort zu Ehren meines Vaters - des Physikers Robert Hofstadter - einmal im Jahr gehalten wird. Das war eine große Ehre für mich. Aber ich habe mich gefragt: Was kann ich denn über die Physik sagen? Dass ich meinen Doktor in Physik gemacht hatte, lag damals 25 Jahre zurück, und seither hatte ich andere Dinge gemacht. Also beschloss ich, über die Rolle der Analogie im physikalischen Denken zu sprechen, und ich gab meiner Vorlesung den Titel "Die Allgegenwart der Analogie in der Physik".

SPIEGEL: "Allgegenwart"? Das ist eine ziemlich weitgehende These.

Hofstadter: Das hat mir zunächst auch Sorgen bereitet. Ich konnte zwar aus dem Stegreif eine Reihe physikalischer Analogien nennen. Aber vielleicht, dachte ich plötzlich, ist das eher die Ausnahme. Möglicherweise besteht ein großer Teil der Physik doch nur aus purer Logik. Also stürzte ich mich in die Literatur, kaufte bergeweise Bücher und las stapelweise Artikel. Und zu meiner Freude und Erleichterung stellte ich fest: Wo immer ich auch hinguckte, überall stieß ich auf Analogien.

SPIEGEL: Zum Beispiel?

Hofstadter: Selbst ein scheinbar so abstrakter und logischer Denker wie Einstein nutzte Analogien. Zu seiner zentralen quantenphysikalischen Einsicht zum Beispiel, für die er den Nobelpreis bekam, gelangte er, weil er eine tiefe Analogie zwischen dem elektromagnetischen Spektrum eines sogenannten Schwarzen Körpers und dem Energiespektrum eines idealen Gases erahnte. Licht, so schloss er daraus, verhält sich, als ob es aus Teilchen bestünde. Und das war damals eine radikale, eine geradezu ungeheuerliche These.

SPIEGEL: Sind Logik und Denken in Analogien für Sie Gegensätze?

Hofstadter: Jedenfalls ist es ein Irrtum zu glauben, die Analogie spiele in der Logik keine Rolle. Wenn ein Physiker Gleichungen löst, dann scheint es zunächst, als handelte es sich um pure Logik. Tatsächlich aber gibt es unendlich viele Dinge, die er mit seiner Gleichung tun könnte. Und wenn er sich für eines davon entscheidet, dann lässt er sich von seinen Erfahrungen leiten: "Dies ist eine typische Situation, in der es partiell zu integrieren gilt" oder "Hier ist eine Fourier-Transformation sinnvoll". Unbewusst fühlt er sich an ähnliche Situationen in der Vergangenheit erinnert, und seine Entscheidung fällt er, indem er Analogien zu diesen früheren Situationen herstellt.

SPIEGEL: Warum haben die Philosophen dann der Logik so viel mehr Aufmerksamkeit geschenkt als der Analogie?

Hofstadter: Das ist eine gute Frage. Vermutlich wollen wir unser Denken einfach gern als rigoros und unerschütterlich betrachten. Als etwas, das uns von Wahrheit zu Wahrheit führt. Deshalb wird die Mathematik als Terrain puren Denkens schlechthin betrachtet. Tatsächlich aber lassen sich auch Mathematiker von vagen Intuitionen und Einsichten leiten. Erst hinterher rechtfertigen sie dann ihr Tun und füllen all die Lücken. In dem Artikel, den sie am Ende veröffentlichen, lassen sie all die intuitiven Schritte, die sie zum Ziel geführt haben, weg. Und die Leute, die diesen Artikel lesen, verwechseln seinen Inhalt mit dem, was tatsächlich mathematisches Denken ist.

SPIEGEL: Ist Intuition und Analogie in Ihren Augen dasselbe?

Hofstadter: Im Grunde schon. Was ist Intuition anderes als das Gefühl, etwas irgendwo schon gesehen oder erlebt zu haben? Sie besteht darin, alle unwesentlichen, oberflächlichen Details der Dinge wegzulassen und tief in ihrem Innern verborgene Ähnlichkeiten zu erkennen.

SPIEGEL: Haben Sie den Eindruck, dass die Analogie eine größere Rolle spielen sollte bei der Art, wie wir unsere Kinder unterrichten?

Hofstadter: Nicht nur bei der Art, wie wir lehren, sondern überhaupt, wie wir kommunizieren. Wissenschaftliche Artikel sind oft ungemein abstrakt. Das aber ist ein schrecklicher pädagogischer Fehler. Um uns verständigen zu können, brauchen wir Beispiele. Nur über Beispiele verstehen wir Menschen die Welt. Nur so können wir Neues in Bezug zu uns setzen und Analogien zu unseren eigenen Erfahrungen herstellen.

SPIEGEL: Sind die Analogien, die wir ziehen, nicht stark abhängig von der Begrifflichkeit unserer Sprache? Ist damit das Denken in jeder Sprache anders?

Hofstadter: Auf einer eher oberflächlichen Ebene mag das sein. Aber letztlich transzendiert jede Sprache diese Unterschiede. Beim Übersetzen muss man sich zunächst aller irrelevanter Details eines Textes entledigen und zum Wesentlichen vordringen. Wenn man dieses erkannt hat, gilt es, dies in der anderen Sprache neu zu erschaffen, um dann die Details wieder einzufügen. Ich habe das erlebt, als ich den "Eugen Onegin" von Puschkin aus dem Russischen übersetzt habe, einen Roman, der in Versen geschrieben ist. Erst musste ich die Idee erfassen, diese dann im Englischen rekonstruieren - und erst am Ende dem Ganzen den metrischen Rhythmus des Originals aufprägen.

SPIEGEL: Glauben Sie als Computerwissenschaftler, dass Computer je etwas Ähnliches werden vollbringen können?

Hofstadter: Das weiß ich nicht. Aber eines weiß ich sicher: Das digitale Übersetzungsprogramm Google Translate vollbringt es nicht. Verstehen Sie mich nicht falsch: Google Translate ist durchaus beeindruckend. Sie füttern die Maschine mit einem Absatz in einer fremden Sprache, und ehe Sie sich's versehen, kommt eine Abfolge von englischen Wörtern heraus, die aussieht, als handelte es sich um eine Übersetzung ...

SPIEGEL:  ... die bemerkenswert häufig sogar einen gewissen Sinn hat ...

Hofstadter:  ... aber sehr oft auch nicht. Oft mäandert diese Abfolge von Wörtern nur wahllos durch den semantischen Raum - weil der Computer nicht versteht, was er übersetzt. Google Translate beruht darauf, dass extrem schnelle Computer mit Zugriff auf gigantische Datenbanken Pseudo-Übersetzungen generieren. Das ist einerseits eindrucksvoll, andererseits beweist es nur, wie subtil Sprache eigentlich ist.

SPIEGEL: In den deutschen Feuilletons gibt es eine heftige Debatte über das Verhältnis Mensch und Computer, die Stimmung ist düster, Menschen scheinen sich immer mehr vor Google und Apple zu fürchten. Sie aber bleiben optimistisch und glauben, der Mensch sei auf lange Sicht den Rechnern überlegen?

Hofstadter: Ich bin ein durch und durch materiell denkender Mensch, der überzeugt davon ist, dass die Welt von den Gesetzen der Physik regiert wird und dass auch das Gehirn nichts Mystisches ist. Folglich ist es theoretisch sicher möglich, das Gehirn auf hinreichend schnellen und großen Computern zu simulieren. Aber zu sagen, dass dies bald gelingen wird, ist etwas ganz anderes. Ich bin überzeugt davon, dass die Leute derzeit in die völlig falsche Richtung marschieren. Google, Apple und Co. sind große Unternehmen, die von Profitdenken getrieben sind. Und um Profite zu machen, reicht es, Programme zu schreiben, die aussehen, als ob sie etwas verstünden, obwohl sie überhaupt nichts verstehen.

SPIEGEL: Wenn wir zum Beispiel den IBM-Computer "Watson" betrachten, der 2011 im US-Fernsehquiz "Jeopardy" menschliche Champions besiegt hat ...

Hofstadter: Ja, das ist ein sehr gutes Beispiel. Ich bin damals zusammen mit David Ferrucci, einem der Entwickler von Watson, zu einer Radioshow eingeladen worden. Ich kann mich noch gut entsinnen, wie fassungslos ich war, als er allen Ernstes behauptete, Watson habe all die Bücher, mit denen er gefüttert wurde, "gelesen". Genauso gut hätte Ferrucci behaupten können, ein Fleischwolf esse Fleisch. Die Leute so an der Nase herumzuführen ist unaufrichtig und kontraproduktiv.

SPIEGEL: Was muss geschehen, damit aus dem Verarbeiten von Text wirkliches Lesen wird?

Hofstadter: Genau davon handelt die Forschung, die ich hier in Bloomington seit Jahrzehnten betreibe. Wobei unser Ziel nicht darin besteht, Computer intelligent zu machen. Das wäre viel zu schwierig. Wir wollen die fundamentalen Prinzipien des Denkens verstehen.

SPIEGEL: Aber die IT-Industrie interessiert sich nicht dafür?

Hofstadter: Mit den meisten Leuten dort ist eine Verständigung unmöglich. Ihre Ziele unterscheiden sich so radikal von den meinen, dass es ist, als kämen wir von verschiedenen Planeten.

SPIEGEL: In Deutschland läuft mit Erfolg der Kinofilm "Her". Ein Mann verliebt sich darin in die weibliche Stimme eines Betriebssystems, weil diese Stimme ihm suggeriert, er habe es mit einer echten Frau zu tun. Wie weit ist es Ihnen bereits gelungen, auf Ihren Computern echtes Verständnis und echte Einsichten zu programmieren?

Hofstadter: Erlauben Sie mir zunächst noch ein Beispiel: Der Schachcomputer "Deep Blue", ein Vorgänger von "Watson", ist 1997 gegen den damaligen Schachweltmeister Garri Kasparow angetreten. Das System ging als Sieger aus der Partie hervor, weil es mit brachialer Rechenkraft Abermillionen Stellungen pro Sekunde im Voraus berechnete. Mit der Art, mit der Kasparow Schach spielt, hat das allerdings überhaupt nichts zu tun. Nun stellen Sie sich dagegen einen Computer vor, der Analogien herstellt, genau wie Kasparow es tut: Er sieht eine Gefahr auf dem rechten Flügel, er erkennt einen Bauern als Schwachpunkt seiner Stellung, er denkt darüber nach, wie er das Brett kontrollieren kann. Bisher gibt es keinen Computer, der so etwas könnte, und einen solchen zu bauen ist viel schwieriger, als immer noch schnellere Prozessoren und noch größere Speicher zu bauen. Nun aber Ihre Frage: Haben wir Programme geschrieben, die Einsichten haben? Nun, ich würde sagen: in sehr, sehr eingeschränkter Form schon.

SPIEGEL: Herr Professor Hofstadter, wir danken Ihnen für dieses Gespräch.

Donnerstag, 12. November 2015

Prosodie und Bedeutung.

Pfarrer Ray Kelly
aus scinexx

Vom Tonfall zur Bedeutung
Unser Gehirn erkennt subtile Unterschiede im Tonfall über verschiedene neuronale Pfade

Der Ton macht die Musik: Forscher haben herausgefunden, wie unser Gehirn subtile Veränderungen im Tonfall eines Sprechers wahrnimmt und verarbeitet. Dabei stießen sie auf Überraschungen: Beim Interpretieren des Tonfalls spielt unser Gehirn die Kehlkopfbewegungen nach, mit denen die Töne entstanden. Außerdem liegen die dazu nötigen komplexen Netzwerke von Nervenzellen in einer anderen Hirnhälfte als diejenigen zur Erkennung von Sprache, beschreiben die Neurologen im Magazin "Current Biology".

Sprache ist mehr als nur aneinandergereihte Worte: Der Tonfall, in dem wir diese Worte aussprechen, trägt entscheidend zu deren Bedeutung bei. Oft verrät er sogar mehr über die Ansichten des Sprechers als die rein wörtliche Bedeutung des Gesagten. "Stellen Sie sich doch einfach mal ein leidenschaftlich, ein zögerlich oder ein ironisch gesprochenes 'Ja' in Antwort auf einen Heiratsantrag vor", schlägt Daniela Sammer vom Max-Planck-Instituts für Kognitions- und Neurowissenschaften in Leipzig vor. "Da haben Sie ein anschauliches Beispiel für die wichtige Funktion des Tonfalls."

Auf die Verbindungen kommt es an

Diesen Aspekt der Sprache fassen Wissenschaftler unter dem Begriff Prosodie zusammen. Diese beinhaltet alle sprachlichen Eigenschaften wie Akzent, Intonation oder auch Sprechpausen. Wie das Gehirn diesen wichtigen Teil unserer Kommunikation verarbeitet, war jedoch bislang unklar.

Zwar ist bekannt, dass die reinen Wortlaute vor allem in den Sprachzentren der linken Gehirnhälfte entschlüsselt werden. Menschliches Verhalten und auch die Sprache lassen sich aber nicht nur auf einzelne Hirnregionen reduzieren – es kommt vor allem auf die Verbindungen zwischen den einzelnen Bereichen an. Solche existierenden Pfadmodelle lieferten bislang keine Anhaltspunkte über die Verarbeitung der Prosodie.


Aktive Hirnregionen in der rechten Hirnhälfte beim Entschlüsseln der Prosodie

Die Ergebnisse zeigten zunächst zwei Gruppen aktiver Regionen in der rechten Hirnhälfte. Die erste Gruppe besteht aus dem vorderen und hinteren superioren temporalen Sulcus, der obersten der drei Furchen im Schläfenlappen des Gehirns. Diese Areale könnten Stationen sein, die den charakteristischen akustischen Verlauf der Tonhöhen bei Fragen oder Aussagen heraushören und entsprechend interpretieren, sagen die Forscher.

Gehirn stellt Bewegung des Kehlkopfes nach

Die zweite Gruppe bilden aktive Gebiete im sogenannten inferioren Frontallappen (IFG) und dem prämotorischen Kortex (PMC) in dem Areal, welches die Bewegungen des Kehlkopfes steuert. "Der IFG unterstützt die Bewertung des Tonfalls, während der PMC an dieser Stelle die Vibration der Stimmbänder und somit die Tonhöhe einer Äußerung kontrolliert", erklärt Sammler. "Dieser Befund ist sehr interessant, da die Probanden die Stimuli lediglich hörten und nicht selbst sprachen."

Die Studienteilnehmer stellten offenbar die nötigen Kehlkopfbewegungen, die der Sprecher jeweils für ein Wort benutzte, intern nach. Das Gehirn übersetzt Gehörtes also auch in einen Bewegungsbefehl. Dies fördert das Verständnis von Sprache, indem der Hörer in sich selbst das Gehirn die Bewegungsprogramme rekonstruiert, die ein Sprecher für die Produktion des Gehörten selbst genutzt hat. "Bislang vermutete man diesen Aspekt nur für die nichtprosodische Sprachverarbeitung in der linken Hemisphäre", sagt Sammler. "Die vorliegenden Daten könnten aber für einen ähnlichen Mechanismus in der Wahrnehmung des Tonfalls sprechen."

Feine Untertöne über flexible Pfade unterscheidbar

Darüber hinaus bestimmten die Forscher die Bündel von Nervenfasern der weißen Substanz, die dem Informationsaustausch in diesem Netzwerk zugrunde liegen. Dafür berechneten die Forscher die anatomischen Verbindungen zwischen den aktivierten Gehirnregionen aus den Gehirnbildern der Studienteilnehmer.


Faserbündel-Pfade in der rechten Hirnhälfte für die Prosodie-Wahrnehmung.*

Die Ergebnisse zeigen deutlich zwei Faserbündel, die die beiden zuvor erkannten aktiven Gruppen in der rechten Hirnhälfte miteinander verbinden. Eines folgt dem sogenannten mittleren longitudinalen Fasciculus, das zweite dem folgt dem Verlauf des Fasciculus arcuatus beziehungsweise des superioren longitudinalen Fasciculus. Dieser ist in der linken Hemisphäre bereits als Verbindungsbahn zwischen den Sprachzentren bekannt.

Das Gehirn nimmt den Tonfall einer Sprache also entlang mehrerer Pfade wahr. Im Unterschied zu anderen Signalpfaden für Sprache liegen sie vor allem in der rechten Hirnhälfte. "Vermutlich lassen sich diese Pfade flexibel kombinieren und erfüllen so unterschiedliche Aufgaben", fasst Sammler zusammen. "Dadurch kann das Gehirn feine Untertöne in der Stimme des Gegenübers erkennen." Die genaue Kenntnis dieses Prosodie-Netzwerkes helfe auch beim Verständnis zwischenmenschlicher Kommunikation und ihrer Störungen. (Current Biology, 2015; doi: 10.1016/j.cub.2015.10.009)

(Max-Planck-Institut für Kognitions- und Neurowissenschaften, 09.11.2015 - AKR) 

*) Faserbündel-Pfade in der rechten Hirnhälfte für die Prosodie-Wahrnehmung. Posteriorer (pSTS) und anteriorer (aSTS) superiorer temporaler Sulcus, inferiorer Frontallappen (IFG) und prämotorischer Kortex (PMC) sind entlang dem Fasciculus arcuatus (AF) beziehungsweise dem superioren longitudinalen Fasciculus (SLF) miteinander vernetzt.

Nota. - Das digit, das digitale Symbol schlechthin ist das Wort, daran ändert das binäre Darstellungssystem aus I und O nichts: denn die bedeuten eben sinnhaltige Worte mit ja oder nein. Und jetz muss man sagen: das geschriebene Wort. Denn nur dieses lässt sich mit I und O auszeichnen, nicht das gesprochene: denn das muss zusätzlich auf analoge Weise entschlüsselt werden, mit dem Ohr: hörend. Da lässt sich mit I und O nichts anfangen.

Das ist unter anderm theoretisch interessant. Aber praktisch (unter anderm) auch deshalb, weil es der Hype um die bildgebenden Verfahren der Hirnforschung einen deutlichen Dämpfer verpasst. Denn was diese Verfahren beobachten, sind zwar analoge (elektrochemische) Vorgänge zwischen den Hirnzellen. Aber sie halten sie auf digitale Weise fest. Die digitalen Chiffren werden dann zwar wieder in analoge Bilder umgesetzt. Aber sie können nur das analog umsetzen, was zwischendurch digital erfasst war; was sich der digitalen Erfassung eventuell entzog, ist verloren gegangen. - Es sei denn, man nähme an, das Gehirn habe den aus den analogen Signalen (re)konstruierten Sinn selber schon digital umgerechnet und als solchen behalten; was die digitalen Messinstrumente erfassen, sei daher der unverkürzte Sinn selbst!

Praktisch ist es insofern, als damit alle Phantasien über maschinelles Gedankenlesen bereits auf technischer Ebene der Boden entzogen ist; die semantischen Probleme bei der Umsetzung von Zeichen in Bedeutung ist da noch nicht einmal berührt.

(Hab ich mich verheddert? Egal: Sie können sicher sein, dass die heutigen Akkord-Forscher sich solche Fragen nicht einmal stellen. Und die Koriphäen, die das könnten und wollten, machen Grundlagenfor-schung, für Anderes haben sie keine Zeit.)
JE

Mittwoch, 29. April 2015

Wort und Gebärde.

aus Die Presse, Wien, 29.04.2015

Gebärden sagen sehr viel mehr als Worte
Gebärdensprachen haben Feinheiten, die gesprochenen fehlen, aber von deren Sprechern verstanden werden.

„Wenn wir keine Stimme oder Zunge hätten und uns gegenüber anderen ausdrücken wollten, würden wir dann nicht versuchen, durch Bewegung unserer Hände, und des Rests des Körpers Zeichen zu machen, so wie die Stummen es tun?“ Das lässt im fünften Jahrhundert v.Chr. Plato Sokrates sagen (im „Kratylos“), es ist eine der ersten Erwähnungen der Gebärdensprachen. Sie sind alt, vielleicht sehr alt, manche sehen in ihnen den Ursprung der Sprache überhaupt, und sie entstehen immer wieder, seit zwei Generationen wird etwa im Nahen Osten und in Nicaragua eine ganz neue entwickelt, dort waren unter Diktator Somoza stumme Kinder kaserniert und sich selbst überlassen, sie ergriffen die Gelegenheit.

Solche Sprachen sind nicht einfache Übersetzungen der gesprochenen – die Gebärdensprache der USA ist enger mit der französischen verwandt als mit gesprochenem US-Englisch –, aber sie sind zumindest ebenso komplex. Manche halten sie gar für viel feiner, Philippe Schlenker (Institut Jean-Nicod, Paris) etwa erklärt wieder und wieder, dass „in mancher Hinsicht die Logik der gesprochenen Sprache eine heruntergekomme- ne (= vereinfachte) Version der Logik der Gebärdensprache“ ist. Er hat das etwa damit begründet, dass Gebärdensprachen oft ikonisch sind, mit Bewegungen arbeiten, die etwas am Bezeichneten nachzeichnen: In der deutschen Gebärdensprache etwa wird die Katze mit der Form ihrer Schnurrhaare beschrieben, in der tansanischen mit der ihrer Ohren.

Telische vs. atelische Verben

Nun hat Schlenker mit einem anderen Aspekt experimentiert: Aristoteles hat Verben in telische und atelische eingeteilt. Erstere meinen Handlungen mit einem Abschluss („entscheiden“), bei Letzteren gibt es den nicht („denken“). Gesprochene Sprachen drücken die Differenz nicht aus,  Gebärdensprachen tun es, bei telischen Verben wird etwa mit einer Hand ein Schlussstrich gezogen, bei atelischen kreist die Hand. Dann hat Schlenker Sprecher ganz verschiedener Gebärdensprachen um ihre Zeichen für „entscheiden“ und „denken“ gebeten und per Video aufgezeichnet. Die hat er Testpersonen gezeigt, die englisch sprechen, aber keinerlei Gebärdensprache. Sie verstanden doch, was telisch war und was nicht (Pnas, 27.4.). Schlenker vermutet, dass Gebärdensprachen das haben, was der Linguist Noam Chomsky in den 1950er-Jahren gesprochenen Sprachen zuschrieb, wovon er mangels Beleg aber abrückte: eine universelle Grammatik. (jl)


Nota. - Bemerkenswert ist vor allem, dass Gebärdensprache zugleich analog und digital ist. Das ist eine ganz eigene Dimension.
JE


Samstag, 27. September 2014

Das Dilemma des Wissenschaftsjournalismus.

 
Lieber Leser, 

die Frankfurter Allgemeine mag es nicht, wenn ich ihre Beiträge auf meinem Blog wiedergebe.Ich muss sie umständlich bearbeiten - kürzen, umschreiben -, um nicht mit dem Urheberrecht in Konflikt zu geraten. Manchen Artikeln aber - und ihren Autoren - tut man mit einer solchen Behandlung Unrecht, und dem Renommé der FAZ würde auch nicht damit gedient. Die Beiträge von Sibylle Anderl gehören in der Regel zu dieser Kategorie, und ich kann sie nur unter großen Schmerzen kürzen. Und im heutigen Fall auch nur ein ganz klein wenig.
JE   


aus FAZ.NET, 19.09.2014, 11:25 Uhr

Wissenschaftsjournalismus als Herausforderung 
Viele Medien sind voll von fehlerhaften Meldungen aus der Wissenschaft. Gleichzeitig informieren Wissenschaftler heute selbst über aktuelle Forschung. Wird der Wissenschaftsjournalismus überflüssig gemacht? 

Von  

In diesen Tagen, da der althergebrachte, traditionelle Journalismus seinen Todeskampf bestreitet (oder doch nur mit einem grippalen Infekt danieder liegt?), wird gerne spekuliert wie sie denn auszusehen hätte, die konkrete Form eines zukunftsfähigen Journalismus. Mich als Astrophysikerin beschäftigt natürlich primär die Frage nach der Zukunft des Wissenschaftsjournalismus. Genau genommen saß ich vor einem Monat in der französischen Sommersonne und folgte gedanklich der Frage, warum man eigentlich noch Wissenschaftsjournalismus braucht. Aus den Webauftritten der Forschungsinstitute und den Blogs von Wissenschaftlern bekommt man heute schließlich viel schneller und präziser Informationen zum Stand der aktuellen Forschung (und ja: es gibt tatsächlich auch Wissenschaftler, die ähnlich gut schreiben können wie Journalisten). Wenn es im Journalismus heute nur noch um Plakativität, Breitenwirkung und Entertainment zulasten inhaltlicher Richtigkeit geht, wenn es nur noch darum geht, möglichst schnell die brisanteste Story einzufangen und “Quote zu machen”, während die größeren, übergeordneten Fragen im Kontext von Wissenschaft gar nicht mehr berührt werden – dann klingt das für mich nach der falschen Behandlungsstrategie für einen sehr labilen Patienten. ...

Die Wissenschaft ist heute zu einem schier unfassbaren Unternehmen geworden. Aus den wissenschaftlichen Instituten fluten tagtäglich Unmengen von Veröffentlichungen. Allein im Bereich der Astrophysik umfasst die täglich aktualisierte Liste neuer Publikationen zwischen fünfzig und hundert Einträge, die man als gut informierter Astrophysiker jeden Morgen durchschauen sollte. Und es ist kein Ende in Sicht. Im Gegenteil, das Wachstum der Wissenschaft scheint sich immer weiter zu beschleunigen.

Die erste quantitative Analyse dazu wurde 1961 von Derek J. de Solla Price veröffentlicht. Auf der Grundlage der Anzahl wissenschaftlicher Zeitschriften zwischen 1650 und 1950 sowie später der Zahl wissenschaftlicher Inhaltsangaben in entsprechenden Kompendien zwischen 1907 und 1960 ermittelte er ein exponentielles Wachstum von Wissenschaft mit einer Verdoppelung der Zahl von Journalen alle 10-15 Jahre. In einer Anfang dieses Jahres veröffentlichten Studie wurde diese Aussage von Wissenschaftlern vom Max Planck Institut in München und der ETH Zürich noch einmal mit verbesserten statistischen Methoden geprüft. Untersucht wurde nun die Wachstumsrate von Wissenschaft gemessen an der Zahl zitierter Referenzen pro Veröffentlichungsjahr in Publikationen der Jahre 1980 bis 2012, wobei die Referenzen bis in die Mitte des 16ten Jahrhunderts zurückverfolgt wurden. Das exponentielle Wachstum konnte bestätigt werden. Gleichzeitig ermittelte die Studie drei verschiedene Phasen, in denen sich die Wachstumsraten jeweils verdoppelt haben: 1% bis zum Einsetzen der industriellen Revolution Mitte des 18. Jahrhunderts (Verdopplung alle 150 Jahre), 2-3% bis zur Zeit zwischen den Weltkriegen und schließlich 8-9% bis zum Beginn des 21. Jahrhunderts. Der Wissenschaftliche Output verdoppelt sich demnach heute etwa alle 9 Jahre.
 
Wachstum der jährlich zitierten wissenschaftlichen Referenzen. Aus: Bornmann und Mutz 2014, arXiv:1402.4578

... Da wissenschaftlicher Erfolg heute größtenteils an der Anzahl wissenschaftlicher Veröffentlichungen gemessen wird und Wissenschaftler damit unter starkem Publikationsdruck stehen, liegt der Verdacht nahe, dass die Zahl von Publikationen zumindest teilweise künstlich hochgeschraubt wird. Gleichzeitig hat die Tatsache, dass immer mehr Journale sich open-access Publikationen von den Autoren bezahlen lassen, auch ein Interesse auf Seiten der Verleger geschaffen, möglichst viel zu veröffentlichen. Vor diesem Hintergrund forderte Timo Hannay, Geschäftsführer von Digital Science, in der letzten Woche im Blog des britischen Guardian, die Sintflut wissenschaftlicher Forschung endlich zu stoppen, indem das Konzept wissenschaftlichen Publizierens grundsätzlich überdacht werden solle. Nicht mehr die Anzahl der Paper solle Kriterium für wissenschaftlichen Erfolg sein, sondern vielmehr die Qualität der Forschung im Sinne von deren Wirkung auf die wissenschaftliche Gemeinschaft.

... Es wird immer zeitaufwändiger, sich auf einem breiten Feld verschiedener Themen am Puls aktueller Forschung zu bewegen. Gefragt ist hier die Fähigkeit, einschätzen zu können, welche Forschungsergebnisse wirklich bahnbrechend sind und welche eher die Wiederholung von schon Bekanntem darstellen. Aber nicht nur Wissenschaftler müssen und wollen auf dem neusten Stand der Forschung sein, auch die Öffentlichkeit interessiert sich natürlich für den Fortgang wissenschaftlicher Erkenntnis. Was für den Wissenschaftler bereits Herausforderung ist, stellt für den externen Beobachter von Wissenschaft ohne Hilfestellung eine hohe Hürde dar und dies nicht nur für den Laien, sondern oft auch für die eigentlichen Vermittler, die Wissenschaftsjournalisten. Während noch vor gar nicht allzu langer Zeit einfach wissenschaftsjournalistisch aufbereitet werden konnte, was in den namhaften Journals veröffentlicht wurde, muss heute radikal ausgewählt werden, da die Anzahl von Veröffentlichungen für die Eins-zu-eins-Berichterstattung zu groß geworden ist. Das Fundament einer solchen Auswahl kann schwerlich anderes als ein fundiertes wissenschaftliches Fachwissen sein. Sofern das bei Wissenschaftsjournalisten nicht mehr vorliegt, müssen aber andere Strategien gefunden werden.
 
 
Vor dem Hintergrund dieses Problems kommt nun die Online-Welt als vermeintliche Hilfe, denn heute kommunizieren die wissenschaftlichen Institutionen in großem Maße und zunehmend professionell selbst in Pressemitteilungen und durch Öffentlichkeitsarbeit, die direkt durch die Wissenschaftler selbst geleistet wird (siehe Blog “Wissenschaft mit Friends und Followern”). Wer sich regelmäßig auf den PR-Seiten wissenschaftlicher Institute umsieht, bekommt bereits einen kondensierten Eindruck von dem, was sich im jeweiligen Forschungsfeld tut. Dieser Auswahlservice wird von vielen Wissenschaftsressorts dankbar aufgenommen. Es ist durchaus erschreckend, wie oft wissenschaftliche PR-Meldungen schon mehr oder weniger wörtlich journalistisch übernommen werden. Sofern dies zur gängigen Praxis wird, macht sich der Wissenschaftsjournalismus offensichtlich selbst überflüssig und lenkt die Leser früher oder später direkt auf die Seiten der wissenschaftlichen Institute und bloggenden Wissenschaftler. Die mögliche Strategie, in dieser Situation verstärkt auf “Entertainment” und “Sensation” zu setzen, erscheint ebenfalls kurzsichtig, da dies Stilmittel sind, die auch immer mehr von den PR-Stellen selbst genutzt werden.

Sofern der Wissenschaftsjournalismus seine Rolle als zuverlässiger, objektiver, kritischer Beurteiler von Wissenschaft aufgibt und die Leser in die vielfältige Welt der wissenschaftlichen Online-Berichterstattung ausschwärmen lässt, wird nun das Auswahlproblem wiederum für den Leser relevant, der nun selbst vor der Aufgabe steht, die Natur der gewählten Informationsquelle in Bezug auf Verlässlichkeit und Interessengeleitetheit einzuschätzen. Dean Burnett hat in seinem Guardian Blog vor einigen Tagen den Vorschlag erörtert, ein Klassifikationssystem für wissenschaftliche Nachrichten einzuführen, analog zur Klassifikation von Kinofilmen des British Board of Film Classification, durch die der potentielle Zuschauer schon im Vorfeld darauf eingestimmt wird, welchen Inhalt er zu erwarten hat.

Mögliche Kategorien könnten hierbei laut Burnett sein: “Schuhanzieher – enthält den Versuch Wissenschaft in kruder Weise mit aktuellen Themen zu verbinden” um vor Autoren zu warnen, die nicht wissen, wie sie auf plausible Weise Leser für ein bestimmtes Thema interessieren können, “Wilde Extrapolation – Artikel, der nur eine schwache Verbindung zu tatsächlicher Forschung hat” für Artikel die in falscher Art und Weise die Konsequenzen spezifischer Forschung zu verallgemeinern versuchen, “Provokativer Titel – Der Text des Artikels passt vermutlich nicht zum Titel”, für ein Phänomen das insbesondere im Online-Journalismus bestens bekannt ist, oder auch “Aufgewärmte PR – der Artikel ist größtenteils eine wiederaufgewärmte Pressemitteilung”.

... Wenn man sich die Diskussionen zur Wissenschaft im Netz ansieht, merkt man aber, dass ein großes öffentliches Interesse dem wirklichen, meinungsunabhängigen Verständnis wissenschaftlicher Erkenntnisse gilt, für das anerkanntermaßen Expertenwissen notwendig ist. Wer sich für Wissenschaft interessiert, interessiert sich in der Regel nicht für irgendwelche Meinungsströme, sondern für seriöse, belastbare Informationen, die nicht ohne ein tiefes Verständnis wissenschaftlicher Forschung geliefert werden können. Um solche seriösen Informationsquellen identifizieren zu können, könnte das von Burnett vorgeschlagene Klassifikationssystem (in einer weniger satirischen Version) eine Hilfe darstellen. Die Frage ist allerdings, wer ein solches Klassifikationssystem, so nützlich es auch sein mag, etablieren könnte.


Burnett selbst scheint als Urheber eines solchen Klassifikationssystems die Wissenschaftler vor Augen zu haben. In den Kommentaren wird ebenfalls deutlich, dass den Wissenschaftsjournalisten die dafür notwendige Urteilskraft nicht unbedingt zugetraut wird. Hier wird das Dilemma des Wissenschaftsjournalismus deutlich: im Fall der Wissenschaft ist es vergleichsweise einfach, sich im Meer der Meinungen Gehör zu verschaffen, da das Themenfeld aufgrund seiner anerkanntermaßen hohen fachlichen Einstiegshöhe in besonderem Maße nach Experten verlangt. Gleichzeitig gibt es diese Experten aber schon, und das sind erstmal nicht die Wissenschaftsjournalisten, sondern die Wissenschaftler, die neuerdings nicht mehr davor zurückschrecken, auch selbst immer stärker und immer vielfältiger mit der Öffentlichkeit zu kommunizieren. Anders als beispielsweise Politiker erscheinen Wissenschaftler ausserdem weit weniger verdächtig, die Kommunikation mit der Öffentlichkeit für ihre eigenen Zwecke instrumentalisieren zu wollen, sofern sie, wie in vielen Blogs üblich, nicht von eigenen Forschungsergebnissen berichten. Sofern der Wissenschaftsjournalismus sich immer noch lediglich in der Rolle des Vermittlers, des Erklärers und Übersetzers sieht, wird er daher von den immer professioneller kommunizierenden Wissenschaftlern überflüssig gemacht. Wenn er aber versucht, in die Rolle des wissenschaftlich inspirierten Spaß-Animateurs auszuweichen, bekommt er Konkurrenz von immer schriller agierenden PR-Abteilungen.

Es gibt allerdings einen Bereich, der dem Wissenschaftsjournalismus nicht so schnell streitig gemacht werden würde, und das ist der Bereich der kritisch-einordnenden Meta-Perspektive auf Wissenschaft

Wenn der Wissenschaftsjournalismus es schaffen kann, größere Zusammenhänge aufzuzeigen, neue Sichtweisen zu eröffnen, Reichweiten von Ergebnissen einzuschätzen, die Wissenschaft als eine Unternehmung im gesellschaftlichen Kontext zu verstehen, könnte er sich einen unabhängigen Expertenstatus sichern. Denn eine solche übergeordnete Perspektive geht im immer spezialisierter agierenden Wissenschaftsbetrieb zunehmend verloren, während den PR-Abteilungen dafür die nötige Unabhängigkeit fehlt. Idealistisches Ziel wäre es, mit solch einem Journalismus ein Klassifikationssystem, wie im Guardian angeregt, für wissenschaftsjournalistische Artikel weitgehend überflüssig zu machen. Eine solche Position einzunehmen, erfordert eine solide wissenschaftliche Grundausbildung, methodisches Verständnis und hohe intellektuelle Flexibilität. All dies ist aber notwendig, wenn es darum geht, den Leser davon zu überzeugen dass man so etwas wie Wissenschaftsjournalismus braucht; ... wenn man möchte, dass der Leser dem Wissenschaftsjournalisten vertraut, weil er ihm vertrauen kann.