Sonntag, 29. Juni 2014

Al Biruni: Die frühe Entdeckung Amerikas durch bloßes Denken.

aus Süddeutsche.de,

Wissenschaftsgeschichte  
Die Erdenkung Amerikas

Von Richard Stone 

Der vergessene Mathematiker Abu Raihan al-Biruni war einer der größten Gelehrten der Historie. Nun finden sich Belege, dass er schon vor tausend Jahren die Existenz des amerikanischen Kontinents erahnte - lange vor Christopher Kolumbus.

Er war ein Renaissance-Mensch, lange bevor die Renaissance überhaupt begann. Abu Raihan al-Biruni wurde vor gut 1000 Jahren in der Oasenstadt Kath im heutigen Usbekistan geboren und war einer der größten Gelehrten seiner Zeit. Er berechnete mit erstaunlicher Genauigkeit den Umfang der Erde, und er erfand ein Verfahren, Materialien nach ihrer relativen Dichte im Vergleich zu Wasser zu bestimmen. Er zog das Wissen dem Glauben vor, widersprach den Schöpfungslehren der Kreationisten und erklärte, dass die Zeit weder Anfang noch Ende habe. Fünf Jahrhunderte vor Kopernikus argumentierte er, die Sonne sei das Zentrum des Sonnensystems.

Jetzt hat ein einflussreicher Historiker eine weitere Geistesleistung zu der beeindruckenden Liste hinzugefügt: al-Biruni, der nie ein Meer gesehen hat, schloss aus theoretischen Erwägungen auf die Existenz Amerikas. Weil die bekannte Welt seiner Zeit nur zwei Fünftel der von dem asiatischen Wissenschaftler berechneten Weltkugel ausmachte, erwartete er eine weitere Landmasse zwischen der europäischen Atlantik- und der asiatischen Pazifikküste. 

In der Forschung ist seit Langem heftig umstritten, wer denn Amerika tatsächlich "entdeckt" habe. Manche Autoren verweisen auf jene vorhistorischen Völker, die von Sibirien aus über die Beringstraße Alaska erreichten. Andere plädieren für Seeleute aus Skandinavien, die um das Jahr 1000 Nordamerika betreten haben dürften. Genannt werden zudem die Italiener Cristoforo Colombo und Giovanni Caboto, die 1492 und 1497 im Auftrag spanischer und englischer Monarchen karibische Inseln und das Festland erreichten. Aber auch al-Biruni verdiene es, "die Krone des Entdeckers zu tragen", sagt Frederick Starr von der Johns Hopkins School for Advanced International Studies in Washington DC. 

 
"Seine Werkzeuge waren keine hölzernen Boote, die von Muskelkraft oder Segeln angetrieben wurden, sondern eine geschickte Kombination von sorgfältiger Beobachtung, akkurat gesammelten Daten und klarer Logik."

al Biruni

Diese Argumentation überzeugt nicht alle Experten. "Es gibt heute eine Tendenz, zu viele moderne Entdeckungen aus den Arbeiten von Wissenschaftlern des Mittelalters herauszulesen", sagt Jan Hogendijk, eine Autorität zu Biruni-Fragen an der Universität Utrecht. Und Nathan Sidoli, Wissenschaftshistoriker von der Weseda-Universität in Tokio, ergänzt: "Wir sagen ja auch nicht, dass Kopernikus ,entdeckt' hat, dass sich die Erde um die Sonne dreht, nur weil er vermutet hat, dass es so ist." Aber andere Forscher bestätigen die Ansicht, dass al-Biruni Anerkennung für seine Vorhersage verdient. "Falls wir die zentralen Passagen in seinen Texten richtig verstehen, sehe ich keinen Grund, ihn nicht auf die Liste der frühen ,Entdecker' Amerikas zu setzen", argumentiert Robert van Gent, ein Spezialist für die Geschichte der Astronomie, ebenfalls aus Utrecht. Wie Starr besuchte er vor Kurzem eine Tagung über das mittelalterliche Zentralasien in Samarkand. Die Stadt in Usbekistan liegt an der alten Seidenstraße und ist eine der ältesten der Welt.

Al-Biruni gehörte zu einer Gruppe asiatischer Gelehrter, die von 800 bis 1500 nach Christus eine "östliche Renaissance" anführten. Sie begründeten Prinzipien der Trigonometrie und Algebra (von al-gabr, arabisch für das Ergänzen), entwickelten Algorithmen und Astrolabien sowie die Grundlagen moderner Medizin. "Sie waren gewaltige Denker", sagt Frederick Starr. "Aber ihre überschäumende Produktivität ist unserer Aufmerksamkeit im Westen fast völlig entgangen."

Der Forscher aus Washington ist gelernter Archäologe, er kennt Zentralasien von Dutzenden Reisen. Er gehört zu den führenden Figuren einer akademischen Bewegung, die die östliche Renaissance und ihre Entstehungsbedingungen dokumentieren will. Die Menschen, die seinerzeit an der Schnittstelle der europäischen, arabischen, indischen und chinesischen Kulturen lebten, wurden schnell zu unvergleichlichen Händlern. Und dafür mussten sie rechnen können. "In Samarkand lernten die Jungen mit acht Jahren Mathematik, was die Chinesen sehr erstaunte", sagt Starr.


 

 
Astrolab

Al-Biruni könnte der hellste Kopf der zentralasiatischen Geschichte gewesen sein. "Er war wirklich ein Universalgenie", sagt Jules Janssens von der Katholischen Universität im belgischen Leuven. Der Gelehrte kannte sich nicht nur in den Naturwissenschaften und der Anthropologie aus, sondern auch in der Pharmazie und Philosophie. Er muss mindestens 150 Texte geschrieben haben, von denen 31 die Zeit überdauert haben - sie sind außerhalb eine kleinen Gruppe von Spezialisten weitgehend unbekannt.

Geboren wurde al-Biruni im Jahr 973 in der Nähe des Aralsees in Kath, der damaligen Hauptstadt seines Landes Choresmien, die heute verfallen in der Nähe von Xiva in Usbekistan liegt. Als er 16 Jahre alt war, nutzte er den Stand der Sonne im Zenit, um die geografische Breite seiner Heimatstadt zu bestimmen. Als Erwachsener reiste er weit. Auf einer Hügelfestung beim heutigen Islamabad entwickelte er eine Technik, mit einem Astrolabium, sphärischer Geometrie und dem Sinussatz den Umfang der Erde zu bestimmen. Seine Berechnung weiche nur 16,8 Kilometer vom heutigen Wert ab, sagt Starr.


In einem dicken Band, heute als Masudischer Kanon bekannt, analysierte al-Biruni die klassische griechische Astronomie sowie die Beobachtungen und Gesetze aus Indien und islamischen Ländern, und trennte die glaubwürdigen Behauptungen von den phantastischen. In einem weiteren Band erklärte er das Konzept der relativen Dichte und wandte es auf Dutzende Mineralien und Metalle an. Seine Messungen waren auf drei Stellen nach dem Komma genau, in Europa gelang das erst im 18. Jahrhundert, erklärt Starr.
 
Seine präzise Arbeitsweise zeigt sich besonders bei der theoretischen Entdeckung Amerikas. Zur Berechnung der Qibla - der Himmelsrichtung von Mekka, in die sich Muslime bei ihren Gebeten verbeugen - hatte al-Biruni an jedem besuchten Ort die geografischen Koordinaten notiert. Außerdem erfasste er Daten von Tausenden anderen Orten in Europa und Asien. Aber als er die bekannte Welt auf einer Karte eintrug, oder auf einem Fünf-Meter-Globus, den er angeblich konstruiert hatte, stellte er fest, dass drei Fünftel der Erde unbekannt waren.
 
"Die offensichtliche Erklärung für diese große Lücke wäre gewesen, sich wie alle Geografen seit der Antike auf einen Weltozean zu berufen", schreibt Starr in seinem vor Kurzem erschienenen Buch über das Goldene Zeitalter der zentralasiatischen Gelehrten. Aber al-Biruni verwarf diese Idee, wie schon Mitte der 1950er-Jahre ein indischer Historiker festgestellt hatte. Dessen Hinweis auf eine entsprechende Passage der Schriften blieb allerdings jahrzehntelang unbeachtet. Al-Biruni argumentierte darin, dass dieselben Kräfte, die auf zwei Fünfteln der Erde Land geschaffen haben, auch auf den restlichen drei Fünfteln wirken müssten. "Es gibt nichts, was die Existenz bewohnter Länder verbieten würde", schrieb der Gelehrte.
 
Al-Birunis Arbeitsweise wirke "erstaunlich modern", schließt Starr: "eine Stimme von ruhiger und leidenschaftloser wissenschaftlicher Arbeit erklingt aus den Tiefen einer irrationalen und abergläubigen mittelalterlichen Welt." Erst als ein "Leichentuch des Verdachts" auf die Wissenschaft in Zentralasien fiel, ging die östliche Renaissance zu Ende. Wie Amerika harrte sie ihrer Wiederentdeckung.
 
Dieser Text ist in Science erschienen, dem internationalen Wissenschaftsmagazin, herausgegeben von der AAAS. Weitere Informationen: www.aaas.org, www.sciencemag.org. Dt. Bearbeitung: cris

Samstag, 28. Juni 2014

Sprechen und Fliegen.

institution logoFliegen bieten Einblicke in die Entwicklungsgeschichte der menschlichen Sprache

Alexander Schlaak  
Referat II/2, Kommunikation
Universität Regensburg

26.06.2014 11:42

Forscher haben einen zentralen Baustein für die evolutionäre Entwicklung der Sprache aufgespürt. Ein Team der Universität Regensburg hat gemeinsam mit Kollegen in Berlin, Jena und Columbia/Missouri (USA) eine Urform des Gens FOXP2 untersucht, dessen Mutationen bei Menschen zu schweren Sprachstörungen führen. Sie fanden heraus, dass die Urform (FoxP) bei Fruchtfliegen für das Erlernen bestimmter Bewegungen notwendig ist. Aufgrund dieser Entdeckung lassen sich die Wurzeln der Sprache mehr als 500 Jahrmillionen zurückverfolgen; lange bevor das erste Wort überhaupt gesprochen wurde. Die Forschungsergebnisse sind in der Fachzeitschrift „PLoS One“ erschienen (DOI: 10.1371/journal.pone.0100648).

„Sprachgebrauch setzt zunächst die richtige Artikulation von unterschiedlichen Lauten voraus“, so Prof. Dr. Björn Brembs vom Institut für Zoologie der Universität Regensburg, der das internationale Forscherteam koordinierte. „Um dies zu schaffen, müssen unsere Muskeln in Lippe, Zunge und Kehlkopf perfekt zusammenarbeiten. Als Kleinkinder erlernen wir diese Fähigkeiten über das Brabbeln“, ergänzt Prof. Dr. Constance Scharff von der Freien Universität Berlin, die die Bedeutung von FoxP bereits für die Entwicklung der Singfähigkeiten von Vögeln nachgewiesen hat.

Die Wissenschaftler untersuchten Fruchtfliegen im Rahmen eines speziellen Lernexperiments, das sich an Prozessen des Spracherwerbs bei Wirbeltieren orientierte. Ähnlich wie Kleinkinder und Singvögel mussten die Fruchtfliegen unterschiedliche Bewegungen mit ihren Flügelmuskeln ausprobieren, um zu lernen, wohin sie fliegen sollten und wohin nicht. Mit einem Wärmestrahl trainierten die Wissenschaftler die Fliegen, eine Bewegung in eine bestimmte Richtung zu vermeiden und entsprechend andere Lenkmanöver durchzuführen. Fruchtfliegen mit einem durch die Forscher manipulierten FoxP-Gen versagten bei diesem Experiment, im Gegensatz zu den unveränderten Kontroll-Exemplaren.

Allerdings hatten die mutierten Fliegen keine Probleme damit, eine bestimmte Flugrichtung zu vermeiden, sofern diese von den Wissenschaftlern an die Darstellung einer bestimmten Farbe gekoppelt wurde. Dieser Befund ist auch beim Menschen bei Patienten mit Mutationen des FOXP2-Gens nachzuweisen. „Ebenfalls deckungsgleich mit der Funktion der FoxP-Varianten bei Menschen und Vögeln ist die Beobachtung, dass sich die Struktur von Regionen des Gehirns von Fruchtfliegen im Falle einer FoxP-Mutation verändert. Dies deutet darauf hin, dass FoxP auch andere Gene im Rahmen der Gehirnentwicklung reguliert“,* sagt Dr. Jürgen Rybak vom Max-Planck-Institut für chemische Ökologie in Jena, der die morphologischen Untersuchungen der Fliegen-Gehirne vorgenommen hat.

Die Ergebnisse des Forscherteams legen die Vermutung nahe, dass Prozesse des motorischen Lernens und Formen des Spracherwerbs gemeinsame Wurzeln haben, die noch heute bei wirbellosen Tieren zu finden sind. Möglicherweise liegt der Ursprung – noch vor der Trennung in Wirbeltiere und wirbellose Tiere vor über 500 Jahrmillionen – bei einem Vorfahren, der die Fähigkeit zum Lernen über Versuch und Irrtum entwickelt hatte. „Vermutlich wurde die Fähigkeit zum Lernen über Versuch und Irrtum zu einem Zeitpunkt nutzbar gemacht, als sich die Stimmbildung bei Wirbeltieren im Allgemeinen und der Sprachgebrauch beim Menschen im Besonderen entwickelte“, erklärt Prof. Brembs.

Für Prof. Dr. Troy Zars von der University of Missouri in Columbia, der 2007 erstmals das FoxP-Gen im Genom von Fliegen entdeckte, ergeben sich vor diesem Hintergrund bemerkenswerte Schlüsse. „Die Untersuchung der FoxP-Variante bei Fruchtfliegen liefert uns einen Startpunkt für ein tieferes Verständnis der Gene, die beim Lernen durch Versuch und Irrtum sowie bei der artspezifischen Kommunikation eine Rolle spielen. Unsere Ergebnisse könnten zudem dabei helfen, die genetischen Grundlagen bestimmter Erkrankungen beim Menschen – zum Beispiel von Schizophrenie – zu klären“, so Prof. Zars.

Titel des Original-Artikels:
Ezequiel Mendoza, Julien Colomb, Jürgen Rybak, Hans-Joachim Pflüger, Troy Zars, Constance Scharff, Björn Brembs: Drosophila FoxP Mutants Are Deficient in Operant Self-Learning, in „PLoS ONE” (DOI 10.1371/journal.pone.0100648)

Weiterführende Informationen unter:
http://brembs.net/foxp

Ansprechpartner für Medienvertreter:
Prof. Dr. Björn Brembs
Universität Regensburg
Institut für Zoologie
Tel.: 0941 943-3117
Bjoern.Brembs@ur.de 


*Nota.
Hier ist offenbar nur von der Motorik die Rede, nicht aber von den intellektuellen Leistungen, die dem Sprechen zugrundeliegen. Besteht ein gattungsgeschichtlicher Zusammenhang mit FOXP2 ? Wenn nicht, wäre diese Meldung uninteressant.
JE

Mittwoch, 25. Juni 2014

Theoretisch dürfte es die Welt gar nicht geben.

 
aus scinexx

Warum ist unser Universum nicht kollabiert? 
Wechselwirkung von Inflation und Higgsfeld deutet auf Physik jenseits des Standardmodells hin

Kosmisches Paradox: Glaubt man britischen Physikern, dürfte unser Universum gar nicht existieren. Denn es wäre schon Sekundenbruchteile nach dem Urknall wieder kollabiert – das zumindest besagen Modellrechnungen, die die kosmische Inflation und das Higgsfeld miteinander wechselwirken lassen. Nach Ansicht der Forscher bedeutet dies: Entweder einige der Daten und Schlussfolgerungen zur Inflation sind falsch, oder aber es gab im frühen Universum Teilchen und Kräfte, die in unserem Standardmodell bisher nicht vorkommen.

Direkt nach dem Urknall dehnte sich unser Universum innerhalb von Sekundenbruchteilen enorm aus. Diese Phase der kosmischen Inflation erklärt viele heute beobachtbare Phänomene im Weltall, blieb aber lange eine umstrittene Theorie. Im März 2014 jedoch stießen Astronomen mit Hilfe des BICEP2-Teleskops in der Polarisation der Kosmischen Hintergrundstrahlung erstmals auf ein direktes Signal aus dieser turbulenten Phase: Die damals durch die Inflation verursachten Gravitationswellen hatten spezifische Muster in der Schwingungsrichtung der Strahlung hinterlassen. 

Tumult im frühen Kosmos
 
Als Triebkraft für die Inflation gelten je nach Modell ein oder mehrere Skalarfelder, deren Energie der ungeheuren Anziehungskraft der Urmaterie entgegenwirkte und das Universum so quasi auseinanderschleuderte. Die genauen Mechanismen sind bisher allerdings ungeklärt – ebenso die Wechselwirkung der Inflation mit anderen Skalarfeldern wie dem Higgsfeld. Dieses Feld ist es gängiger Theorie nach, das allen Materieteilchen eine Masse verleiht. Als Beleg dafür gilt die Entdeckung des Higgs-Bosons im Jahr 2012 am Teilchenbeschleuniger LHC des CERN.
 
 
Die starken "Stöße" der Inflation müssten unser Universum eigentlich aus der Senke in das Tal ganz rechts geschubst haben.
Physiker um Robert Hogan vom King's College London haben nun untersucht, ob und wie die kosmische Inflation das Higgsfeld beeinflusst haben könnte – und kamen dabei zu einer verblüffenden Erkenntnis: Eigentlich dürfte es unser Universum heute gar nicht geben. Denn Daten der BICEP2-Messungen zeigen, dass die kosmische Inflation enorme Energiefluktuationen im frühen Universum auslöste, die sich als Gravitationswellen bemerkbar machten.

Vom Sockel gestoßen 

Aus der Teilchenphysik aber ist bekannt, dass das Higgsfeld bei Energiedichten oberhalb eines bestimmten Wertes seinen metastabilen Zustand verlässt und auf ein Minimum fällt, wie die Forscher erklären. Das ist vergleichbar einer Kugel, die von einer Senke in einem Berghang endgültig ins Tal rollt.

Wenn das aber während der Inflation passiert wäre, dann hätte unser Universum schon Sekundenbruchteile nach dem Urknall wieder in sich zusammenfallen müssen. Oder, wie es die Physiker ausdrücken: "Am Ende der Inflation oder kurz davor müsste das Higgsfeld in einen instabilen Minimum-Zustand rollen", so Hogan und sein Kollege Malcolm Fairbairn. "Das aber ist inakzeptabel, denn wenn dies geschehen wäre, könnten wir heute nicht hier sein und darüber diskutieren."
 

Messfehler oder völlig neue Physik?
 
Wie aber lässt sich dieses scheinbare Paradox auflösen? "Wir wissen, es muss irgendeinen physikalischen Weg geben, der das Higgsfeld davon abhält, in das Minimum zu rollen", so die Physiker. Noch ist unklar, worum es sich dabei handeln könnte. Möglich wäre aber, dass Higgsfeld und Inflatonfeld auf irgendeine Weise so miteinander verkoppelt waren, dass das Higgsfeld vor dem Abrutschen bewahrt wurde, wie die Forscher vorrechnen.

Es könnte aber auch sein, dass bestimmte Elementarteilchen wie die Top-Quarks eine andere Masse haben als angenommen – oder dass sogar noch weiter, bisher unbekannte Teilchen existieren. "Wenn sich die BICEP2-Daten weiterhin als korrekt erweisen, dann hätte dies spannende neue Auswirkungen auf die Teilchenphysik und unsere Sicht des Standardmodells", so Hogan und Fairbairn. (Physical Review Letters, 2014; doi: 10.1103/PhysRevLett.112.201801)

Dienstag, 24. Juni 2014

Empfindsame Hirne.

 
aus scinexx

Empathie ist am Gehirn ablesbar
Veränderte Hirnaktivität markiert ein Fünftel von uns als besonders sensibel und mitfühlend

Nah am Wasser gebaut oder besonders hilfsbereit? Das anscheinend größere Einfühlungsvermögen mancher Menschen könnte auf körperlicher Veranlagung beruhen. US-Wissenschaftler haben zum ersten Mal direkt die Gehirnaktivität solcher hochsensibler Menschen aufgezeichnet. Dabei fanden sie deutlich gesteigerte Aktivität in den verantwortlichen Hirnregionen für das Erkennen von Emotionen und die Verarbeitung von Sinneseindrücken.

Manche Menschen gelten als besonders einfühlsam, während andere kaum auf ihre Mitmenschen oder ihre Umwelt reagieren. Früheren Untersuchungen zufolge gehört rund ein Fünftel der Bevölkerung zu den sogenannten hochsensiblen Personen: Sie sind empfindlicher für Umweltreize, aber auch soziale Signale. Diese Menschen sind daher auch empfänglicher für Gefühle anderer, zeigen größere Anteilnahme und lassen sich von Emotionen im Film leichter anstecken. Die neurologische Ursachen für diese gesteigerte Empathie waren bislang jedoch weitgehend unerforscht.

Elaine Aron von der Stony Brook University in New York und ihre Kollegen haben nun zum ersten Mal die Gehirnaktivität von hochsensiblen Personen mittels funktioneller Magnetresonanztomographie mit einer Kontrollgruppe verglichen. Sie scannten das Gehirn von 18 Versuchspersonen, denen sie Fotos von verschiedenen Gesichtern vorlegten. Einige Bilder zeigten traurige, andere fröhliche Gesichtsausdrücke. Eine Serie von Bildern bestand dabei aus Bildern von Fremden, während eine zweite Serie Bilder des Ehepartners der Versuchsperson enthielt.

Die farbigen Regionen zeigen Hirnbereiche höherer Aktivität bei hochsensiblen Menschen im Vergleich zu weniger empfindlichen Personen.

Direkter Nachweis im Gehirn

Das Experiment zeigte deutliche Unterschiede zwischen hochsensiblen und weniger empfänglichen Personen: Bei den besonders empathischen Menschen waren bestimmte Hirnregionen deutlich stärker durchblutet, während sie die Fotos betrachteten. Vergleichsweise stärker aktiv waren vor allem die Bereiche im Gehirn, die mit Emotionen und Einfühlungsvermögen in Verbindung gebracht werden. Besonders stark ausgeprägt war der Effekt beim Betrachten von Bildern des lächelnden Partners. "Das ist ein direkter Nachweis im Gehirn, dass hochsensible Personen besonders stark auf soziale, emotionale Situationen reagieren", sagt Aron.

Außerdem zeigten auch solche Hirnregionen größere Aktivität, die für Aufmerksamkeit und Verarbeitung von Sinneseindrücken verantwortlich sind. Zusammen mit den stärker durchbluteten emotionalen Bereichen des Gehirns untermauert dies nach Ansicht der Psychologen, dass hochsensible Personen nicht nur psychologisch anders auf ihre Umwelt reagieren, sondern aufgrund ihrer veränderten Hirnfunktionen ihre Umgebung tatsächlich intensiver wahrnehmen und emotionaler darauf reagieren.

(Brain and Behavior, 2014; doi: 10.1002/brb3.242)

Montag, 23. Juni 2014

Bilder und Wörter: Das Hirn beim Dichten und Trachten.

aus New York Times, JUNE 20, 2014

This Is Your Brain on Writing

That’s one of the implications of new research on the neuroscience of creative writing. For the first time, neuroscientists have used fMRI scanners to track the brain activity of both experienced and novice writers as they sat down — or, in this case, lay down — to turn out a piece of fiction.

The researchers, led by Martin Lotze of the University of Greifswald in Germany, observed a broad network of regions in the brain working together as people produced their stories. But there were notable differences between the two groups of subjects. The inner workings of the professionally trained writers in the bunch, the scientists argue, showed some similarities to people who are skilled at other complex actions, like music or sports.

The research is drawing strong reactions. Some experts praise it as an important advance in understanding writing and creativity, while others criticize the research as too crude to reveal anything meaningful about the mysteries of literature or inspiration.

Dr. Lotze has long been intrigued by artistic expression. In previous studies, he has observed the brains of piano players and opera singers, using fMRI scanners to pinpoint regions that become unusually active in the brain.

Needless to say, that can be challenging when a subject is singing an aria. Scanners are a lot like 19th-century cameras: They can take very sharp pictures, if their subject remains still. To get accurate data, Dr. Lotze has developed software that can take into account fluctuations caused by breathing or head movements.

For creative writing, he faced a similar challenge. In previous studies, scientists had observed people doing only small tasks like thinking up a plot in their heads.

Dr. Lotze wanted to scan people while they were actually writing. But he couldn’t give his subjects a keyboard to write with, because the magnetic field generated by the scanner would have hurled it across the room.

So Dr. Lotze ended up making a custom-built writing desk, clipping a piece of paper to a wedge-shaped block as his subjects reclined. They could rest their writing arm on the desk and scribble on the page. A system of mirrors let them see what they were writing while their head remained cocooned inside the scanner.

To begin, Dr. Lotze asked 28 volunteers to simply copy some text, giving him a baseline reading of their brain activity during writing.

Next, he showed his volunteers a few lines from a short story and asked them to continue it in their own words. The volunteers could brainstorm for a minute, and then write creatively for a little over two minutes.

Some regions of the brain became active only during the creative process, but not while copying, the researchers found. During the brainstorming sessions, some vision-processing regions of volunteers became active. It’s possible that they were, in effect, seeing the scenes they wanted to write.


Other regions became active when the volunteers started jotting down their stories. Dr. Lotze suspects that one of them, the hippocampus, was retrieving factual information that the volunteers could use.

One region near the front of the brain, known to be crucial for holding several pieces of information in mind at once, became active as well. Juggling several characters and plot lines may put special demands on it.

But Dr. Lotze also recognized a big limit of the study: His subjects had no previous experience in creative writing. Would the brains of full-time writers respond differently?

To find out, he and his colleagues went to another German university, the University of Hildesheim, which runs a highly competitive creative writing program. The scientists recruited 20 writers there (their average age was 25). Dr Lotze and his colleagues had them take the same tests and then compared their performance with the novices’.

As the scientists report in a new study in the journal NeuroImage, the brains of expert writers appeared to work differently, even before they set pen to paper. During brainstorming, the novice writers activated their visual centers. By contrast, the brains of expert writers showed more activity in regions involved in speech.

“I think both groups are using different strategies,” Dr. Lotze said. It’s possible that the novices are watching their stories like a film inside their heads, while the writers are narrating it with an inner voice.

When the two groups started to write, another set of differences emerged. Deep inside the brains of expert writers, a region called the caudate nucleus became active. In the novices, the caudate nucleus was quiet.

The caudate nucleus is a familiar part of the brain for scientists like Dr. Lotze who study expertise. It plays an essential role in the skill that comes with practice, including activities like board games.

When we first start learning a skill — be it playing a piano or playing basketball — we use a lot of conscious effort. With practice, those actions become more automatic. The caudate nucleus and nearby regions start to coordinate the brain’s activity as this shift happens.

“I was really happy to see this,” said Ronald T. Kellogg, a psychologist who studies writing at Saint Louis University. “You don’t want to see this as an analog to what James Joyce was doing in Dublin. But to see that they were able to get clean results with this, I think that’s a major step right there.”

But Steven Pinker, a Harvard psychologist, was skeptical that the experiments could provide a clear picture of creativity. “It’s a messy comparison,” he said.

Dr. Pinker pointed out that the activity that Dr. Lotze saw during creative writing could be common to writing in general — or perhaps to any kind of thinking that requires more focus than copying. A better comparison would have been between writing a fictional story and writing an essay about some factual information.

Even the best-designed scanning experiments might miss signs of creativity, Dr. Pinker warned. The very nature of creativity can make it different from one person to the next, and so it can be hard to see what different writers have in common. Dr. Pinker speculated that Marcel Proust might have activated the taste-perceiving regions of his brain when he recalled the flavor of a cookie. But another writer might rely more on sounds to evoke a time and place.

“Creativity is a perversely difficult thing to study,” he said. 


Nota. 

Wenn der Normalmensch "sich was einfallen lässt", denkt er in Bildern. Nur die Experten von der schreibenden Zunft denken sparsamerweise gleich in Wörtern. Aber ich glaube, wenn es ernstlich zum Dichten kommt, sind doch die Bilder wieder an der Reihe.
JE

Samstag, 21. Juni 2014

Noch einmal: Spiegelneurone.

C.Kleger  / pixelio.de
aus Die Presse, Wien, 22. 6. 2014

Warum wir uns mit Fans im Stadion mitfreuen Durch Spiegelneurone können wir uns in andere Menschen hineinversetzen.

von Petra Paumkirchner 

Während der WM fühlen wir mit weinenden und jubelnden Fans und Fußballspielern mit, wir zeigen Empathie. Aber wie funktioniert das eigentlich? Dafür sind die sogenannten Spiegelneurone im Gehirn verantwortlich, die beim Betrachten eines Vorgangs oder einer Emotion eines anderen Menschen das gleiche Aktivitätsmuster aufweisen, als ob wir eine Bewegung selber ausgeführt hätten oder das Gleiche fühlen würden. Außerdem sind sie dafür zuständig, dass wir zwischen uns selbst und anderen Menschen unterscheiden können.

Je mehr das Gesehene unseren Erfahrungen, insbesondere in Bezug auf die Betrachtung von motorischen Aktivitäten, entspricht, desto stärker feuern die Spiegelneuronen. Wir können dadurch eine Bewegung „lesen“, wir können die Intention, die hinter einer Handlung steht, nachvollziehen und deuten.

Das Resonanzsystem der Spiegelneuronen hat noch einen weiteren Effekt: Fans, die selbst Fußball spielen oder gespielt haben, und wissen, wie das Spiel funktioniert, können das Spiel besser „lesen“. Bei ihnen springen vor allem Spiegelneurone im primären motorischen Cortex an. „Studien haben gezeigt, dass diese Fußballexperten während des Spiels die Aktionen besser vorhersagen können. Dabei feuern diese Neuronen mehr als bei Zuschauern, die weniger von Fußball verstehen“, sagt Ornella Valenti von der Abteilung für Kognitive Neurobiologie am Zentrum für Hirnforschung der Medizinischen Universität Wien.

Eigene Erfahrungen. Diese speziellen Neurone lassen uns die Absichten anderer intuitiv erfassen. Und das umso besser, je stärker sich die Absichten mit den eigenen Erfahrungen decken. Das ist bei Autisten nicht der Fall. Es gibt zwei wissenschaftliche Meinungen, woran das liegen könnte. Eine amerikanische Gruppe ist der Ansicht, dass die Spiegelneuronen bei Autisten nicht funktionieren.
 

Italienische Forscher glauben, dass bei Autisten die synaptische Übertragung der Spiegelneuronen, also die Weiterleitung der Signale, gestört ist. Sie können zwischen einer gesehenen Handlung und der Absicht, die dahinter steckt, keine Verbindung herstellen.

Schlaganfallpatienten. In der Therapie von Schlaganfallpatienten sind Spiegelneuronen hilfreiche Adressaten. Den Patienten werden auf dem Bildschirm zunächst Übungen gezeigt, die diese später selbst durchführen sollen. Durch das Sehen der Bewegungen sollen die Spiegelneuronen aktiviert werden, die auch beim Lernen durch Imitation eine bedeutende Rolle schon beim Neugeborenen spielen. Die Aktivierung der Neuronen soll den Patienten helfen, ihre Lähmungen teilweise zu überwinden.

„Generell tragen Spiegelneuronen positiv zum Lernverhalten und zur Kommunikation bei“, erklärt Valenti. Sie sollen auch für die Sprachentwicklung wichtig sein: Wenn wir eine neue Sprache erlernen, imitieren wir, wir lernen, die Zunge und die Lippen so zu bewegen, dass wir die richtigen Laute hervorbringen.
 

Lexikon 

Spiegelneuronen wurden das erste Mal 1992 vom Italiener Giacomo Rizzolatti bei Makaken beschrieben. Empathie ist das Einfühlungsvermögen in eine andere Person.
Autismus ist eine Entwicklungsstörung, die sich in einer veränderten Wahrnehmungs- und Informationsverarbeitung manifestiert.
Der primäre motorische Cortex befindet sich im Frontallappen der Großhirnrinde und ist für die Steuerung willkürlicher Bewegungen zuständig.

Donnerstag, 19. Juni 2014

A. G. Baumgartens "schönes Denken".

institution logoEuropa-Universität begeht 300. Geburtstag von A. G. Baumgarten mit internationaler Konferenz

Michaela Grün  
Abteilung Presse- und Öffentlichkeitsarbeit
Europa-Universität Viadrina Frankfurt (Oder)  

19.06.2014 10:48

Begründer der Ästhetik und Viadrina-Rektor –
Europa-Universität begeht 300. Geburtstag von Alexander Gottlieb Baumgarten mit internationaler Konferenz

Er war Professor der „Weltweisheit und der schönen Wissenschaften“ – heute würde man Philosophie und Rhetorik sagen – und Rektor der Universitas Francofurtensis: Alexander Gottlieb Baumgarten. Am 17. Juni 2014 wäre er 300 Jahre alt geworden. Die Europa-Universität Viadrina Frankfurt (Oder) begeht dieses Jubiläum von Donnerstag, dem 26. Juni, bis Samstag, dem 28. Juni, mit einer internationalen Konferenz zum Thema „Schönes Denken – Baumgartens Epoche 1714-2014“. 


Rund 25 Teilnehmer aus Deutschland, Italien, Frankreich und den USA untersuchen aus philosophischer, historischer, rechts-, kultur- und literaturwissenschaftlicher Perspektive die Baumgartensche Philosophie. Er gilt als Gründervater der modernen Ästhetik. Baumgarten erweiterte den Zuständigkeitsbereich der Ästhetik entscheidend. Er untersuchte nicht nur, was schön ist, sondern stellte eine Verbindung zu Vernunft und Logik her. Der Philosoph wurde zum „Leitautor“ Immanuel Kants, der seine Vorlesungen zu Metaphysik und Ethik entlang der Baumgartenschen Schriften ausführte.

Die Viadrina würdigt mit Baumgarten einen Denker, der die Grenzen philosophischer und akademischer Disziplinen und Denkmuster in Bewegung setzte und der neue Möglichkeiten der Forschung eröffnete, die bis heute wirksam sind.

Zum Hintergrund:

Alexander Gottlieb Baumgarten unterrichtete von 1737 bis zu seinem frühen Tode 1762 an der alten Frankfurter Universität als Professor der „Weltweisheit und der schönen Wissenschaften“. Von 1752-53 war er außerdem Rektor der Viadrina. In seiner Frankfurter Zeit verfasste und veröffentlichte Baumgarten die beiden ersten Teile seines philosophischen Hauptwerkes, der unvollendet gebliebenen „Aesthetica“, in der er seine Vorlesungen zur Philosophie der „sinnlichen Erkenntnis“ und der „Kunst des schönen Denkens“ ausarbeitete. Die „Aesthetica“ ist die Gründungsurkunde der modernen Ästhetik.

Journalisten sind herzlich eingeladen, über die Konferenz zu berichten. Bei Interesse vermitteln wir gern ein Experteninterview oder einen Fototermin.

Weitere Informationen:
Europa-Universität Viadrina
Abteilung Presse- und Öffentlichkeitsarbeit
Tel.: +49 (0)335 – 5534 4515
presse@europa-uni.de
www.europa-uni.de

Homo viator.

Julian Nitzsche  / pixelio.de
aus nzz.ch, 18. Juni 2014, 05:30

Aus der Geschichte des Gehens und der Wissenschaft vom Gehen
«Nachrangige Verkehrsteilnehmer»


Das «Gehen zu Fuss» war, bevor das fälschlich «automobil» – «selbstbewegend» – genannte Kraftfahrzeug erfunden wurde, die alltäglichste, gesündeste, billigste Art, sich fortzubewegen. Und derzeit steigt das Zu-Fuss-Gehen aus gesundheitlichen, ökologischen, auch ökonomischen Gründen wieder rapide im Kurs. Das von Georg Büchners Lenz so sehr vermisste Gehen auf dem Kopf oder das artistische Gehen auf den Händen hat das scheinbar tautologische «Gehen zu Fuss» nicht ablösen können. Stattdessen ist die alte Zielbestimmung der Fussgängerei: die des unterwegs befindlichen, pilgernden «Homo viator», der hienieden seinen Heilsweg sucht, wieder so populär geworden, dass man sich etwa auf dem Jakobsweg nach Santiago de Compostela unverhofft unter Tausenden von Mitgehern findet. Sie alle wollen ans Ziel. Doch der Weg, der unter den spirituell Fortgeschrittenen das Ziel sein soll, bedarf nach wie vor des Gehens.
 
Zwei einander ergänzende Bücher

Zwei in der Diktion und im Zuschnitt sehr unterschiedliche, aber einander gut ergänzende Bücher skizzieren die Geschichte des Gehens wie die Geschichte seiner Erforschung im 19. Jahrhundert: Andreas Mayers «Wissenschaft vom Gehen» und Johann-Günther Königs «Geschichte des Gehens» unter dem lapidaren Titel «Zu Fuss». Mayer schildert eine historisch und epistemologisch versierte Geschichte der Wissenschaft vom Gehen. Dem gehenden Leser wie dem lesenden Geher mutet das stupend gelehrte Buch einige Anstrengungen zu. Nicht alles beispielsweise aus der Physiologie des Gehens ist heute so detailliert wissenswert, wie Mayer es behandelt. Lesenswert aber ist, wie sich der menschliche Körper für die «Gehwissenschaften» in eine sich fortbewegende Maschine verwandelt und die Knochen- und Gelenkmechanik zur neuen Universalwissenschaft wird.

Geradezu spannend zu lesen das grundlegende Eingangskapitel, das mit Spaziergängern, Fussreisenden und marschierenden und exerzierenden Soldaten die Konturen einer praktischen Wissenschaft vom Gehen zeichnet. Dieses Kapitel steht im Zeichen der Naturnähe Rousseaus. Des Philosophen «promeneur solitaire» wird eine Leitfigur der Epoche der Aufklärung. Das Gehen zu Fuss ist Rousseaus Art der Rückkehr zur Natur. Als Gegenbild der aristokratischen und bourgeoisen Fortbewegung in und mit der Kutsche hat es den Vorzug, in einer Welt der unmittelbaren Erfahrung zu sein, während die Insassen der Kutschen zwar bis zur Abenteuerlichkeit gefährlich leben, aber schon die Vorhut eines späteren rasenden Sich-nicht-selbst-Bewegens sind. Mayer gelingt es, über die Kutsche zu schreiben, ohne auch nur ein Wort an die späteren Automobile, diese Ruinen körpereigener Beweglichkeit, verschwenden zu müssen.

Johann-Günther Königs «Geschichte des Gehens» wiederum bietet eine Fülle historischer Informationen von den Anfängen der zu Fuss gehenden humanen Evolution bis zur Rückentwicklung körperlicher Mobilität in der Gegenwart. Der «aufrechte Gang» Ernst Blochs* bezeichnet das utopische Potenzial des Gehens. Johann Gottfried Seumes «Spaziergang nach Syrakus» mit 5000 Gehkilometern, Karl Philipp Moritz' Fussreisen in England und Italien, Friedrich Hölderlins Durchquerung des südwestlichen Frankreich: In den Lebensgeschichten der aufrechten Geher nach Rousseau wird der untrennbare Zusammenhang zwischen Gehen, Denken und Dichten, Körper- und Geistbewegung plastisch. Hier hätte man sich weitere philosophische und psychologische Vertiefungen gewünscht.
 
In freier Wildbahn

Königs Panorama mündet in eine Gegenwart, die zwar das wandernde, sportliche, spazierende, «nordisch walkende», pilgernde Gehen wiederentdeckt, aber keinen Zweifel daran lässt, wer in diesem Panoptikum die Priorität beansprucht. Trotz allen Versuchen seit der Französischen Revolution, gegen die Herrschaft der automobilen Kutschen eine «Republik der Fussgänger» zu etablieren, hat sich eine Verkehrsordnung etabliert, die den Fussgänger prinzipiell als «nachrangigen Verkehrsteilnehmer» definiert.

Wie nach dieser Regelung Verkehr und Mobilität aussehen, hat schon in den dreissiger Jahren des letzten Jahrhunderts ein Berliner Feuilleton von Sebastian Haffner über das «fragile Leben der Fussgänger» demonstriert: Der Fussgänger «hat gewisse Stellen zur Verfügung, an denen ihm Freiheit und Sicherheit zugesagt sind, nämlich die Bürgersteige und die bezeichnend genug benamsten ‹Rettungsinseln›. Sobald er, wie unvermeidlich, diese Schutzparks und Zufluchtsstätten verlässt, haben alle Ungetüme das Recht der freien Jagd auf ihn, die zermalmenden Autobusse, die sausenden Strassenbahnen, die rasenden Autos aller Grössen und Rassen, die Wolfsrudel der Radler, die raubvogelartig zustossenden Motorräder. Nicht genug, dass sie ihm nach dem Leben trachten, sie verwirren ihn noch zuvor und suchen ihn durch heulende, drohende, kreischende und bellende Kampfschreie um seine einzige Verteidigungswaffe, seinen Verstand, zu bringen. Sein Spiel scheint aussichtslos.» – So scheint es? So ist es!

Andreas Mayer: Wissenschaft vom Gehen. Die Erforschung der Bewegung im 19. Jahrhundert. S. Fischer, Frankfurt am Main 2013. 311 S., Fr. 29.90.

Johann-Günther König: Zu Fuss. Eine Geschichte des Gehens. Reclam, Stuttgart 2014. 239 S., Fr. 17.90
  

*) Den hat der schreckliche Schwadroneur bei Hegel in der Einleitung zur Phänomenologie des Geistes gefunden; das "Auf-eigenen-Füßen-Stehen" kam aber schon bei Fichte vor. JE

Donnerstag, 12. Juni 2014

Eine Fresse zum Reinhaun.

aus Die Presse, Wien, 10.06.2014 | 18:36 |                                                                                          dante-saw

Anthropologie:
Prügelten die Männer die Menschheit empor? 
Die massigen Gesichter unserer ganz frühen Ahnen wurden in einem Rüstungswettlauf entwickelt, vermutet ein US-Biologe: Erst kam die Faust zum Zuschlagen, dann wurde das bevorzugte Ziel verstärkt, das Gesicht.

Von Jürgen Langenbach

Waren die ersten Menschen friedliche und freundliche Gesellen, geistig nicht allzu rege allerdings auch, und wurden sie einander erst durch die Ursünde des Privateigentums zu Wölfen? Oder waren sie das von Anfang an und konnten nur unter der starken Hand einer zentralen Autorität halbwegs miteinander auskommen? Diese Differenz markierten Rousseau und Hobbes, sie war natürlich vor ihnen schon da und blieb es bis heute, Autokraten und Kolonialisten bedienten sich bei Hobbes, Egalitäre suchten Gegenmodelle zu den eigenen Gesellschaften bei edlen Wilden, die letzte große Runde lief Mitte des 20.Jahrhunderts, als Margarete Mead das Paradies in der Südsee sichtete, mit freier Sexualität obendrein etwa in Samoa. Mead war Ethnologin, aus der Zunft kam heftiger Widerspruch, die Erforschung fremder Völker ist anfällig für Projektionen.
 

Aber wie soll man sonst unsere Ursprünge erkunden, wenn nicht an denen, die noch näher an ihnen leben? Soll man etwa in den paar Knochen lesen, die sich erhalten haben seit den fünf, sechs Millionen Jahren, vor denen sich unsere Ahnen von denen der Schimpansen getrennt haben?

Wir, die „aggressiven Affen“

Ja, exakt dort soll man hinschauen, antwortet seit geraumer Zeit David Carrier, der Biologe ist (an der University of Utah) und sich auch als „Friedensforscher“ versteht. In seinen Augen sind die Menschen die „aggressiven Affen“ – mehr noch: die „gewalttätigsten Wirbeltiere auf unserem Planeten“ –, und sie sind es nicht erst heute, sie waren es von Beginn an: Die Menschheit hat sich hinaufgeprügelt bzw. ihr männlicher Teil* hat es getan.

Auf die Idee kam Carrier 2007, als ihm auffiel, dass die ersten, die aufrecht gehen konnten – die Australopithecinen –, relativ kurze Beine hatten und lange Arme. Diese Ahnen lebten vor etwa 4,2 Millionen Jahren, partiell noch auf den Bäumen, zeitweise stiegen sie herab und gingen herum, aber gut gehen konnten sie wohl nicht, die Beine waren einfach zu kurz. Dafür lag der Schwerpunkt des ganzen Körpers tief, und darin sah Carrier den Schlüssel für den Bauplan: Die Männer hätten miteinander gekämpft – um Frauen und Reviere –, und sie hätten es mit den Armen getan, zugeschlagen. Und wer getroffen war, konnte es um so besser auspendeln, je tiefer sein Schwerpunkt lag.





Dann ging es bei Carrier Schlag auf Schlag, zunächst führte er auch die Erfindung des aufrechten Gangs selbst auf die ewige Aggression zurück: Viele Tiere erheben sich zum Kämpfen bzw. Drohen auf zwei Beine, Katzen, Hunde, Bären, auch Menschenaffen tun es. Aber nur einer blieb auf Dauer aufrecht, weil er so oft kämpfte, und weil Schläge von oben nach unten viel kraftvoller ausfallen als in Gegenrichtung, Carrier hat das experimentell an Boxern gemessen.

Fäuste ballen können nur wir

Zugeschlagen wurde natürlich mit der Faust, aber diese selbst war alles andere als natürlich: Nur wir können die Hände so ballen, Menschenaffen können es nicht, das war Carriers nächster Streich. Und nun hat er sich endlich auch den Körperteil angesehen, auf den (heute) am häufigsten eingedroschen wird, das Gesicht. Dort sitzen 83 Prozent aller bei Schlägereien gebrochenen Knochen, und unter ihnen wieder rangieren ganz oben der Unterkiefer, die Nase, die Augenhöhle. 


Paranthropus boisei

Ausgerechnet dorthin packten die frühen Menschen die meisten Knochen und Muskeln. Das erklärt man für gewöhnlich mit der Ernährung: Die Australopithecinen hätten umgestellt von Früchten auf Nüsse, und einer ihrer Verwandten – Paranthropus bosei – hatte solche Kieferpakete, dass man ihn auch „Nussknacker“ nannte. Aber in den letzten Jahren zeigten Isotopenanalysen seiner Knochen, dass er überhaupt keine Nüsse verzehrte, sondern Gras und Rinde, die brauchen auch starke Kiefer, aber keine ganz so starken.


Schädelvergleich (von oben nach unten) Gemeiner Schimpanse (Pan troglodytes), Australopithecus afarensis, Paranthropus boisei, Homo erectus und sapiens

Ein ähnliches Bild zeigen die Australopithecinen selbst: Ihr Kauaparat war viel stärker als zum Kauen erforderlich (und als Waffen haben sie ihre Zähne wohl so wenig benutzt, wie wir das tun). Carrier fasst all das zur Hypothese von der „schützenden Verstärkung des menschlichen Gesichts“ zusammen, die erhebt keinen Alleinerklärungsanspruch für die Gesichter der frühen Menschen, aber sie hat ein schwerwiegendes Indiz auf ihrer Seite, das des Sexualdimorphismus: Männer und Frauen sind anders gebaut, früher war die Differenz noch viel größer, und die Männer waren im Gesicht dort viel stärker gerüstet, wo die Schläge hinhagelten und die Energie abgeführt werden musste, an den Augen, an der Nase, am Kiefer, vor allem an dem. Gegessen hingegen haben Männer und Frauen wohl das Gleiche (Biol. Rev. 9.6.).

Abstract
Biological Reviews: Protective buttressing of the hominin face

*Nota.

Darum sagt man heute noch der Mensch und nicht das Mensch.
JE








Dienstag, 10. Juni 2014

Zugreifen statt behalten.


 
aus Der Standard, Wien, 7 

Von Maschinen und Menschen
Viele junge Leute sind auf die Wirklichkeit nicht neugierig. Was an Wirklichkeit verbleibt, kann man ablichten und speichern. Ist das menschliche Gedächtnis überflüssig geworden?



 
Seit einigen Jahren stelle ich immer wieder fest, dass sich junge Menschen nicht erinnern können. Wenn ich sie frage, was sie am Wochenende gemacht haben, fällt ihnen nichts ein. Haben sie wirklich "nichts" getan, oder ist ihr Kurzzeitgedächtnis verkümmert? Wahrscheinlich haben sie im Internet gesurft, aber davon kann man nicht erzählen.

Frage ich nach Ereignissen in ihrer Kindheit, sind die Antworten meistens ebenso dürftig. Sicher, Zwanzigjährige haben anderes im Sinn, als Kindheitserinnerungen zu pflegen. Doch in Gesprächen über kürzlich gesehene Filme erhalte ich ebenso wenig Auskunft, "gut" oder "schlecht" ist alles, was ich erfahre, like und dislike. Über die Erinnerungsträgheit hinaus bemerke ich eine Unlust, sich mit Beschreibungen abzugeben, als verdiente die Wirklichkeit (oder die Fiktion eines Films) so viel Aufwand nicht. Die Wirklichkeit scheint gleichgültig geworden, eine belanglose, unvermeidliche Sache, und ebenso die Sprache, die einst erfunden wurde, damit die Menschen mit der Wirklichkeit umgehen, sie verstehen oder bannen, erhöhen oder verfluchen können.

Viele junge Leute sind auf die Wirklichkeit nicht neugierig. Sie bleiben in dem engen Kreis, der ihnen von jeher vertraut ist, wagen sich lieber nicht auf unsicheres Terrain. Ihre Gehirne verharren zufrieden bei Klischees und Stereotypen, die sie von irgendwoher, aus diversen Massenmedien, vermittelt bekommen haben. Für Klischeebilder braucht man keine Beschreibung, weil sie ohnedies jeder kennt. Man muss sich über sie nicht verständigen, es genügt, sie zu "liken". Was an Wirklichkeit trotz allem vorhanden bleibt, kann man ablichten - Handy, Smartphone oder Tablet speichern die Szene. Früher dienten solche Privatfotos der Erinnerung. Es gab nicht viele, deshalb behandelte man sie mit Sorgfalt, klebte sie in Fotoalben, ließ sich Kommentare einfallen.

Von den Millionen Fotos, die heute täglich gemacht werden, werden die meisten zwar gespeichert, aber nur kurz angesehen, ehe sie im Archiv verschwinden, dessen Symbol auf der computergrafischen Leiste gleich neben dem Mülleimer steht.
 
Die vergessene Volksheldin

Neulich sprach ich mit einer Gruppe von Studenten über japanische Volkshelden. Eine - übrigens begabte und lernfreudige - Studentin aus Okayama erwähnte die Astronautin Chiaki Mukai. Ich fragte sie, wie lange das Ereignis her sei. Antwort: "Keine Ahnung, das war lange vor meiner Geburt." Reflexhaft begann sie, auf der Tastatur ihres elektronischen Lexikons zu tippen, das mehrere Sprachwörterbücher und eine Sammlung von sogenanntem Weltwissen enthält. Ich bat die Studentin, nicht nach der Jahreszahl zu suchen. Danach ergriff ihre Nebenfrau das Wort, und während diese noch sprach, hellte sich das Gesicht der Studentin aus Okayama auf. Ich konnte förmlich sehen, wie sie sich erinnerte. Aber nicht nur das, ich sah die Verwunderung der Studentin über die Tatsache, dass sie sich jetzt erinnerte. Chiaki Mukai war 1994 mit einer US-amerikanischen Mission in den Weltraum geflogen. Die Studentin war sich deshalb so sicher, weil ihre 1994, zwei Jahre nach ihr selbst, geborene Schwester den Vornamen eben jener Volksheldin erhalten hatte. Um das schläfrig gewordene Erinnerungsvermögen zu aktivieren, brauchte es in diesem Fall nicht viel; es genügte, den Deckel des mobilen Wissenscomputers zu schließen. Dennoch: Sollten die Datensuchreflexe überhandnehmen, kann man sich vorstellen, dass das persönliche Erinnerungsvermögen noch mehr schwinden und schließlich verschwinden wird.
 
Interaktivität? Kreativität?

Letzten Sommer mussten wir einen halben Tag auf dem Flughafen in Istanbul verbringen, weil unsere Maschine überbucht war. Zufällig saß auf der Wartebank neben uns eine Familie mit drei Kindern, das kleinste ein Mädchen im Alter meiner siebenjährigen Tochter Mayuko, die anderen etwas größer. Die Familie kam aus dem Urlaub in Paris und war auf dem Weg nach Saudi-Arabien, ihrer Heimat. Die Kinder trugen teure Markenkleider, sprachen bestes Englisch, besuchten zu Hause eine englischsprachige Schule und hatten einen amerikanischen Hauslehrer. Das kleinere Mädchen spielte mit einem Tablet-Computer, für den sich Mayuko interessierte. Die saudische Familie zeigte sich sehr freundlich, die Kinder ließen Mayuko, die mit Videogames nicht vertraut ist, mitspielen und gingen auf ihren Wunsch ein, etwas anderes statt der immergleichen Verfolgungsjagden, die ihr bald langweilig wurden, auf den Bildschirm zu zaubern. Zusammen entschieden sie sich für ein Zeichenprogramm, mit dem man Bildelemente aussuchen und kombinieren, aber auch Striche ziehen und Flächen färben konnte. Das saudische Mädchen zog es vor, fertige Elemente anzuhäufen, Mayuko wollte lieber selber zeichnen. Zunächst bestaunten die drei Kinder die Kunst ihrer neuen Freundin, dann aber wies die Tablet-Besitzerin sie auf zusätzliche Funktionen hin, von denen es ihr besonders die Wisch-Funktion angetan hatte. Mit dieser wischte sie die Farben ineinander und überdeckte die Striche, die Mayuko gezogen hatte. Das gefiel der Künstlerin nicht, aber sie biss die Zähne zusammen, schließlich gehörte das Gerät nicht ihr. Sie forderte ihre Freundin auf, selbst etwas zu zeichnen. Das saudische Mädchen versuchte es, brachte aber bloß Kritzeleien zuwege, wie sie man von Drei- oder Vierjährigen kennt. Anscheinend besaß sie kein bildnerisches Vermögen, konnte aber den Computer in Windeseile bedienen und drückte oder wischte stets an den "richtigen" Stellen auf dem Tablet. Nach einer Weile gaben die beiden Mädchen das Zeichnen auf und widmeten sich einer Seite, wo man Puppen mit schicken Kleidern versehen konnte: eine Art Copy-and-paste, das lange vor dem Computerzeitalter unter Kindern beliebt war.
 
Surfen, Springen, Rasen

Eigentlich ist das Wort "surfen" ein Euphemismus. Der Nutzer von Computerprogrammen und besonders des Internets gleitet nicht auf einer Welle, sondern springt unablässig von einem Ort zum anderen. "Windowing" ist das passendere Wort (das deutsche "Fensterln" war leider schon anderweitig besetzt), man öffnet ein neues, ein neues, ein neues Fenster ... Die sogenannte Verweildauer ist kurz, oft nur eine Sekunde oder ein Bruchteil davon. Das Fenster öffnet sich auf einen Ort, womöglich eine ganze Welt, aber man verweilt eigentlich nie, man muss ja weiter, man sucht unablässig, das Finden tritt in den Hintergrund, und wenn man einmal etwas gefunden hat, vergisst man es wieder, man lässt es hinter sich zurück, gespeichert ist es sowieso "irgendwo", und auch die History ist gespeichert, meine Surf-Biografie, die sich in Sekundeneinheiten bemisst.

Hin und wieder hole ich mir bei den Jugendlichen meiner Verwandtschaft Rat in Computer- oder Internetangelegenheiten. Dabei erstaunt mich immer das rasende Tempo, mit dem sie die virtuellen Wege zurücklegen. Es erstaunt mich auch die Gleichzeitigkeit der Bewegung in verschiedene Richtungen, das Hantieren mit einer Vielzahl geöffneter Fenster. Würde man diese Bewegungen visualisieren, es käme ein chaotisches Liniengewirr zutage.

Manchmal geschieht es, dass ich hinter dem Rücken des Jungen stehenbleibe, wenn er zu seinem Videospiel zurückkehrt. Auch da ist das Tempo hoch, der Rahmen aber bleibt starr, die (computertechnisch) ausgemalte Szenerie wirkt oft beschaulich, und was mich am meisten erstaunt: Die Geschichten, die da vom Nutzer mitgestaltet werden, und die Art, wie sie erzählt werden, gleichen den Geschichten und der Machart der Romane des 19. Jahrhunderts, weniger vielleicht Balzac als den Abenteuerromanen von Alexandre Dumas. Das, was hinter der digitalen Raserei steckt, ist ziemlich alt.
 
Übersetzungsmaschinen

In Japan, wo ich mich die meiste Zeit des Jahres aufhalte, unterrichte ich Deutsch an einer Universität. So gut wie alle Studenten bringen ihre kleinen elektronischen Wörterbücher mit und öffnen sie reflexartig, wenn der Unterricht beginnt. Finger und Computer sind schnell, aber doch nie so schnell wie Zunge und Gehirn; eine flüssige Kommunikation in der Fremdsprache kommt bei Gebrauch der Geräte nie zustande, zumal die meisten Wörter mehrere Bedeutungen haben und die Erklärungen oft nicht auf Anhieb durchschaubar sind. Der Fluss der Wörter wird auf diese Weise nicht gefördert, sondern gestört. Vor allem aber: Wer sich auf das E-Wörterbuch verlässt, wird die Wörter nie in seinem Gedächtnis speichern, weil er darauf vertraut, dass sie ohnehin jederzeit im Computer verfügbar sind, und weil er viel zu beschäftigt mit der Technik ist, als dass ihm Zeit bliebe, sich das Gelesene einzuprägen.

Die Einzigen, die von der neuen Gewohnheit der E-Wörterbücher profitieren, sind die Firmen, die sie herstellen. Ich kenne einen Lehrer, der die Geräte in seinen Klassen verbietet. Ich tue das nicht, weil mir Verbote widerstreben, aber im Grunde hat der Kollege recht. Von echten Lernprozessen werden die Lernenden durch mobile E-Wörterbücher nur abgelenkt.

Einmal sollte ein Student ein Referat über die Stadt Salzburg halten. Er suchte im Internet drei oder vier Seiten in japanischer Sprache auf, vermutlich jene, die im Ranking der Suchmaschine auf den vordersten Plätzen (von einigen Millionen) standen. Da sein Deutsch schlecht ist, verfiel er auf die Idee, eine Übersetzungsmaschine zu bemühen, wofür nur wenige Tastaturberührungen notwendig sind. Als er das Ergebnis vortrug, brach ich sein Referat ab, weil es unmöglich war, dass die Zuhörenden irgendetwas verstanden, und versuchte dem Studenten zu erklären, weshalb die von ihm gewählte Methode inakzeptabel sei.

Ich hatte nicht den Eindruck, dass er meine Einwände verstand. Behalten wird er nur haben, dass "man das nicht tut". Sein Denkvermögen ist zu begrenzt, als dass er zu jenen gehören könnte, die meinen, die Übersetzungsmaschinen müssten nur noch etwas verbessert werden, damit sie einwandfrei zu gebrauchen seien. Ich sehe für die nächsten hundert Jahre diese Möglichkeit nicht als gegeben. Es wären dazu Maschinen nötig, die gewaltige Kontexte überblicken und beherrschen können und zu schöpferischem Agieren fähig sind.
 
Wissen aus der Dose

Was Studierende, und nicht nur sie, meistens verwenden, wenn sie zu einem Thema Informationen sammeln und gestalten sollen, ist Wikipedia. In Google kommt der jeweilige Wikipedia-Eintrag immer ganz oben. Die Rubrik der Enzyklopädie hat eine gewaltige Tiefe, tatsächlich aber tasten die allermeisten Nutzer das System nur an seiner Oberfläche ab (außerdem stellt sich die Frage, was sich in der Tiefe verbirgt - gewiss sehr viel Müll). Wikipedia könnte ein Segen für die Bildung der Menschheit sein, das Unternehmen eine Fortsetzung und Perfektionierung, zugleich aber auch Popularisierung dessen, was die französischen Aufklärer, die Enzyklopädisten um Jacques Diderot, einst im 18. Jahrhundert begannen, und tatsächlich stößt man im Internet auf zahllose Wikipedia-Artikel von hoher Qualität.

Dennoch dürfte Wikipedia wenig zur verstärkten Wissensbildung in der Gesellschaft beitragen, eher dazu, dass sich die Nutzer, die Konsumenten des Informationsangebots, unkritisch auf das Dargebotene verlassen und sich eigenen Nachforschens und Denkens enthalten. Solches lässt zumindest der Gebrauch vermuten, den man unter Studenten beobachten kann. Dass dem so ist, liegt weniger an der Qualität von Wikipedia, die ungleichmäßig ist, als an dem Medium, in dem diese Enzyklopädie gewachsen ist.

Hinzu kommt die heutzutage allgemein verbreitete Unfähigkeit, ja, der Unwille, die Herkunft von Informationen, aber auch von Erkenntnis- und Wertungsangeboten festzustellen. Was im Internet - nicht nur in Wikipedia! - steht, ist allemal gut, jedenfalls gut genug, um es in ein Referat, eine Bachelorarbeit, einen Facebook-Beitrag oder ein Posting einzubauen. Kein Wunder, dass Gerüchte und Verschwörungstheorien heute kräftiger blühen denn je. Und sie verbreiten sich, dank Internet, in Windeseile.

In den Siebzigerjahren des vergangenen Jahrhunderts diagnostizierte Pier Paolo Pasolini in seinen Freibeuterschriften eine "anthropologische Mutation", die aus dem von ihm emphatisch geliebten einfachen Volk Objekte kapitalistischer Werbung und Subjekte eines kulturindustriellen Konsumverhaltens machte. Zwar sah Pasolini die Ursachen der soziokulturellen Veränderungen nicht (wie jener österreichische Politiker, der das Wort von der "Umvolkung" aufgebracht hat) im Einschleusen von "fremdem Blut", aber auch er befürchtete, die Mutation könnte auf die genetische Substanz der Gesamtbevölkerung seines Landes übergreifen. Pasolini dramatisierte die Wirklichkeit; ein gelassener Beobachter würde einwenden, Umvolkung finde immer statt, warum sollte "das Volk" oder auch nur eine Bevölkerungsgruppe von nachhaltigen Änderungen verschont bleiben. Was Pasolini mit guten Gründen kritisierte, war die rapide Ausbreitung des Konsumkapitalismus in sämtlichen Gesellschaftsschichten.

Dieser Prozess wurde durch den technischen Fortschritt der globalen Digitalisierung und Vernetzung noch einmal beschleunigt und endgültig anthropologisch vertieft. Die Generationen, die mit Internet und Mobilcomputern aufwachsen, werden zwangsläufig zu pausenlosen Konsumenten von Daten, von virtuellen neben all den realen Gütern. Der allgegenwärtige und simultane Konsumismus entlastet vom Denken, macht kritische Distanznahme unnötig, höhlt das persönliche Gedächtnis aus und führt zu einer Vorherrschaft von Mainstreams, die man in einer anderen Epoche als Gleichschaltung bezeichnet hätte.

Im Unterschied zu jener Epoche werden Nischen und Randbezirke toleriert, oder genauer, sie werden ignoriert und spielen keine Rolle. Auch wenn der Befund, der Pasolinis Gedanken fortsetzt, düster scheinen mag: Aus eben jenen Nischen kommt das Neue, das sich der Möglichkeiten der globalen Digitalisierung bedient, zugleich aber an den alten anthropologischen Fundamenten festhält. Ob das dissidente Neue unter gegenwärtigen Bedingungen einen nennenswerten Einfluss auf den Mainstream gewinnen kann, ist fraglich.

Vergessen

Friedrich Nietzsche, der seine Laufbahn als Historiker des griechischen Altertums begann, schrieb eine Abhandlung über den Nutzen und Nachteil der Historie für das Leben. Das individuelle wie auch das kollektive Gedächtnis, so lautet seine These, werde in bestimmten Phasen der Entwicklung hypertroph und beginne, das Leben einzuschränken, am Ende sogar zu vernichten. Es komme aber darauf an, schöpferisch zu sein und etwas Neues zu schaffen. Zu diesem Zweck sei es immer wieder nötig, sich vom Überlieferten und, genereller, von der Last des Denkens frei zu machen. Erinnern und Vergessen, beides hängt in der prädigitalen Kultur aufs Engste zusammen.

Die übergroße, ungeordnete, vom Subjekt - dem Verbraucher - nicht mehr differenzierbare und insofern gleichgültige Datenmenge kann zwar zur Unterhaltung dienen, zum sogenannten Infotainment, wo man Beliebiges und Beliebtes auswählt, doch sie steht jenseits der von Nietzsche herausgearbeiteten Dialektik. Die Erinnerungsschwachen haben nichts zu vergessen. Wenn die Gehirne den digitalen Medien endgültig angepasst worden sind, erübrigt sich nicht nur das Erinnerungsvermögen, sondern auch die Fähigkeit des Vergessens, es kommt zu einer simultanen Dauerpräsenz von gleichgültigen Dingen und einer subjektiven Trance, die gewissen, in der Geschichte oftmals gepriesenen Erlösungszuständen ähnelt.

Ich im Fenster

Die junge Frau, der ich gestern im Zug über die Schulter geschaut habe, mit dem vielfenstrigen E-Tablett unter den flinken Fingern und goldenen Kopfhörern in den Ohren, schien sie nicht glücklich? Von Zeit zu Zeit berührte sie einen Punkt rechts oben im Rechteck, und was erschien auf dem Bildschirm? Ihr eigenes Gesicht. Sie strich sich eine Braue zurecht, lächelte zufrieden, berührte nochmals den Punkt und verschwand in einem anderen Fenster.
 

Leopold Federmair, geb. in OÖ, ist Schriftsteller und Übersetzer, außerdem unterrichtet er Deutsch an der Universität Hiroshima. Zuletzt erschienene Bücher: "Das rote Sofa" (Otto Müller); "Die großen und die kleinen Brüder. Japanische Betrachtungen" (Klever). Im August erscheint sein neuer Roman "Wandlungen des Prinzen Genji".