Dominante Raben stören soziale Beziehungen ihrer KonkurrentenForscher fanden heraus, wie Tiere durch gezielte Aktionen ihre Machtposition abzusichern versuchen
Wien
- Dass Raben außerordentlich intelligent sind, ist mittlerweile längst
bekannt. Diesen Rückschluss lässt auch ihr Sozialverhalten zu: Die Tiere schließen sich häufig zu Gruppen zusammen, in denen sie um Machtverhältnisse konkurrieren. Wer gute soziale Beziehungen und Allianzen besitzt, führt die Gruppe an.
Doch
die Konkurrenz schläft nicht, daher Versuchen Anführer offenbar, ihre
Machtpositionen auch für die Zukunft abzusichern: Kognitionsbiologen der
Universität Wien und der Konrad Lorenz Forschungsstelle Grünau konnten
nun zeigen, dass Raben strategisch in die Beziehung anderer einzugreifen versuchen, indem sie diese immer wieder bei soziopositiven Interaktionen stören. Thomas
Bugnyar und sein Team untersuchen das Sozialverhalten wildlebender
Kolkraben in den österreichischen Alpen bereits seit Jahren. Sie
beobachteten, dass bestimmte Vögel durch gegenseitiges Kraulen
Beziehungen knüpfen, die auch als Allianzen in Konflikten fungieren. Sie
fanden aber auch heraus, dass freundliches Kraulen zweier Raben immer
wieder von anderen Raben gestört wurde. Obwohl in etwa der Hälfte der
Fälle so die freundliche Interaktion beendet werden konnten, kam es
auch immer wieder dazu, dass der Angreifer gewaltsam vertrieben wurde.
Nichts dem Zufall überlassen
Es
ist daher nicht verwunderlich, dass die Interventionen alles andere
als zufällig abliefen: Vor allem jene Raben, die bereits über gute Beziehungen verfügten, mischten sich bei anderen ein und zielten dabei auf jene Raben ab, die gerade dabei waren, eine neue Beziehung
zu etablieren. "Weil gut in die Gruppe eingebundene Raben soziale
Macht haben, können sie sich solche riskanten Manöver leisten", erklärt
der Erstautor der Studie, Jorg Massen. "Dabei greifen sie gezielt bei
jenen Vögeln ein, die gerade dabei sind, eine neue Allianz zu festigen
und somit eine mögliche Konkurrenz werden könnten."
Massen
streicht aber heraus, dass zum Zeitpunkt der Interventionen die
betroffenen Vögel noch keine unmittelbare Gefahr für das Machtgefüge der
sich Einmischenden darstellen. Es sehe ganz danach aus, als ob Raben
ständig die Beziehungen anderer beobachteten und wüssten, wann es zu
handeln gelte, um mögliche zukünftige Probleme zu verhindern. Sie
agieren nicht gleich bei jedem 'Flirt', aber warten auch nicht, bis es
zu spät ist." Ein derartiges Vorgehen sei bis jetzt noch bei keiner
Tierart beschrieben worden, so der Forscher. (red)
Abstract Current Biology: "Ravens intervene in others’ bonding attempts. Current Biology" Nota. - Das ist Planen in einer weit erheblicheren Art als das abendliche Vorbereiten des Frühstücks für den nächsten Morgen; das ist strategisches Verhalten. Und es geschieht offenbar nicht blindlings jederzeit, sondern erst, 'wenn es geraten ist'; also nicht 'konditioniert', sondern absichtsvoll. Man möchte meinen, das verlangt eine höhere Gewärtigkeit als bloß Entscheiden nach dem Ausschluss- prinzip. Letzteres kommt uns nur intelligenter vor, weil es an unser logisch-begriffliches Denken gemahnt und unmittelbar an die Fähigkeit zum Symbolisieren zu grenzen scheint: 'algorithmischer' ist. Das strategische Verhalten der Kolkraben ist zwar anschaulicher, aber auch weitsichtiger und komplexer. JE Ja ja, das da oben auf dem Foto sind Krähen. Doch die sind eben auch nicht dumm.
Big
Data bringe nicht das allmächtige Wissen, das es verspricht, sagt der
Medientheoretiker Ramón Reichert - Während wenige große Player über die
Daten wachen, bleibe die Forschung auf der Strecke
Interview | Karin Krichmayr
STANDARD:Zwei
Beispiele für jüngste Meldungen zum Stichwort Big Data: "Neue
Vorhersagemethode warnt vor extremen Fluten" und "Finanz will auf Strafregister zugreifen". Bringt Big Data nun die lückenlose Berechnung der Welt? Oder noch mehr Überwachung?
Reichert: Der Medienhype um Big Data hat der datenbasierten Wissenschaft
ein allmächtiges Wissen zugeschrieben, im negativen wie im positiven
Sinn. Man muss aber unterscheiden, auf welche Daten zurückgegriffen
wird. Es gibt transaktionale Daten, die entstehen, wenn man sich in
Netzwerke einloggt, Cookies herunterlädt, Bankdaten und Kundennummern
hinterlässt. Diese digitalen Spuren kann man auf gewisse Weise schon
objektivieren. Nutzergenerierte Inhalte wie Social-Media-Profile
hingegen verhalten sich widerspenstiger. Das Objektivitätspostulat von
Big Data trifft hier nicht zu. Wir sind noch nicht am "Ende des Zufalls"
angelangt, von dem etwa Rudolf Klausnitzer in seinem Buch zu Big Data
spricht.
Warum eignen sich nutzergenerierte Daten nicht für Big-Data-Analysen?
Sie
lassen sich nicht so vereinheitlichen wie transaktionale Daten. Ein
Beispiel: Bei Flickr lagern Millionen von Fotografien. Jetzt wird
versucht, diese riesigen Datenbestände zu katalogisieren, nach
bestimmten Kriterien zu ordnen. Doch diese Daten folgen chaotischen
Strukturen des Taggings, des Beschlagwortens von Bildern. Das nennt man
"Folksonomies" - ein Mischwort aus Folk und Taxonomie. Das heißt, es
gibt keine taxonomisch eindeutige Klassifizierung.
Soziale Plattformen dienen heute dennoch als riesige Datenquellen für Trendanalysen. Inwiefern sind die Ergebnisse valide?
Die großen Plattformen im Web 2.0 sind heute im Grunde soziologische
Beobachtungsanordnungen, wo es darum geht, über große Usercluster
Verhaltensprognosen zu erstellen. Im US-Wahlkampf wurden zum Beispiel
Big-Data-Analysen auf Twitter und Facebook durchgeführt. Zunächst sucht
ein automatisches Texterkennungsverfahrennach Keywords wie Obama. Darauf kann eine Sentiment-Analyse aufbauen, die automatisiert
untersucht, wie die User ihr Verhältnis zu den Spitzenkandidaten
bewerten. Dazu werden beispielsweise Emoticons wie Smileys ausgewertet.
Mit derartigen Forschungsmethoden werden Kontexte sehr vereinfacht -
was zu Unschärfen in der automatischen Datenerhebung führt.
In
dem von Ihnen herausgegebenen Buch "Big Data" haben Sie sich mit
Stimmungsanalysen unter Facebook-Usern auseinandergesetzt. Was ist Ihre
Schlussfolgerung?
Wenn es um
Trendanalysen und Prognosemodelle geht, dann ist Facebook eine der
wichtigsten Adressen geworden. Facebook wertet in seinem "Happiness
Index" kollektive Glücksfaktoren aus und macht Aussagen über
gesellschaftliche Wandlungsprozesse. Ich schließe daraus, dass Facebook
das Erbe der analogen Meinungsforschung
angetreten hat. Im Unterschied zu früher gibt es hier keinen
Face-to-Face-Kontakt, keine Einwilligung mehr. Dazu kommt, dass das
kein Wissen ist, das man verlässlich modellieren kann. Ein bekanntes
Beispiel ist das Projekt Google Flu Trends, das angetreten ist,
aufgrund der Suchanfragen die geografische Ausbreitung von
Grippeepidemien vorhersagen zu können. Das ist fehlgeschlagen, die
Prognosen waren stark überhöht. Wir sind noch nicht auf dem Stand zu
sagen: Der Zufall ist aufgelöst, wir sind restlos berechenbar.
Also ist Big Data nicht mehr als ein großer Hype?
Big Data stößt auf mehreren Ebenen an seine Grenzen, bei der Software
wie bei der Hardware. Studien zeigen, dass im Bereich der
Social-Media-Research erst ein Prozent aller Daten bearbeitet werden
kann. Es fehlt an Datenspeichern und Personal.
Aber die NSA ist ja offenbar in der Lage dazu, flächendeckend Daten abzugrasen.
Die NSA hat die Ressourcen. Im Bereich der Hardware gibt es ein
enormes Machtgefälle. Geheimdienste und wenige Unternehmen haben heute
ein Monopol auf die Datenauswertung. Es stehen auf der Welt ganz wenige
Supercomputer, die in der Lage sind, die Handygespräche von einem Jahr
zu speichern. Im Sinne der Netzwerkanalyse wird dann untersucht, wer
mit wem kommuniziert und bestimmte Keywords wie "Jihad" nutzt. Eine
Rasterfahndung mit simplen Keywords zu betreiben setzt voraus, dass
Terror und Kriminalität Teil der Alltagskommunikation sind. Diese
Sichtweise führt dazu, dass die Datenkontrolle auf die gesamte
Zivilgesellschaft ausstrahlt.
Gibt es nicht auch ein Potenzial für die Wissenschaft, sich dieser Daten zu bedienen?
Nur bedingt. Man muss wissen, wie man zu diesen Daten kommt. Die
Plattformen können ihre Schnittstellen auf- und abdrehen wie einen
Wasserhahn. Dann kann man sich andocken an den Big-Data-Strom. Twitter
bietet eine kostenlose Schnittstelle an. Man kann aber nur ein Prozent
der Tweets alle 15 Minuten abschöpfen. Nur wenn man die kostenpflichtige
Schnittstelle nutzt, hat man unbegrenzten Zugang, das können sich aber
nur kapitalintensive Unternehmen leisten.
Wie können Forscher dann die sozialen Medien für sich nutzen?
Eine wichtige Dimension ist, dass die Wissenschaft selbst in die
Social Media geht, um sich kollaborativ zu vernetzen und Wissen
zirkulieren zu lassen. So kann sie die kollektive Energie der Community
und des Laienpublikums nutzen, auch um die eigene wissenschaftliche
Arbeit effektiver zu hinterfragen. Das passiert schon jetzt in Ansätzen.
Könnte die Wissenschaft in solchen Spielräumen einen Gegenpol zu den großen Playern bilden?
Die Frage ist, ob es die Wissenschaft schafft, sich von kommerziellen
Netzwerkbetreibern loszulösen und eigene, lokale oder kommunale
Alternativen zu etablieren.
Sollte
Programmieren als neue Kulturtechnik gelten bzw. als Fremdsprache
gelehrt werden, wie das der deutsche Wirtschaftsminister Sigmar Gabriel
vorgeschlagen hat?
Absolut. Das wäre
eine große Ermächtigung der User und würde die Datensensibilität
wesentlich stärken.
Ramón Reichert,
geb. 1966 in Graz, war von 2009 bis 2013 Professor für Neue Medien am
Institut für Theater-, Film- und Medienwissenschaften der Uni Wien. Seit
2014 ist er Leiter der postgradualen Masterstudiengänge "Data Studies"
und "Cross Media" an der Donau-Uni Krems. Kürzlich hat er "Big Data.
Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie"
(Transcript) herausgegeben. Reichert diskutiert heute, Mittwoch, beim
Ernst-Mach-Forum der ÖAW zum Thema "Big Data. Wie kommt Sinn in die
großen Zahlen?"
Ein Nobelpreisträger über seine Forschung «Es ist wichtig, anders als andere zu denken» Edvard
und May-Britt Moser entdeckten in der Mitte des Gehirns Zellen, die die
Orientierung ermöglichen. Für die Entdeckung dieses «inneren
GPS-Systems» wird ihnen und einem Kollegen am 10. Dezember der
Nobelpreis überreicht.
Interview: Fabienne Hübener Grob geschätzt, wie viele Interviews haben Sie seit der Bekanntgabe des Nobelpreises gegeben, Herr Moser?
In
den ersten Tagen folgte ein Interview auf das andere, 15 bis 20
täglich, manchmal mehrere gleichzeitig. Das war schon verrückt. Im
Moment, mehr als zwei Wochen nach der Bekanntgabe, sind es immer noch
zwei bis drei pro Tag. Ich geniesse die Anerkennung, aber wenn das so
weiterginge, käme ich zu nichts anderem mehr.
Sie,
Ihre Frau May-Britt Moser und John O'Keefe erhalten den Nobelpreis für
die Entdeckung von Orientierungszellen im Gehirn. Was ist das Besondere
an diesen Zellen?
Vor uns untersuchten
Forscher vor allem Funktionen im Gehirn, die nicht allzu weit vom
Eingang der Sinnessysteme entfernt liegen. Wir sind jedoch tiefer, bis
in die Mitte des Gehirns vorgestossen und entdeckten dort Zellen, die
ein Merkmal der Aussenwelt abbilden. Diese Zellen kreieren eine Karte,
mit deren Hilfe Tiere und Menschen im Raum navigieren können. Damit
haben wir ein Fenster aufgestossen, um tiefer liegende
Verarbeitungsprozesse im Gehirn zu verstehen.
Warum suchten Sie in der Mitte des Gehirns?
John
O'Keefe hatte dort 1971 im Experiment mit Ratten interessante Zellen
entdeckt, und wir wollten dieser Spur weiter nachgehen. Eigentlich war
er auf der Suche nach Grundlagen des Gedächtnisses, doch mehr oder
weniger zufällig fand er Zellen, die nur dann aktiv werden, wenn sich
ein Tier an einem bestimmten Ort aufhält. Je nach Aufenthaltsort der
Ratte im Raum sind unterschiedliche Zellen aktiv. Zusammen ergibt diese
Aktivität eine Karte, die zeigt, wo sich ein Tier oder Mensch gerade
befindet. Würde man die Daten in ein Computerprogramm einspeisen, könnte
es anhand der Aktivität berechnen, wo sich die Ratte aufgehalten hat.
May-Britt und ich wollten wissen, woher diese Ortszellen ihre
Informationen erhalten. Es lag nahe, eine Stufe davor zu suchen. Die
Ortszellen liegen im Hippocampus, einer älteren und am Boden des
Schläfenlappens gelegenen Struktur. Wir suchten in der sogenannten
entorhinalen Hirnrinde. Sie liegt zwischen Hippocampus und
Grosshirnrinde. Bis dahin hatte dort noch niemand Nervenzellaktivität
untersucht.
Sie haben die Elektroden auf gut Glück in dieses Hirngebiet eingeführt?
Nein,
gemeinsam mit einem Neuroanatomen suchten wir nach dem optimalen Ort,
um Nervenzellaktivität zu messen. Wir wussten also, wo wir ungefähr
suchen mussten. Trotzdem war es ein Stück weit ein Glücksspiel, und es
hätte auch anders enden können. Doch fanden wir in der entorhinalen
Hirnrinde ebenfalls Zellen, die feuern, wenn ein Tier an einem
bestimmten Ort ist. Aber im Gegensatz zu den Ortszellen feuert jede
dieser Zellen nicht nur an einem Ort, sondern an mehreren, und diese
Orte formen ein strenges hexagonales Muster. Daher nannten wir die
gefundenen Zellen Rasterzellen. Das Raster enthält Informationen über
die Position des Tieres im Raum. Es entspricht etwa einem
Koordinatensystem oder einem Rasterpapier eines Bauplans. Rasterzellen,
Ortszellen und einige weitere Zelltypen bilden eine Karte der Aussenwelt
in der Tiefe unseres Gehirns, mit der wir uns im Raum zurechtfinden.
Das Interessante dabei: Das hexagonale Muster, welches durch das
Aktivitätsfeld der Rasterzellen aufgespannt wird, entsteht nicht durch
ein entsprechendes Muster der Aussenwelt. Es ist eine Eigenkreation des
Gehirns.
...
Zurück zum Gegenstand ihrer Forschung: Woher bekommen die Rasterzellen Informationen über den Aufenthaltsort des Tieres?
Das
Muster des Rasters wird vom Gehirn selbst gebildet, doch benötigt es
eine Aktualisierung von aussen. Die wichtigste Information stammt von
unserer eigenen Bewegung. Wenn wir uns bewegen, senden unsere Muskeln
Signale an das Gehirn. Dadurch erkennt das Gehirn, wie schnell wir sind
und in welche Richtung es geht.
Sieht das Raster bei Tieren, die fliegen können, anders aus?
Kollegen
in Israel untersuchen Orts- und Rasterzellen bei Fledermäusen. Krabbeln
die Tiere, finden sie das bekannte Raster. Bei fliegenden Tieren
generieren die Ortszellen ein kugelförmiges Feld. Wie sich die
Rasterzellen im Flug verhalten, wird gerade untersucht.
Arbeiten auch andere Forscher in der «Mitte des Gehirns»?
Das
Orientierungssystem ist zurzeit eines der wichtigsten Fenster in die
inneren Gebiete des Gehirns, es ist aber nicht das einzige. Inzwischen
beschäftigen sich Wissenschafter mit der Gehirnmitte, um höhere
kognitive Leistungen des Gehirns zu untersuchen. Sie fragen etwa: Wie
planen wir? Wie treffen wir Entscheidungen?
Welche Rolle spielen mathematische Modelle für Ihre Forschung?
Computational
Neuroscience, also die computerbasierte Neurowissenschaft, hat in den
letzten zwanzig Jahren enorm an Bedeutung gewonnen. Mathematische
Modelle können die im Experiment gewonnenen Daten zusammenfügen und
erlauben es, Vorhersagen zu treffen, wie sich ein Tier in einem weiteren
Experiment verhalten wird. Wir überprüfen dann die Vorhersage im Labor
und verfeinern mithilfe der Ergebnisse das Modell. Es ist ein Kreislauf,
der uns ermöglicht, schneller und präziser zu Aussagen zu kommen. Das
spart Zeit und Tierversuche.
Auch das
Human Brain Project setzt auf Datenverarbeitung und Modellierung. Sie
und Kollegen haben das Projekt jedoch in einem offenen Brief kritisiert.
Im
Human Brain Project geht es vor allem um die Akkumulation von Daten,
weniger um deren Verarbeitung. Das ist also ein anderer Ansatz, als wir
ihn verfolgen. Interessanterweise hat die Mehrzahl der europäischen
Forscher aus dem Bereich der computerbasierten Neurowissenschaft den
Brief mit unterzeichnet.
Was ist Ihr nächster Schritt?
Wir
wollen verstehen, wie das ganze Orientierungssystem zusammenhängt.
Dafür müssen wir uns die Aktivität von vielen Tausenden Zellen
gleichzeitig anschauen. Bis anhin kommen wir auf einige hundert Zellen.
Mein Traumexperiment wäre, die Aktivität aller Zellen im
Orientierungs-Schaltkreis gleichzeitig zu messen, während ein Tier von A
nach B läuft. Anschliessend würden wir gezielt einzelne Zellen an- und
ausschalten, um zu sehen, welche Konsequenzen dies auf das Verhalten des
Tieres hat. Auf diese Art könnten wir den gesamten Schaltkreis
verstehen. Die Techniken dazu stehen bereit. Indem man etwa
lichtempfindliche Gene in Nervenzellen einschleust, wir nennen das
Optogenetik, lässt sich die Aktivität der Nervenzellen an- und
ausschalten. Die schwierige Denkarbeit beginnt, wenn uns die Menge an
Informationen vorliegt. Dann müssen wir sinnvolle Ideen daraus
generieren.
Um die Rasterzellen und ihr
spezielles Aktivitätsmuster zu finden, waren viele kreative Schritte
nötig. So entdeckten Sie beispielsweise das hexagonale Muster erst, als
Sie die Test-Arena der Ratten vergrösserten. Was ist das Wichtigste,
damit bahnbrechende Forschung gelingt?
Es
ist sehr wichtig, anders als andere zu denken und Teile anders
zusammenzusetzen, als es Vorgänger getan haben. Sicher, man muss auch
hart arbeiten. Aber ich glaube nicht, dass man mehr erreicht, je mehr
Zeit man abends im Labor verbringt. Du arbeitest, bis du denkst, dass es
genug ist. Glück spielt auch eine Rolle. Viele Entdeckungen geschehen
unerwartet. Allerdings muss man eine solche Entdeckung dann auch als
etwas Besonderes erkennen können und etwas aus ihr machen. Dazu gehören
eine gute Beobachtungsgabe und ein flexibler Geist.
Was machen Sie, wenn Sie nicht im Labor sind?
Ich
gehe meist einmal in der Woche Bergwandern. Wenn ich weiter weg bin,
klettere ich auch gerne auf Vulkane. Die Abende verbringe ich schon mal
bei einem Jazzkonzert in Trondheim.
Nota. - Zunächst einmal: "Es ist wichtig, anders als andere zu denken" - nämlich wenn bahnbrechende Entdeckungengelingen sollen. Für den Alltag auch eines Wissenschaftlers ist es ansonsten ratsam, es immer zuerst einmal mit den Methoden und Instrumenten zu versuchen, die sich bislang bewährt haben. Wenn man das lange genug geübt hat und dann an einem Punkt überhaupt nicht mehr weiterkommt - dann, ja dann muss man "anders als die andern" vorgehen. Zur Sache: Dass es uns nicht freisteht, ob wir die Wirklichkeit, die uns umgibt, in den Modi von Raum und Zeit wahrnehmen, wurde nie bezweifelt. Dass es sich dabei aber um eine 'apriorische' Weichenstellung handele, die durch die Organisation unseres Wahrnehmungsapparats vorgegeben ist, hat vor über zweihundert Jahren für Aufregung gesorgt. Nun wissen wir: Es gibt eine 'Stelle' im Gehirn, die dafür sorgt, dass die dort ankommenden Sinnesdaten räumlich interpretiert werden. Das wird wohl eine evolutionäre Anpassung des Gehirns an die vorgefundenen Lebensumstände gewesen sein. Es könnte daher immer noch so sein, dass die Welt selber "in Raum und Zeit zerfällt". Dem steht freilich die relativistische Auffassung vom Raum-Zeit-Kontinuum entgegen. Es muss also erklärt werden, warum in unserer Wahrnehmung das Kontinuum trotzdem in zwei Dimensionen "zerfällt". Es musste; nun ist es passiert. Nicht in Einsteins gekrümmtem Universum, aber in jener Mesosphäre, in der das Leben sich entwickelt hat, war es anscheinend vorteilhaft, die wirklichen Bewegungen so aufzufassen, als ob sie aus zwei 'Faktoren' zusammengesetzt wären. JE
Die Evolution der Intelligenz hängt daran, dass in die Zukunft gedacht wird, wann und wo es Futter gibt.
Von Jürgen Langenbach
Nicht jeder kann am
Morgen, noch im Halbschlaf, den immer gleichen Weg zur Nahrungsquelle
schlurfen und in den auch immer gleichen Ritualen des Frühstücks in den
Tag gleiten. Das ist unser Privileg, auch das unserer Haus-, Nutz- und
Zootiere, in der Natur sieht es anders aus, dort ist der Tisch
nicht immer gedeckt, zumindest nicht ausreichend, dort müssen alle
Sinne offen gehalten werden, gegenüber Lockungen, Drohungen, Konkurrenz.
All das muss das Gehirn verrechnen, das hat Katherine Milton (Berkeley)
vor 30 Jahren zu einer Hypothese über die Evolution der Intelligenz
geführt, sie hieß zunächst „ecological intelligence“.
Inzwischen hat sie Namen und Ausformungen ohne Ende, im Kern geht es
darum, dass ein Tier erstens wissen muss, wo es Nahrung findet, und
zweitens, wie es diese Nahrung erschließt, öffnet etc. Dann kam
Konkurrenz, die Hypothese der „social intelligence“ setzte darauf, dass
die Anforderungen des Gemeinschaftslebens das Gehirn verfeinern. Das
setzte sich durch, wurde aber in der letzten Zeit dahin relativiert,
dass soziale Intelligenz auf das Sozialleben beschränkt ist und nichts
etwa damit zu tun hat, wo man eine Nuss findet und wie man sie knackt.
Hier
kam die ökologische Intelligenz zurück, lange auf den Raum beschränkt,
aber nun hat Karline Janmaat (MPI Evolutionäre Anthropologie, Leipzig)
auch die Zeit integriert: Tiere, die im Regenwald
hinter Früchten her sind, müssen nicht nur wissen, wo die Bäume stehen,
sondern auch, wann sie tragen. Vor dieser Herausforderung stehen etwa
Schimpansen im Tai-Nationalpark der Elfenbeinküste, vor allem die
Weibchen mit Jungen stehen davor. Janmaat hat fünf über 275 Tage exakt
beobachtet, in der Zeit nahm das Futterangebot drei Mal zu und ab, vor
allem das einer höchst begehrten, aber immer nur ganz kurz zur Verfügung
stehenden Frucht, der des Feigenbaums.
Ist ein erreichbarer reif,
stehen die Schimpansinnen früh auf aus den Nestern, die sie jeden Abend
hoch oben in Bäumen anlegen. Dann sind sie vor Sonnenaufgang unterwegs,
der Dunkelheit und ihren Gefahren zum Trotz – um die Zeit jagen
Leoparden –, sie wissen, dass die Konkurrenz groß ist. Aber woher wissen
sie, wann sie wohin müssen? Sie riechen die Feigen nicht, sie sehen sie
nicht, beides kann Janmaat ausschließen, es hängt alles am Gedächtnis
der Mütter, die schon einmal an den Bäumen waren. Aber warum gehen sie
die Risken ein, warum bauen sie die Nester nicht direkt neben den
Feigen? Weil beim Nestbau viel berücksichtigt werden muss, nur wenige
Bäume bieten eine optimale Architektur der Äste etc.
Der Mensch bedroht die Affenklugheit
Immerhin, die Nester werden an Wegen zu Feigenbäumen hin angelegt
(Pnas, 27. 10.). „Unsere Studie ist die erste, die zeigt, wie eine
zukunftsorientierte kognitive Fähigkeit bei Nahrungsknappheit und hoher
Konkurrenz benutzt wird“, schließt Janmaat. Ihre Studie könnte auch eine
der letzten dieser Art sein: Sabine Crief (Patris) hat an den Rändern
eines Nationalparks in Uganda bemerkt, dass Schimpansen bei der
Futtersuche zunehmend in die Nacht ausweichen, weil ihnen Menschen mit
ihren Aktivitäten bei Tag zu eng auf den Hals rücken (PLoS One, 22.
10.).
Nota.
Bevor die Wissenschaften im Blick auf die Drittmittel marktschreierisch wurden, hätte man in herkömmlicher und prosaischer Weise von ökonomischer Klugheit gesprochen: Ressourcen erschließen, den Hunger vorhersehen, Zeit sparen und der Konkurrenz zuvorkommen: was ist daran "ökologisch"? Es ist wirtschaften im strengsten Sinn. Aber wie klingt das heut in dieser unseren Zeit: "wirtschaftliche Klugheit"! Da kriegen alle Menschen guten Willens ja ein Gänsehaut.
Doch die Menschen haben wohl, seit sie von ihren Bäumen in die Savanne hinabstiegen, stets Ressourcen gemeinsam erschlossen, den Hunger gemeinsam vorhergesehen, Zeit durch Kooperation gespart und sich der Konkurrenz in Gruppen erwehrt. Da ist ökonomisch Intelligenz zugleich soziale Intelligenz, und umgekehrt. Insofern sind die Schimpansen für uns kein Modell.
Darum kann die Frage der Verteilung bei ihnen auch nicht zur Triebkraft des gesellschaftlichen Fortschritts werden. JE
Können
Krähen logisch überlegen? Eine Wiener Verhaltensbiologin geht dieser
Frage nach, indem sie die Vögel vor ein Touchscreen setzt und ihnen
Aufgaben stellt
von Kurt de Swaaf
Grünau - Walter will nicht. Das Tier steht
an der Tür, schaut immer wieder misstrauisch zu dem fremden Besucher
herüber und schimpft laut krächzend. Ja, er beschwert sich, meint
Theresa Rößler. Alles Neue sei ihm grundsätzlich suspekt. Das wird heute
anscheinend nichts mehr mit dem Test. Zumindest nicht, solange dieser
Mann da ist. Ein Jammer.
Walter ist eine Aaskrähe, zoologisch
Corvus corone, und Rößler Studentin der Universität Wien, die zurzeit an
der Konrad-Lorenz-Forschungsstelle (KLF) in Grünau für ihre
Masterarbeit im Bereich Verhaltensbiologie gastiert. Ihr Interesse gilt
den kognitiven Fähigkeiten der schwarzen Vögel. Dabei geht es um
grundsätzliche Logik.
Können die Tiere nach dem Ausschlussprinzip vorgehen und so zielstrebig Entscheidungen treffen?
Welche Informationen benötigen sie dazu? Um diese Fragen zu klären,
führt Rößler mit fünf in einer Voliere lebenden Krähen Experimente
durch. Deren Behausung steht im benachbarten Cumberland-Wildpark.
Zweimal täglich treten die geflügelten Studienteilnehmer vor einem Computer mit Touchscreen
an und bekommen dort verschiedene Symbole zur Auswahl vorgesetzt. Wenn
sie das richtige anpicken, gibt's jedes Mal eine kleine Leckerei. Aber
Walter will jetzt nicht, und seine Artgenossin Bärbel traut sich erst
gar nicht an die Tür, so viel Angst hat sie.
Doch dann hat Theresa
Rößler eine Idee. Im Inneren des Voliere-Gebäudes steht ein Käfig leer.
Wenn der Zuschauer hinter dessen Gitter gehen würde und sie den Eingang
abschließt, könnte es vielleicht klappen. Krähen verstehen nämlich das
Konzept des Einsperrens, erklärt die Nachwuchsforscherin.
Gesagt,
getan. Rößler macht demonstrativ das Vorhängeschloss zu, der Fremde
sitzt gefangen. Und das ändert offenbar alles. Walter hat den Vorgang
aufmerksam beobachtet. Er legt den Kopf schräg, schaut sich den
Eingesperrten noch einmal genau an, und stapft anschließend mit
erhobenem Haupt an ihm vorbei. Auf zum Rechner.
Symbole picken
Ab diesem Moment verläuft alles nach Plan. Der Vogel hüpft auf den Sitzstock vor dem Touchscreen und legt los. Das Programm zeigt ihm jedes Mal zwei kleine Bilder nebeneinander - ein Zelt und eine Blume zum Beispiel. Was sie darstellen, ist unwichtig. Aber eines davon bedeutet Nahrung, das andere nicht.
Manche
Symbole kennt Walter bereits. Er pickt das Zelt an. Sofort rollt in das
Näpfchen unter dem Bildschirm ein Stück Hundekuchen. Später erscheint
die Blume erneut, diesmal in Kombination mit einem Baum. Die Krähe wählt
Letzteren, und wieder gibt es ein Leckerli. Anscheinend hat sich das
Tier gemerkt, dass die Blume zuvor für ein negatives Ergebnis stand.
Folglich müsste das neue, unbekannte Bild Futter erbringen. Logik nach
dem Ausschlussprinzip eben.
Der Test verläuft erstaunlich schnell.
"Ich muss mich auch konzentrieren", sagt Rößler. Walter ist nach gut
vier Minuten fertig. Von 20 Kombinationen hat er bei 18 sofort das
richtige Motiv angepeilt und nur in zwei Fällen knapp daneben gepickt.
Da musste er nur kurz nachsetzen. Fehlentscheidungen: keine. "Er ist
zurzeit sehr motiviert", sagt Rößler lächelnd.
Die Studentin
basiert ihre Arbeit auf den Ergebnissen einer Reihe vorangegangener
Studien. Nicht nur am KLF befassen sich Verhaltensforscher zunehmend mit
der tierischen Kognition. Sie suchen dabei unter anderem nach dem
evolutionären Ursprung solcher Fähigkeiten. So lassen sich vielleicht
auch neue Einblicke in die Entstehung der menschlichen Intelligenz
gewinnen. Abgesehen davon wird zunehmend klar, dass die Trennlinie
zwischen Homo sapiens und diversen anderen Spezies gar nicht so scharf
ist, wie man lange gerne glaubte.
Bisher konnte das
Ausschlussprinzip als Entscheidungsgrundlage bereits bei mehreren
Tierarten nachgewiesen werden, darunter bei Menschenaffen wie
Schimpansen, aber auch bei Hunden. Unter den Vögeln zeichnen sich vor
allem Kolkraben durch logisches Vorgehen bei schnellen Entscheidungen
aus. Die ebenfalls als überaus klug geltenden Keas - neuseeländische
Papageien - scheinen derartige Fähigkeiten nicht so einzusetzen. Sie
suchen einfach nur intensiver, wie ein direkter Vergleich zwischen
beiden Vogelspezies gezeigt hat.
Der Unterschied könnte im
Fressverhalten begründet liegen, glauben Experten wie Thomas Bugnyar von
der Universität Wien und dessen ehemaliger Student Christian Schlögl.
Keas ernähren sich überwiegend von Früchten, Samen und Wurzeln, die sie
am Boden finden und sofort verzehren. Raben dagegen leben als junge,
sich noch nicht fortpflanzende Vögel einige Jahre lang in Gruppen
zusammen. Dort herrscht ein starker Konkurrenzdruck.
Tricksen und tarnen
Die
Tiere treten häufig auch gemeinsam bei einer ergiebigen Nahrungsquelle
wie zum Beispiel einem Kadaver an. Wer sich eines schönen Futterbrockens
bemächtigt hat, versteckt ihn zunächst gerne. Die Artgenossen schauen
allerdings oft zu, weil sie den Leckerbissen später stehlen wollen. Der
Eigentümer wiederum versucht, seine Beute durch Täuschungsmanöver zu
schützen. Tricksen und Tarnen gehört bei Jungraben somit zum Alltag.
Interessanterweise
zeigen die nah verwandten Dohlen kein solches Verhalten. Diese
kleineren schwarzen Gesellen fressen hauptsächlich Insekten, Würmer und
dergleichen, welche sofort verschluckt werden. Verstecken ist nicht
nötig. Schlögl hat die oben erwähnten Tests zum Vergleich von Raben und
Keas auch bei Dohlen durchgeführt und stellte fest, dass Letztere
anscheinend nicht nach dem Ausschlussprinzip vorgehen. Ein weiterer
Hinweis auf den Ursprung dieser Logik, zumindest bei Vögeln.
Diese
Form der Kognition könnte infolge des Versteckens von Futter entstanden
sein - als Anpassung an das Gruppenleben und die dabei auftretende
Nahrungskonkurrenz. Den Dohlen hingegen ist diese Fähigkeit womöglich
sogar nachträglich abhandengekommen, als sie im Laufe der Evolution eine
Ernährungsumstellung durchmachten und ihr Futter nicht mehr zu
verbergen brauchten. Wenn man ein Talent nicht nutzt, verkümmert es.
Krähen
jedoch sind den Raben viel ähnlicher. Sie treten ebenfalls oft in
Trupps auf, und ähnlich wie ihre größeren Verwandten verstecken sie
gerne ihren Proviant. Ihr sozialer Zusammenhalt ist gleichwohl
ausgeprägter, meint Theresa Rößler. Das zeige sich besonders bei äußeren
Bedrohungen wie zum Beispiel Raubvögeln. Neulich tauchte ein Uhu in der
Nähe des Wildparks auf, berichtet Rößler. "Der wurde von fünf Krähen
durchs Tal getrieben."
Rößlers Untersuchungen sollen nun klären,
ob Corvus corone ebenfalls nach dem Ausschlussverfahren seine Auswahl
trifft. Die ersten Ergebnisse scheinen darauf hinzudeuten. Eine
wissenschaftliche Auswertung der Daten steht allerdings noch aus, betont
die Studentin. Walter ahnt von all dem nichts. Er hat seine zweite
Testreihe für heute beendet und bekommt zur Belohnung noch Grammeln.
Krähen lieben Speck, sagt Rößler. "Je fetter, desto besser." Aber
könnten Sie bitte noch das Schloss an der Tür aufsperren? "Ach ja,
natürlich." Fast hätte sie es vergessen.
Christine Kenneally’s ‘Invisible History of the Human Race’
Of
Christine Kenneally’s father’s father — a man neither Kenneally nor her
father ever knew, a man who did the deed requisite to reproduction and
promptly vanished — she asks, “Did he leave anything more significant
than the loud bang of a door shut down the generations?” Of course he
did. He left his DNA and a granddaughter determined to draw from modern
genetics and hard-won family history a coherent account of her roots.
Kenneally’s
own heritage is only one of the mysteries she pursues in “The Invisible
History of the Human Race,” a smart, splendid, highly entertaining look
at how DNA, increasingly visible to us since we first sequenced the
human genome in 2000, can “open up tracts of human history that had been
entirely obscure.”
While DNA may now be visible, however, it remains more hint than history. Kenneally, a journalist
and linguist, shows that just as a gene usually delivers its genetic
message only in conversation with an incoming chemical messenger, so our
DNA tells its tales most fully only in light of the history of the
people who carry and interrogate it. It takes all those threads to get
the whole story. And Kenneally wants it all.
“If
everyone had his DNA analyzed,” she writes, “and that information were
linked to everyone’s historical information, it would be the nearest
thing to the book of humanity.” She backs up this claim beautifully,
showing how genetic analysis can be combined with skillful mining of
historical, social and cultural information to solve fascinating riddles
of ancestry.
The
book would stand strong on its weird factoids alone. For instance: In
Europe, the inheritance of surnames became common in the last 200 to 900
years, depending on country and culture, which makes it difficult to
trace a family tree back beyond about 1500. Also: The rarer a surname,
the more likely two men bearing it are related. Thus 87 percent of the
few men named Attenborough descend from a single, distant forefather.
(No wonder Richard and David are brothers.) Possibly my favorite: Sex
cuts and reshuffles our genomes so sloppily that much DNA gets lost
through the generations, like dropped playing cards. You have many
distant ancestors from whom you received very little or even no DNA.
Despite
such wonders of ancestral science, Kenneally finds that many people
consider genealogy silly. A scholar prominent a century ago opined that
people who charted their family trees did so out of “snobbishness and
vanity.” In 2007, one science writer warned his genealogy-obsessed
daughter that “nothing in her genealogy defines her.”
“Really?”
Kenneally replies. “If a person’s genealogy is the series of
individuals whose coupling eventually produced that person, then it’s
hard to see how this assertion is plausible.”
For
many, unease with genealogy stems from its exploitation by eugenicists.
In Nazi Germany, for instance, one’s family tree, embedded in official
identification papers, became literally a matter of life and death.
Eugenicists have rationalized some of history’s most heinous acts with
the science of ancestry. But eugenics, Kenneally reminds us, was born as
and remains a distortion of science. Its founders and champions were
elites who took inherent differences as a given — and themselves as
humanity’s highest form. The problem was not the theories but “the way
they were used to give longstanding social divisions a scientific
rationale.”
In
America, discomfort with genealogy is sharpened by our inspiring
delusion that one can live free of history — as Willie Nelson sings,
“It’s nobody’s business where you’re going or where you come from, and
you’re judged by the look in your eye.” At its extreme, Kenneally
writes, this “reflex against the idea that the past must have meaning . . . became a belief that the past has no meaning.”
Yet
the past’s value and meaning are rendered powerfully clear in
Kenneally’s stories of people whose pasts were erased by history:
African-Americans, Jews, orphans. Genetic analyses and genealogical
databases like those at Ancestry.com and Family Tree DNA, especially
when combined with earnest exploration in archives, now enable people to
reconstruct lost lineages. Far more often than not, their reconnection
with both family and history changes and deepens their lives. Other
sleuthings examine broader puzzles: One chapter describes a fascinating
study in which maps of genetic differences within the British Isles
neatly match cultural and linguistic distinctions.
Perhaps
the book’s most resounding sections are those showing how culture,
rather than genetics, can shape lasting differences in human values and
behavior.
Kenneally
describes a study by the economists Nico Voigtländer and Hans-Joachim
Voth, which found persistent differences in anti-Semitism among towns in
Germany. Communities that reacted to the Black Death some 600 years ago
by blaming and massacring Jews were far more likely to lead pogroms
against Jews in the 1920s and to turn Jews over to the Nazis in the
1930s and ’40s.
In
a separate series of studies, the economists Nathan Nunn of Harvard and
Leonard Wantchekon of Princeton found a similar cultural legacy that
shaped trust — a trait some presume to vary according to genetic makeup.
Nunn and Wantchekon noticed that the poorest regions of Africa were the
regions most exploited by slave traders in the 18th and 19th centuries.
These areas suffered decades of raiding in which any stranger might
prove a kidnapper, and in which slavers often gained access to their
victims by bribing or blackmailing relatives or village authorities.
Clearly
such behaviors may have eroded trust at the time, but could the effect
last? Nunn and Wantchekon found that it does. The more a population was
exposed to slave raiding generations ago, the lower its measures of
trust and economic activity today. The specter of slavery, they
concluded, had done long-term damage to the social bonds necessary for
efficient trade. The economies and people continue to suffer
accordingly.
It’s
a far more plausible and evidence-based explanation for Africa’s
economic troubles than the one offered by Nicholas Wade’s recent book,
“A Troublesome Inheritance,” which, with vaporous evidence, attributes
weak African economies to African-specific genetic profiles that
purportedly discourage trust. Genetics gives all humans the power to
create culture. Yet it appears most likely that it is not genetics but
culture’s manifestations, some lovely, some horrific, that distinguish
and divide us.
Alas,
even these fancy new tools can’t crack every mystery. Kenneally doesn’t
find her missing grandfather, but she does discover further up her
father’s family tree a convict — one Michael Deegan, her
great-great-grandfather, who in the mid-1800s was shipped from Ireland
to Australia with a boatload of criminals for stealing a handkerchief.
Her father absorbed this news far better than he did his father’s
haunting absence, confirming Kenneally’s belief that people who excavate
their pasts are almost always glad they did. It’s easier to embrace a
thief than a phantom.
Given
how fast genealogy is advancing, Kenneally may find her missing
grandfather yet. Given how fast genetics is advancing, parts of her book
may need updating even as the ink dries. But what will prove lasting is
her evocation of how much perspective and even wisdom can be extracted
from some determined digging and a bit of spit. The breadth of this
book; its abundance of enthralling accounts and astonishing science; its
adept, vivid writing; and Kenneally’s exquisitely calibrated judgment
make it the richest, freshest, most fun book on genetics in some time.
THE INVISIBLE HISTORY OF THE HUMAN RACE
How DNA and History Shape Our Identities and Our Futures By Christine Kenneally 355 pp. Viking. $27.95.
David Dobbs, the author of
“My Mother’s Lover,” is writing “The Orchid and the Dandelion,”
regarding scientific ideas about how genes and experience shape
temperament and behavior.
Nota. - Nach dieser Rezension zu urteilen, geht es in dem Buch mehr um kulturelle Trdierung als um genetische Abstammung; und selbst die Suche nach den Vorfahren ist mehr eine Sache von symbolischen Zuschreibungen als von DNA. Sowohl/als auch - das wissen wir längst. ERfahren wollte man gern: wie viel hiervon, wieviel davon? Und da bleibt einem nichts übrig, als beide gegen einander zu betrachten statt miteinander. JE
Amazonasportal aus derStandard.at,6. Oktober 2014, 13:16
Evolution macht einen Schritt "zurück"
Die Passionsblume machte die evolutionären Anpassungen der Blütenröhren wieder rückgängig
von Katharina Roll
München
- Evolutionäre Anpassungen entstehen aus Gründen wie
Fortpflanzungsvorteilen oder besseren Überlebenschancen. Die Anpassungen
können morphologische Besonderheiten oder besondere Verhaltensweisen
sein. Ein Beispiel sind die Tacsonia-Arten unter den Passionsblumen:
Diese blühen in einer Höhe von 1.700 bis 4.000 Metern der
südamerikanischen Anden. In dieser Höhe leben auch die
Schwertschnabelkolibris (Ensifera ensifera).
Eng verbunden
Die
wunderschönen Blüten der Passionsblume sind hochspezialisiert und
können nur vom Schwertschnabelkolibri bestäubt werden. Dessen Schnabel
ist 11 Zentimeter lang und kann so den Nektar der Blüte, der 6 bis 14 cm
weit unten ist, erreichen. Während der Kolibri den Nektar schleckt,
bleiben die Pollenkörner am Kopf kleben, und so bestäubt der Vogel die
nächste Passionsblume.
Eine potenzielle Gefahr dieser engen
Symbiose ist, dass die beiden Arten auf Gedeih und Verderb aufeinander
angewiesen sind: Wenn der Kolibri die Region verlässt oder ausstirbt,
könnte die Passionsblume ebenfalls aussterben. Doch es gibt einen Ausweg
aus dem Dilemma, wie die Universität München berichtet.
Münchner
Biologen entdeckten nämlich, dass evolutionäre Spezialisierungen der
Blütenform auch wieder "rückgängig gemacht" werden können. 13 der 43
Arten der Unterfamilie Tacsonia entwickelten eine kürzere Blütenröhre
und können von kurzschnabeligen Kolibris und teilweise von Fledermäusen
bestäubt werden. Außerdem tauschten die Blüten die rote Farbe, welche
für Kolibris sehr anziehend ist, gegen eine weiße oder grünliche Farbe,
welche für Fledermäuse gut sichtbar ist. Die Studie wurde im Fachjournal
"Proceedings of the Royal Society B" veröffentlicht.
"Keine Einbahnstraße"
Alle
Arten der Passionsblume stammen von einem gemeinsamen Vorfahren ab. Die
Entwicklung der langen Blütenröhre begann vor 11 Millionen Jahren. Die
Unterarten mit kurzen Blütenröhren haben sich erst in den letzten zwei
bis vier Millionen Jahre entwickelt. Diese Zeitspanne ist für die
Evolution relativ kurz.
"Solche Spezialisierungen brauchen Zeit,
deshalb herrschte lange die Meinung vor, dass sie im Lauf der
stammesgeschichtlichen Entwicklung nur weiter ausgebaut, aber nicht
zurückgefahren werden", erklärte die Münchner Biologin Susanne Renner.
Diese Studie beweise, dass die Evolution keine Einbahnstraße ist.
Nota. - Was daran interessant ist? Dies: In der Biologie gibt es (u. a.) das Dogma, dass eine evolutionär einmal erreichte Spezialisierung einer Gattung nicht wieder umkehrbar sei - es sei denn in der mittelbaren Weise derNeotenie, wo gattungsgeschichtlich erworbene Eigenschaften dadurch unterdrückt werden, dass die Ausreifung der Individuen gehemmt wird. Das spektakulärste Beispiel dafür ist der Mensch, in dessen Gattungsgeschichte spezifisch kindliche Eigenarten immer stärker in den Vordergrund treten, sowohl morphologisch als charakterlich. - Nun erfahren wir, dass es auch auf diesem Gebiet ein Gesetz nicht gibt. JE
eduard andrae aus scinexx
Gehirnjogging hält nicht, was es verspricht Versprechungen kommerzieller Anbieter haben keine wissenschaftliche Basis
Hirnjogging soll gegen den geistigen Abbau helfen – so werben jedenfalls die Anbieter solcher Spiele.
Aber Forscher widersprechen dem nun ausdrücklich in einer Erklärung.
Denn weder eine vorbeugende Wirkung gegen Demenz noch eine Förderung der
allgemeinen geistigen Leistungen seien bisher für solche Spiele wissenschaftlich belegt.
Spielend geistig fit. Klingt das nicht verheißungsvoll? Die
Werbung lässt uns glauben, dass wir mit bestimmten
„Gehirnjogging“-Computerspielen unsere geistige Leistungsfähigkeit
steigern und sogar Demenzkrankheiten wie Alzheimer
vorbeugen können – und all dies angeblich wissenschaftlich fundiert.
Nicht selten ist in der Werbung „von Wissenschaftlern entwickelt“ zu
lesen. Doch wie wirksam ist das computerbasierte Gehirnjogging wirklich? Keine wissenschaftlichen Belege 70 international anerkannte Kognitionspsychologen und
Neurowissenschaftler haben diese Frage untersucht und nun dazu eine
Erklärung veröffentlicht. Ihr Fazit: Die bisherige Forschung belegt die
Behauptungen der kommerziellen Anbieter nicht. Die Behauptungen der
Gehirnjogging-Anbieter seien wissenschaftlich nicht belegt. Denn ob und
wie diese Spiele auf das Gehirn, die geistige Leistungsfähigkeit und die
kompetente Bewältigung des Alltags wirken, sei nicht hinreichend
erforscht. "Oft hängen die Behauptungen der Spielefirmen nur scheinbar mit der zitierten Forschung
zusammen", sagt die Psychologin Laura Carstensen von der Stanford
University. Die Experten, die die gemeinsame Stellungnahme auf
Initiative der Stanford University und des Max-Planck-Instituts für
Bildungsforschung unterzeichneten, sind sich einig: „Es gibt keine
überzeugenden wissenschaftlichen Belege dafür, dass kommerzielle
Gehirnjogging-Spiele den alterungsbedingten Abbau der geistigen
Leistungsfähigkeit vermindern oder umkehren.“ Verbesserungen nur im Spiel selbst Bedeutet dies, dass ein Training des Gehirns durch solche Spiele
keinerlei Vorteile bringt? Wie die Forscher erklären, gilt auch für
Gehirnjogging-Spiele: Übung macht den Meister. Wer viel spielt, steigert
seine Leistungen. Die Werbung erweckt aber den Eindruck, dass die
Leistungssteigerungen nicht auf die Spiele selbst begrenzt sind.
Stattdessen soll einen der Lernerfolg beim Spielen generell schlauer
machen, gegen geistigen Abbau schützen und die Kompetenz im Umgang mit
Alltagsproblemen steigern. Doch für dieses Versprechen gebe es derzeit
keine überzeugenden wissenschaftlichen Belege, so die Forscher. Allerdings warnen die Wissenschaftler auch vor Pessimismus. „Wer
körperlich aktiv ist, am sozialen Leben teilnimmt und ein geistig
anregendes Leben führt, hat bessere Chancen, geistig gesund zu altern“,
betont Ulman Lindenberger, Direktor des Forschungsbereichs
Entwicklungspsychologie am Max-Planck-Institut für Bildungsforschung in
Berlin. Denn Gehirn und Verhalten sind durchaus bis ins hohe Alter
trainierbar. Studien zeigen beispielsweise, dass Tanzen, Sport und soziale Kontakte das Gehirn fit halten können.
(Max-Planck-Institut für Bildungsforschung, 21.10.2014 - NPO)
Nota. Ja, mit solchen Meldungen muss man sich vorsehen. Es ist lediglich nicht erwiesen, dass es nützt. Dass es nichts nützt, ist genausowenig erwiesen. Und den Anbietern nützt es ja, das bedarf gar keines Beweises. JE
Gehirn gaukelt scharfes Sehen vor
Eyetracking-Experiment zeigt Verknüpfung zwischen scharfen und unscharfen Seh-Eindrücken
Scharfes Sehen im gesamten Blickfeld?
Unmöglich, jedenfalls für das menschliche Auge. Lediglich ein kleiner
Bereich im Zentrum der Netzhaut liefert scharfe Bilder – den restlichen
Bereich ersetzt das Gehirn anhand von früheren Erfahrungen, wie deutsche
Forscher nun im Experiment belegt haben. Unscharfe Eindrücke verknüpft
das Gehirn dazu mit bereits gespeicherten scharfen Bildern, erklären sie
im Fachmagazin "Journal of Experimental Psychology".
Wer glaubt, die Welt um sich herum wirklich scharf zu sehen, der
irrt: Unsere Augen können in Wahrheit nur einen Bruchteil der Umgebung
präzise abbilden. Das liegt daran, dass allein im zentralen Bereich der
Netzhaut, der Fovea, echtes Scharfsehen möglich ist. Dieser Bereich
entspricht in etwa der Größe eines Daumennagels am Ende eines
ausgestreckten Armes. Objekte außerhalb dieser Fläche geben nur ein
unscharfes Bild auf der Netzhaut – dennoch erscheint uns die Umgebung
scharf und detailliert.
Gehirn ersetzt unscharfe Bilder Wie unser Gehirn das Scharf-Sehen vorgaukelt, haben die Psychologen
Arvid Herwig und Werner Schneider von der Universität Bielefeld mit
einer Experimentreihe untersucht. Sie gehen davon aus, dass Menschen im
Laufe ihres Lebens in unzähligen Blickbewegungen lernen, den unscharfen
Seheindruck von Objekten außerhalb der Fovea mit dem scharfen Bild nach
der Augenbewegung zu verknüpfen. Sieht eine Person im Augenwinkel
unscharf einen Fußball, vergleicht ihr Gehirn dieses aktuelle Bild mit
gespeicherten Bildern von unscharfen Objekten. Findet das Gehirn ein
passendes Bild, ersetzt es den unscharfen Eindruck durch ein damit
verknüpftes präzises Bild aus dem Gedächtnis.
Der Daumennagel am Ende eines ausgestreckten Arms: Das ist der Bereich, den das Auge tatsächlich scharf sehen kann.
Mit
Hilfe von Eyetracking-Kameras zeichneten die Wissenschaftler die
schnellen, sprunghaften Augenbewegungen von Versuchspersonen auf.
Während dieser Augenbewegungen, den sognannten Sakkaden, veränderten die
Wissenschaftler gezielt einzelne Objekte. Ziel der Experimente war es,
den Testpersonen bislang unbekannte Verknüpfungen von unscharfen und
scharfen Seheindrücken zu präsentieren. Die Probanden sollten
anschließend Merkmale der unscharf wahrgenommenen Objekte beschreiben. Neue Verknüpfung nach wenigen Minuten Das Ergebnis: Bereits nach wenigen Minuten verknüpften die
Versuchsteilnehmer einen unscharfen Seheindruck mit dem zugehörigen
scharfen Bild. Das außerfoveale, eigentlich verschwommene Bild ähnelt
dadurch den neu erlernten scharfen Seheindrücken immer mehr. "Die
Experimente zeigen, dass unser Seheindruck wesentlich von gespeicherten
Erfahrungen in unserem Gedächtnis abhängt", so Herwig. Der Versuch zeigte ebenfalls, dass das Gehirn das unscharfe Bild bereits
ersetzt, noch bevor sich der Blick tatsächlich auf ein Objekt am Rande
des Blickfelds zu bewegt. Einen unscharfen Fußball glauben wir genau zu
erkennen, obwohl das noch nicht der Fall ist – das im Gehirn
gespeicherte scharfe und mit dem unscharfen verknüpfte Bild macht es
möglich. Anders ausgedrückt: "Wir sehen nicht die aktuelle Welt, sondern
unsere Vorhersagen."
aus Die Presse, Wien, 18. 10. 2014 aus dem Film I, robot
Computertechnik
Künstliche Intelligenz im Alltag
Roboter sind längst in der Lage, eigenständige Entscheidungen zu treffen. Aber können sie sich in die komplexe Psyche des Menschen einfühlen?
von Wolfgang Rössler
Bei der diesjährigen
Roboter-Fußballweltmeisterschaft in Brasilien teilten die künstlichen
Kicker der TU Graz das Schicksal der österreichischen Nationalelf: Sie
hatten sich
nicht qualifiziert und mussten zusehen. In einer anderen Disziplin
konnte „Trainer“ Gerald Steinbauer hingegen stolz auf seine Mannschaft
sein. Als es darum ging, in einem nachgebauten Erdbebengebiet möglichst
viele Überlebende zu finden, holten die steirischen Roboter-Olympioniken
eine Silbermedaille. Das, meint Steinbauer, sei ohnehin ein wichtigeres
Einsatzgebiet als Fußball. „Jedes Jahr verletzen sich menschliche
Katastrophenhelfer im Schutt.“ Da wären Roboter geeigneter.
Einmal im Jahr lassen bei den RoboCups Forscherteams aus der ganzen
Welt ihre Roboter gegeneinander antreten. Längst sind das keine
Automaten mehr. Steinbauers Athleten können selbst verzwickte
Situationen analysieren und dann Entscheidungen treffen.
Steinbauer gehört zu den führenden Robotikern Österreichs. Am Institut
für Softwaretechnologie der TU Graz forscht er zum Thema künstliche
Intelligenz. „Unsere Roboter müssen ohne Steuerung von außen unerwartete
Probleme lösen“, sagt er.
Dazu werden sie vorab mit Anweisungen
für alle denkmöglichen Szenarien gefüttert. Steinbauers Team sucht nach
Formeln für alle Unwägbarkeiten eines Roboterlebens. „Es ist kein
Zufall“, sagt er, „dass künstliche Intelligenz von Beginn an Philosophen
beschäftigt hat.“
Hilfsroboter turnen mit Künstliche Intelligenz hat längst Einzug in den Alltag gefunden: als Spracherkennungsprogramm am Smartphone,
das auf fast jede Frage ein Antwort weiß. Oder als Bordcomputer in
Autos, die das Fahrverhalten beeinflussen. Japanische Firmen arbeiten
seit Jahren mit Cobots, das sind Collaborative Robots, also künstliche
Hilfsarbeiter, die Seite an Seite mit menschlichen Mitarbeitern einfache
Tätigkeiten verrichten. In einigen Firmen beteiligen sich die Roboter
sogar zum Gaudium der Kollegen an den für Japan üblichen morgendlichen
Gymnastikübungen. Gebrechliche Menschen greifen in Fernost zunehmend auf
die Dienste von künstlichen Pflegehelfern zurück. Davon ist man
hierzulande noch weit entfernt.
In Österreich dominiert die
Grundlagenforschung. So war ein Projektteam der Uni Klagenfurt an der
Entwicklung eines EU-Prestigeprojekts beteiligt, das unlängst an der TU
München fertiggestellt wurde: eines humanoiden Barkeepers. James heißt
der Roboter, der mit den Gästen redet und Gläser abräumt. Um
herauszufinden, ob sie leer sind, muss er sie eingehend begutachten. Das
haben ihm die Kärntner Forscher beigebracht. „Die Herausforderung lag
darin, einen winzigen Sensor zu bauen, mit dem er es schnell vermessen
kann“, so Projektmitarbeiter Stephan Mühlbacher. Nun soll James lernen,
auf die Wünsche seiner menschlichen Kundschaft einzugehen. Wie aber soll
sich ein nach mathematischen Algorithmen programmierter Roboter in die
komplexe menschliche Psyche einfühlen? Lässt sich das menschliche Denken
und Fühlen einem Roboter erklären?
Möglicherweise wurde die
Antwort darauf vor fast 120 Jahren gegeben. Davon ist zumindest der
Computertechniker Dietmar Dietrich von der TU Wien überzeugt. Er glaubt,
dass Sigmund Freuds Modell der Psychoanalyse dazu geeignet ist, den
Code des menschlichen Denkens zu knacken: Ich, Es und Über-Ich heißen
die Hauptfunktionen seiner Computersysteme, die das menschliche Denken
simulieren sollen.
Psychoanalyse für Roboter Diese Software füttern die Forscher mit einer erfundenen Biografie:
„Wir gaukeln ihm eine Vergangenheit vor“, sagt Dietrich. Gute
Erfahrungen, schlechte Erfahrungen. Aber schafft das ein Bewusstsein,
Gefühle? „Zukünftig“, sagt Dietrich, würden seine Computer „eine Art von
Bewusstsein entwickeln“. Auch ein moralisches Grundverständnis? Was,
fragt Dietrich, sei denn Moral, wenn „nicht eine aus der eigenen
Geschichte angelernte Vorstellung?“
Noch ist der erfundene
Erfahrungsschatz der Computer stark beschränkt. „Die Menge an
Informationen, die sich ein Mensch in drei Jahrzehnten erarbeitet, ist
enorm“, sagt Dietrich. Noch ist die Wissenschaft nicht weit genug, um
Roboter mit Gefühlen zu bauen. Aber das sei nur eine Frage der Zeit,
glaubt Dietrich. „Ich werde das nicht mehr erleben. Aber in 50 oder 100
Jahren gibt es bestimmt Computer, die menschenähnlich denken.“
LEXIKON
Künstliche Intelligenz (KI) ist
ein Computersystem, das ohne Anweisungen von Menschen Entscheidungen
trifft. Im Alltag kennt man KI von Smartphones, Boardcomputern oder
Systemen zur Energieregulierung. Humanoider Roboter ist
ein menschenähnlicher Roboter, der auf KI basiert. In manchen Ländern
kommen Roboter bereits als Fabriksarbeiter oder Pflegehelfer zum
Einsatz. Noch steckt die Technik aber in den Kinderschuhen. Manche
Forscher glauben, dass die humanoiden Roboter der Zukunft eine Art
Bewusstsein besitzen werden.
Nota.
Was ist Moral, "wenn nicht eine aus der eigenen
Geschichte angelernte Vorstellung?"
Uff. Nein, nicht Computer sind eine Gefahr, sondern die Leute, die sie bauen. Sie haben keinen andern Horizont als die technische Machbarkeit. Welche "Moral" kann man sich denn wohl aus seiner eigenen Geschichte anlernen? Eine Schaden-Nutzen-Rechnung, was andres kommt mir nicht in den Sinn. Und wenn man selbst das größte Glück der größten Zahl noch draufsattelt (im verbindlichen schulischen Ethik-Unterricht angelernt), wird doch bestenfalls eine soziale Klugheitslehre daraus, aber nie ein Unterscheid von gut und böse.
Und wisst ihr, warum? Weil Computer niemals Kinder waren und daher auch nicht wieder werden können. "Kindsein heißt, gut und böse unterscheiden können, ohne nachdenken zu müssen", sagt Erich Kästner. Und wer da nicht hindurchgegangen ist, der kann sich später auch an nichts erinnern. (Dem Herrn Dietrich von der TU Wien haben sie die Kindheit offenbar gestohlen, und die kann man sich nicht ergaukeln.)
Zum Unterscheiden von gut und böse muss man sich selber entscheiden, das lässt sich nicht "anlernen". JE