Freitag, 31. Oktober 2014

...oder doch die soziale Klugheit?

aus derStandard.at, 30.10.2014

Dominante Raben stören soziale Beziehungen ihrer Konkurrenten Forscher fanden heraus, wie Tiere durch gezielte Aktionen ihre Machtposition abzusichern versuchen

Wien - Dass Raben außerordentlich intelligent sind, ist mittlerweile längst bekannt. Diesen Rückschluss lässt auch ihr Sozialverhalten zu: Die Tiere schließen sich häufig zu Gruppen zusammen, in denen sie um Machtverhältnisse konkurrieren. Wer gute soziale Beziehungen und Allianzen besitzt, führt die Gruppe an.

Doch die Konkurrenz schläft nicht, daher Versuchen Anführer offenbar, ihre Machtpositionen auch für die Zukunft abzusichern: Kognitionsbiologen der Universität Wien und der Konrad Lorenz Forschungsstelle Grünau konnten nun zeigen, dass Raben strategisch in die Beziehung anderer einzugreifen versuchen, indem sie diese immer wieder bei soziopositiven Interaktionen stören.
Thomas Bugnyar und sein Team untersuchen das Sozialverhalten wildlebender Kolkraben in den österreichischen Alpen bereits seit Jahren. Sie beobachteten, dass bestimmte Vögel durch gegenseitiges Kraulen Beziehungen knüpfen, die auch als Allianzen in Konflikten fungieren. Sie fanden aber auch heraus, dass freundliches Kraulen zweier Raben immer wieder von anderen Raben gestört wurde. Obwohl in etwa der Hälfte der Fälle so die freundliche Interaktion beendet werden konnten, kam es auch immer wieder dazu, dass der Angreifer gewaltsam vertrieben wurde.

Nichts dem Zufall überlassen

Es ist daher nicht verwunderlich, dass die Interventionen alles andere als zufällig abliefen: Vor allem jene Raben, die bereits über gute Beziehungen verfügten, mischten sich bei anderen ein und zielten dabei auf jene Raben ab, die gerade dabei waren, eine neue Beziehung zu etablieren. "Weil gut in die Gruppe eingebundene Raben soziale Macht haben, können sie sich solche riskanten Manöver leisten", erklärt der Erstautor der Studie, Jorg Massen. "Dabei greifen sie gezielt bei jenen Vögeln ein, die gerade dabei sind, eine neue Allianz zu festigen und somit eine mögliche Konkurrenz werden könnten."

Massen streicht aber heraus, dass zum Zeitpunkt der Interventionen die betroffenen Vögel noch keine unmittelbare Gefahr für das Machtgefüge der sich Einmischenden darstellen. Es sehe ganz danach aus, als ob Raben ständig die Beziehungen anderer beobachteten und wüssten, wann es zu handeln gelte, um mögliche zukünftige Probleme zu verhindern. Sie agieren nicht gleich bei jedem 'Flirt', aber warten auch nicht, bis es zu spät ist." Ein derartiges Vorgehen sei bis jetzt noch bei keiner Tierart beschrieben worden, so der Forscher. (red)



Abstract
Current Biology: "Ravens intervene in others’ bonding attempts. Current Biology"



Nota. - Das ist Planen in einer weit erheblicheren Art als das abendliche Vorbereiten des Frühstücks für den nächsten Morgen; das ist strategisches Verhalten. Und es geschieht offenbar nicht blindlings jederzeit, sondern erst, 'wenn es geraten ist'; also nicht 'konditioniert', sondern absichtsvoll. Man möchte meinen, das verlangt eine höhere Gewärtigkeit als bloß Entscheiden nach dem Ausschluss- prinzip. Letzteres kommt uns nur intelligenter vor, weil es an unser logisch-begriffliches Denken gemahnt und unmittelbar an die Fähigkeit zum Symbolisieren zu grenzen scheint: 'algorithmischer' ist. Das strategische Verhalten der Kolkraben ist zwar anschaulicher, aber auch weitsichtiger und komplexer.
JE

Ja ja, das da oben auf dem Foto sind Krähen. Doch die sind eben auch nicht dumm.

Donnerstag, 30. Oktober 2014

Big Data: Ein Krake mit Gespür.



Guenter Hamich  / pixelio.de
aus Der Standard, Wien,

"Wir sind noch nicht am Ende des Zufalls"
Big Data bringe nicht das allmächtige Wissen, das es verspricht, sagt der Medientheoretiker Ramón Reichert - Während wenige große Player über die Daten wachen, bleibe die Forschung auf der Strecke

Interview |

STANDARD: Zwei Beispiele für jüngste Meldungen zum Stichwort Big Data: "Neue Vorhersagemethode warnt vor extremen Fluten" und "Finanz will auf Strafregister zugreifen". Bringt Big Data nun die lückenlose Berechnung der Welt? Oder noch mehr Überwachung?

Reichert: Der Medienhype um Big Data hat der datenbasierten Wissenschaft ein allmächtiges Wissen zugeschrieben, im negativen wie im positiven Sinn. Man muss aber unterscheiden, auf welche Daten zurückgegriffen wird. Es gibt transaktionale Daten, die entstehen, wenn man sich in Netzwerke einloggt, Cookies herunterlädt, Bankdaten und Kundennummern hinterlässt. Diese digitalen Spuren kann man auf gewisse Weise schon objektivieren. Nutzergenerierte Inhalte wie Social-Media-Profile hingegen verhalten sich widerspenstiger. Das Objektivitätspostulat von Big Data trifft hier nicht zu. Wir sind noch nicht am "Ende des Zufalls" angelangt, von dem etwa Rudolf Klausnitzer in seinem Buch zu Big Data spricht.

Warum eignen sich nutzergenerierte Daten nicht für Big-Data-Analysen?

Sie lassen sich nicht so vereinheitlichen wie transaktionale Daten. Ein Beispiel: Bei Flickr lagern Millionen von Fotografien. Jetzt wird versucht, diese riesigen Datenbestände zu katalogisieren, nach bestimmten Kriterien zu ordnen. Doch diese Daten folgen chaotischen Strukturen des Taggings, des Beschlagwortens von Bildern. Das nennt man "Folksonomies" - ein Mischwort aus Folk und Taxonomie. Das heißt, es gibt keine taxonomisch eindeutige Klassifizierung.

Soziale Plattformen dienen heute dennoch als riesige Datenquellen für Trendanalysen. Inwiefern sind die Ergebnisse valide?

Die großen Plattformen im Web 2.0 sind heute im Grunde soziologische Beobachtungsanordnungen, wo es darum geht, über große Usercluster Verhaltensprognosen zu erstellen. Im US-Wahlkampf wurden zum Beispiel Big-Data-Analysen auf Twitter und Facebook durchgeführt. Zunächst sucht ein automatisches Texterkennungsverfahren nach Keywords wie Obama. Darauf kann eine Sentiment-Analyse aufbauen, die automatisiert untersucht, wie die User ihr Verhältnis zu den Spitzenkandidaten bewerten. Dazu werden beispielsweise Emoticons wie Smileys ausgewertet. Mit derartigen Forschungsmethoden werden Kontexte sehr vereinfacht - was zu Unschärfen in der automatischen Datenerhebung führt.

In dem von Ihnen herausgegebenen Buch "Big Data" haben Sie sich mit Stimmungsanalysen unter Facebook-Usern auseinandergesetzt. Was ist Ihre Schlussfolgerung?

Wenn es um Trendanalysen und Prognosemodelle geht, dann ist Facebook eine der wichtigsten Adressen geworden. Facebook wertet in seinem "Happiness Index" kollektive Glücksfaktoren aus und macht Aussagen über gesellschaftliche Wandlungsprozesse. Ich schließe daraus, dass Facebook das Erbe der analogen Meinungsforschung angetreten hat. Im Unterschied zu früher gibt es hier keinen Face-to-Face-Kontakt, keine Einwilligung mehr. Dazu kommt, dass das kein Wissen ist, das man verlässlich modellieren kann. Ein bekanntes Beispiel ist das Projekt Google Flu Trends, das angetreten ist, aufgrund der Suchanfragen die geografische Ausbreitung von Grippeepidemien vorhersagen zu können. Das ist fehlgeschlagen, die Prognosen waren stark überhöht. Wir sind noch nicht auf dem Stand zu sagen: Der Zufall ist aufgelöst, wir sind restlos berechenbar.

Also ist Big Data nicht mehr als ein großer Hype?

Big Data stößt auf mehreren Ebenen an seine Grenzen, bei der Software wie bei der Hardware. Studien zeigen, dass im Bereich der Social-Media-Research erst ein Prozent aller Daten bearbeitet werden kann. Es fehlt an Datenspeichern und Personal.

Aber die NSA ist ja offenbar in der Lage dazu, flächendeckend Daten abzugrasen. 

Die NSA hat die Ressourcen. Im Bereich der Hardware gibt es ein enormes Machtgefälle. Geheimdienste und wenige Unternehmen haben heute ein Monopol auf die Datenauswertung. Es stehen auf der Welt ganz wenige Supercomputer, die in der Lage sind, die Handygespräche von einem Jahr zu speichern. Im Sinne der Netzwerkanalyse wird dann untersucht, wer mit wem kommuniziert und bestimmte Keywords wie "Jihad" nutzt. Eine Rasterfahndung mit simplen Keywords zu betreiben setzt voraus, dass Terror und Kriminalität Teil der Alltagskommunikation sind. Diese Sichtweise führt dazu, dass die Datenkontrolle auf die gesamte Zivilgesellschaft ausstrahlt.

Gibt es nicht auch ein Potenzial für die Wissenschaft, sich dieser Daten zu bedienen?

Nur bedingt. Man muss wissen, wie man zu diesen Daten kommt. Die Plattformen können ihre Schnittstellen auf- und abdrehen wie einen Wasserhahn. Dann kann man sich andocken an den Big-Data-Strom. Twitter bietet eine kostenlose Schnittstelle an. Man kann aber nur ein Prozent der Tweets alle 15 Minuten abschöpfen. Nur wenn man die kostenpflichtige Schnittstelle nutzt, hat man unbegrenzten Zugang, das können sich aber nur kapitalintensive Unternehmen leisten.

Wie können Forscher dann die sozialen Medien für sich nutzen?

Eine wichtige Dimension ist, dass die Wissenschaft selbst in die Social Media geht, um sich kollaborativ zu vernetzen und Wissen zirkulieren zu lassen. So kann sie die kollektive Energie der Community und des Laienpublikums nutzen, auch um die eigene wissenschaftliche Arbeit effektiver zu hinterfragen. Das passiert schon jetzt in Ansätzen.

Könnte die Wissenschaft in solchen Spielräumen einen Gegenpol zu den großen Playern bilden?

Die Frage ist, ob es die Wissenschaft schafft, sich von kommerziellen Netzwerkbetreibern loszulösen und eigene, lokale oder kommunale Alternativen zu etablieren.

Sollte Programmieren als neue Kulturtechnik gelten bzw. als Fremdsprache gelehrt werden, wie das der deutsche Wirtschaftsminister Sigmar Gabriel vorgeschlagen hat?

Absolut. Das wäre eine große Ermächtigung der User und würde die Datensensibilität wesentlich stärken.


Ramón Reichert, geb. 1966 in Graz, war von 2009 bis 2013 Professor für Neue Medien am Institut für Theater-, Film- und Medienwissenschaften der Uni Wien. Seit 2014 ist er Leiter der postgradualen Masterstudiengänge "Data Studies" und "Cross Media" an der Donau-Uni Krems. Kürzlich hat er "Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie" (Transcript) herausgegeben. Reichert diskutiert heute, Mittwoch, beim Ernst-Mach-Forum der ÖAW zum Thema "Big Data. Wie kommt Sinn in die großen Zahlen?"

Link
Ernst-Mach-Forum

Mittwoch, 29. Oktober 2014

Der Raum entsteht im Gehirn.


Mark Garlick
aus nzz.ch, 29.10.2014, 05:30 Uhr

Ein Nobelpreisträger über seine Forschung  
«Es ist wichtig, anders als andere zu denken»
Edvard und May-Britt Moser entdeckten in der Mitte des Gehirns Zellen, die die Orientierung ermöglichen. Für die Entdeckung dieses «inneren GPS-Systems» wird ihnen und einem Kollegen am 10. Dezember der Nobelpreis überreicht.

Interview: Fabienne Hübener
 
Grob geschätzt, wie viele Interviews haben Sie seit der Bekanntgabe des Nobelpreises gegeben, Herr Moser?

In den ersten Tagen folgte ein Interview auf das andere, 15 bis 20 täglich, manchmal mehrere gleichzeitig. Das war schon verrückt. Im Moment, mehr als zwei Wochen nach der Bekanntgabe, sind es immer noch zwei bis drei pro Tag. Ich geniesse die Anerkennung, aber wenn das so weiterginge, käme ich zu nichts anderem mehr.

Sie, Ihre Frau May-Britt Moser und John O'Keefe erhalten den Nobelpreis für die Entdeckung von Orientierungszellen im Gehirn. Was ist das Besondere an diesen Zellen?

Vor uns untersuchten Forscher vor allem Funktionen im Gehirn, die nicht allzu weit vom Eingang der Sinnessysteme entfernt liegen. Wir sind jedoch tiefer, bis in die Mitte des Gehirns vorgestossen und entdeckten dort Zellen, die ein Merkmal der Aussenwelt abbilden. Diese Zellen kreieren eine Karte, mit deren Hilfe Tiere und Menschen im Raum navigieren können. Damit haben wir ein Fenster aufgestossen, um tiefer liegende Verarbeitungsprozesse im Gehirn zu verstehen.

Warum suchten Sie in der Mitte des Gehirns?

John O'Keefe hatte dort 1971 im Experiment mit Ratten interessante Zellen entdeckt, und wir wollten dieser Spur weiter nachgehen. Eigentlich war er auf der Suche nach Grundlagen des Gedächtnisses, doch mehr oder weniger zufällig fand er Zellen, die nur dann aktiv werden, wenn sich ein Tier an einem bestimmten Ort aufhält. Je nach Aufenthaltsort der Ratte im Raum sind unterschiedliche Zellen aktiv. Zusammen ergibt diese Aktivität eine Karte, die zeigt, wo sich ein Tier oder Mensch gerade befindet. Würde man die Daten in ein Computerprogramm einspeisen, könnte es anhand der Aktivität berechnen, wo sich die Ratte aufgehalten hat. May-Britt und ich wollten wissen, woher diese Ortszellen ihre Informationen erhalten. Es lag nahe, eine Stufe davor zu suchen. Die Ortszellen liegen im Hippocampus, einer älteren und am Boden des Schläfenlappens gelegenen Struktur. Wir suchten in der sogenannten entorhinalen Hirnrinde. Sie liegt zwischen Hippocampus und Grosshirnrinde. Bis dahin hatte dort noch niemand Nervenzellaktivität untersucht.

Sie haben die Elektroden auf gut Glück in dieses Hirngebiet eingeführt?

Nein, gemeinsam mit einem Neuroanatomen suchten wir nach dem optimalen Ort, um Nervenzellaktivität zu messen. Wir wussten also, wo wir ungefähr suchen mussten. Trotzdem war es ein Stück weit ein Glücksspiel, und es hätte auch anders enden können. Doch fanden wir in der entorhinalen Hirnrinde ebenfalls Zellen, die feuern, wenn ein Tier an einem bestimmten Ort ist. Aber im Gegensatz zu den Ortszellen feuert jede dieser Zellen nicht nur an einem Ort, sondern an mehreren, und diese Orte formen ein strenges hexagonales Muster. Daher nannten wir die gefundenen Zellen Rasterzellen. Das Raster enthält Informationen über die Position des Tieres im Raum. Es entspricht etwa einem Koordinatensystem oder einem Rasterpapier eines Bauplans. Rasterzellen, Ortszellen und einige weitere Zelltypen bilden eine Karte der Aussenwelt in der Tiefe unseres Gehirns, mit der wir uns im Raum zurechtfinden. Das Interessante dabei: Das hexagonale Muster, welches durch das Aktivitätsfeld der Rasterzellen aufgespannt wird, entsteht nicht durch ein entsprechendes Muster der Aussenwelt. Es ist eine Eigenkreation des Gehirns.

...

Zurück zum Gegenstand ihrer Forschung: Woher bekommen die Rasterzellen Informationen über den Aufenthaltsort des Tieres?

Das Muster des Rasters wird vom Gehirn selbst gebildet, doch benötigt es eine Aktualisierung von aussen. Die wichtigste Information stammt von unserer eigenen Bewegung. Wenn wir uns bewegen, senden unsere Muskeln Signale an das Gehirn. Dadurch erkennt das Gehirn, wie schnell wir sind und in welche Richtung es geht.

Sieht das Raster bei Tieren, die fliegen können, anders aus?

Kollegen in Israel untersuchen Orts- und Rasterzellen bei Fledermäusen. Krabbeln die Tiere, finden sie das bekannte Raster. Bei fliegenden Tieren generieren die Ortszellen ein kugelförmiges Feld. Wie sich die Rasterzellen im Flug verhalten, wird gerade untersucht.

Arbeiten auch andere Forscher in der «Mitte des Gehirns»?

Das Orientierungssystem ist zurzeit eines der wichtigsten Fenster in die inneren Gebiete des Gehirns, es ist aber nicht das einzige. Inzwischen beschäftigen sich Wissenschafter mit der Gehirnmitte, um höhere kognitive Leistungen des Gehirns zu untersuchen. Sie fragen etwa: Wie planen wir? Wie treffen wir Entscheidungen?

Welche Rolle spielen mathematische Modelle für Ihre Forschung?

Computational Neuroscience, also die computerbasierte Neurowissenschaft, hat in den letzten zwanzig Jahren enorm an Bedeutung gewonnen. Mathematische Modelle können die im Experiment gewonnenen Daten zusammenfügen und erlauben es, Vorhersagen zu treffen, wie sich ein Tier in einem weiteren Experiment verhalten wird. Wir überprüfen dann die Vorhersage im Labor und verfeinern mithilfe der Ergebnisse das Modell. Es ist ein Kreislauf, der uns ermöglicht, schneller und präziser zu Aussagen zu kommen. Das spart Zeit und Tierversuche.

Auch das Human Brain Project setzt auf Datenverarbeitung und Modellierung. Sie und Kollegen haben das Projekt jedoch in einem offenen Brief kritisiert.

Im Human Brain Project geht es vor allem um die Akkumulation von Daten, weniger um deren Verarbeitung. Das ist also ein anderer Ansatz, als wir ihn verfolgen. Interessanterweise hat die Mehrzahl der europäischen Forscher aus dem Bereich der computerbasierten Neurowissenschaft den Brief mit unterzeichnet.

Was ist Ihr nächster Schritt?

Wir wollen verstehen, wie das ganze Orientierungssystem zusammenhängt. Dafür müssen wir uns die Aktivität von vielen Tausenden Zellen gleichzeitig anschauen. Bis anhin kommen wir auf einige hundert Zellen. Mein Traumexperiment wäre, die Aktivität aller Zellen im Orientierungs-Schaltkreis gleichzeitig zu messen, während ein Tier von A nach B läuft. Anschliessend würden wir gezielt einzelne Zellen an- und ausschalten, um zu sehen, welche Konsequenzen dies auf das Verhalten des Tieres hat. Auf diese Art könnten wir den gesamten Schaltkreis verstehen. Die Techniken dazu stehen bereit. Indem man etwa lichtempfindliche Gene in Nervenzellen einschleust, wir nennen das Optogenetik, lässt sich die Aktivität der Nervenzellen an- und ausschalten. Die schwierige Denkarbeit beginnt, wenn uns die Menge an Informationen vorliegt. Dann müssen wir sinnvolle Ideen daraus generieren.

Um die Rasterzellen und ihr spezielles Aktivitätsmuster zu finden, waren viele kreative Schritte nötig. So entdeckten Sie beispielsweise das hexagonale Muster erst, als Sie die Test-Arena der Ratten vergrösserten. Was ist das Wichtigste, damit bahnbrechende Forschung gelingt?

Es ist sehr wichtig, anders als andere zu denken und Teile anders zusammenzusetzen, als es Vorgänger getan haben. Sicher, man muss auch hart arbeiten. Aber ich glaube nicht, dass man mehr erreicht, je mehr Zeit man abends im Labor verbringt. Du arbeitest, bis du denkst, dass es genug ist. Glück spielt auch eine Rolle. Viele Entdeckungen geschehen unerwartet. Allerdings muss man eine solche Entdeckung dann auch als etwas Besonderes erkennen können und etwas aus ihr machen. Dazu gehören eine gute Beobachtungsgabe und ein flexibler Geist.

Was machen Sie, wenn Sie nicht im Labor sind?

Ich gehe meist einmal in der Woche Bergwandern. Wenn ich weiter weg bin, klettere ich auch gerne auf Vulkane. Die Abende verbringe ich schon mal bei einem Jazzkonzert in Trondheim.


Nota. -  Zunächst einmal: "Es ist wichtig, anders als andere zu denken" - nämlich wenn bahnbrechende Entdeckungen gelingen sollen. Für den Alltag auch eines Wissenschaftlers ist es ansonsten ratsam, es immer zuerst einmal mit den Methoden und Instrumenten zu versuchen, die sich bislang bewährt haben. Wenn man das lange genug geübt hat und dann an einem Punkt überhaupt nicht mehr weiterkommt - dann, ja dann muss man "anders als die andern" vorgehen.

Zur Sache: Dass es uns nicht freisteht, ob wir die Wirklichkeit, die uns umgibt, in den Modi von Raum und Zeit wahrnehmen, wurde nie bezweifelt. Dass es sich dabei aber um eine 'apriorische' Weichenstellung handele, die durch die Organisation unseres Wahrnehmungsapparats vorgegeben ist, hat vor über zweihundert Jahren für Aufregung gesorgt. Nun wissen wir: Es gibt eine 'Stelle' im Gehirn, die dafür sorgt, dass die dort ankommenden Sinnesdaten räumlich interpretiert werden. 

Das wird wohl eine evolutionäre Anpassung des Gehirns an die vorgefundenen Lebensumstände gewesen sein. Es könnte daher immer noch so sein, dass die Welt selber "in Raum und Zeit zerfällt". Dem steht freilich die relativistische Auffassung vom Raum-Zeit-Kontinuum entgegen. Es muss also erklärt werden, warum in unserer Wahrnehmung das Kontinuum trotzdem in zwei Dimensionen "zerfällt". Es musste; nun ist es passiert. Nicht in Einsteins gekrümmtem Universum, aber in jener Mesosphäre, in der das Leben sich entwickelt hat, war es anscheinend vorteilhaft, die wirklichen Bewegungen so aufzufassen, als ob sie aus zwei 'Faktoren' zusammengesetzt wären.
JE

Dienstag, 28. Oktober 2014

Stammt Intelligenz eher aus der sozialen oder doch eher aus der ökonomischen Klugheit?

aus Die Presse, Wien, 28. 10. 2014


Schimpansen planen ihr Frühstück exakt
Die Evolution der Intelligenz hängt daran, dass in die Zukunft gedacht wird, wann und wo es Futter gibt.


Nicht jeder kann am Morgen, noch im Halbschlaf, den immer gleichen Weg zur Nahrungsquelle schlurfen und in den auch immer gleichen Ritualen des Frühstücks in den Tag gleiten. Das ist unser Privileg, auch das unserer Haus-, Nutz- und Zootiere, in der Natur sieht es anders aus, dort ist der Tisch nicht immer gedeckt, zumindest nicht ausreichend, dort müssen alle Sinne offen gehalten werden, gegenüber Lockungen, Drohungen, Konkurrenz. All das muss das Gehirn verrechnen, das hat Katherine Milton (Berkeley) vor 30 Jahren zu einer Hypothese über die Evolution der Intelligenz geführt, sie hieß zunächst „ecological intelligence“.

Inzwischen hat sie Namen und Ausformungen ohne Ende, im Kern geht es darum, dass ein Tier erstens wissen muss, wo es Nahrung findet, und zweitens, wie es diese Nahrung erschließt, öffnet etc. Dann kam Konkurrenz, die Hypothese der „social intelligence“ setzte darauf, dass die Anforderungen des Gemeinschaftslebens das Gehirn verfeinern. Das setzte sich durch, wurde aber in der letzten Zeit dahin relativiert, dass soziale Intelligenz auf das Sozialleben beschränkt ist und nichts etwa damit zu tun hat, wo man eine Nuss findet und wie man sie knackt.

Hier kam die ökologische Intelligenz zurück, lange auf den Raum beschränkt, aber nun hat Karline Janmaat (MPI Evolutionäre Anthropologie, Leipzig) auch die Zeit integriert: Tiere, die im Regenwald hinter Früchten her sind, müssen nicht nur wissen, wo die Bäume stehen, sondern auch, wann sie tragen. Vor dieser Herausforderung stehen etwa Schimpansen im Tai-Nationalpark der Elfenbeinküste, vor allem die Weibchen mit Jungen stehen davor. Janmaat hat fünf über 275 Tage exakt beobachtet, in der Zeit nahm das Futterangebot drei Mal zu und ab, vor allem das einer höchst begehrten, aber immer nur ganz kurz zur Verfügung stehenden Frucht, der des Feigenbaums.

Ist ein erreichbarer reif, stehen die Schimpansinnen früh auf aus den Nestern, die sie jeden Abend hoch oben in Bäumen anlegen. Dann sind sie vor Sonnenaufgang unterwegs, der Dunkelheit und ihren Gefahren zum Trotz – um die Zeit jagen Leoparden –, sie wissen, dass die Konkurrenz groß ist. Aber woher wissen sie, wann sie wohin müssen? Sie riechen die Feigen nicht, sie sehen sie nicht, beides kann Janmaat ausschließen, es hängt alles am Gedächtnis der Mütter, die schon einmal an den Bäumen waren. Aber warum gehen sie die Risken ein, warum bauen sie die Nester nicht direkt neben den Feigen? Weil beim Nestbau viel berücksichtigt werden muss, nur wenige Bäume bieten eine optimale Architektur der Äste etc.

Der Mensch bedroht die Affenklugheit

Immerhin, die Nester werden an Wegen zu Feigenbäumen hin angelegt (Pnas, 27. 10.). „Unsere Studie ist die erste, die zeigt, wie eine zukunftsorientierte kognitive Fähigkeit bei Nahrungsknappheit und hoher Konkurrenz benutzt wird“, schließt Janmaat. Ihre Studie könnte auch eine der letzten dieser Art sein: Sabine Crief (Patris) hat an den Rändern eines Nationalparks in Uganda bemerkt, dass Schimpansen bei der Futtersuche zunehmend in die Nacht ausweichen, weil ihnen Menschen mit ihren Aktivitäten bei Tag zu eng auf den Hals rücken (PLoS One, 22. 10.).


Nota.

Bevor die Wissenschaften im Blick auf die Drittmittel marktschreierisch wurden, hätte man in herkömmlicher und prosaischer Weise von ökonomischer Klugheit gesprochen: Ressourcen erschließen, den Hunger vorhersehen, Zeit sparen und der Konkurrenz zuvorkommen: was ist daran "ökologisch"? Es ist wirtschaften im strengsten Sinn. Aber wie klingt das heut in dieser unseren Zeit: "wirtschaftliche Klugheit"! Da kriegen alle Menschen guten Willens ja ein Gänsehaut. 

Doch die Menschen haben wohl, seit sie von ihren Bäumen in die Savanne hinabstiegen, stets Ressourcen gemeinsam erschlossen, den Hunger gemeinsam vorhergesehen, Zeit durch Kooperation gespart und sich der Konkurrenz in Gruppen erwehrt. Da ist ökonomisch Intelligenz zugleich soziale Intelligenz, und umgekehrt. Insofern sind die Schimpansen für uns kein Modell.

Darum kann die Frage der Verteilung bei ihnen auch nicht zur Triebkraft des gesellschaftlichen Fortschritts werden.
JE




Montag, 27. Oktober 2014

Logische Krähe.

aus Der Standard, 22. 10. 2014

Kluge Krähen beim Computerspielen
Können Krähen logisch überlegen? Eine Wiener Verhaltensbiologin geht dieser Frage nach, indem sie die Vögel vor ein Touchscreen setzt und ihnen Aufgaben stellt


Grünau - Walter will nicht. Das Tier steht an der Tür, schaut immer wieder misstrauisch zu dem fremden Besucher herüber und schimpft laut krächzend. Ja, er beschwert sich, meint Theresa Rößler. Alles Neue sei ihm grundsätzlich suspekt. Das wird heute anscheinend nichts mehr mit dem Test. Zumindest nicht, solange dieser Mann da ist. Ein Jammer.

Walter ist eine Aaskrähe, zoologisch Corvus corone, und Rößler Studentin der Universität Wien, die zurzeit an der Konrad-Lorenz-Forschungsstelle (KLF) in Grünau für ihre Masterarbeit im Bereich Verhaltensbiologie gastiert. Ihr Interesse gilt den kognitiven Fähigkeiten der schwarzen Vögel. Dabei geht es um grundsätzliche Logik.

Können die Tiere nach dem Ausschlussprinzip vorgehen und so zielstrebig Entscheidungen treffen? Welche Informationen benötigen sie dazu? Um diese Fragen zu klären, führt Rößler mit fünf in einer Voliere lebenden Krähen Experimente durch. Deren Behausung steht im benachbarten Cumberland-Wildpark.

Zweimal täglich treten die geflügelten Studienteilnehmer vor einem Computer mit Touchscreen an und bekommen dort verschiedene Symbole zur Auswahl vorgesetzt. Wenn sie das richtige anpicken, gibt's jedes Mal eine kleine Leckerei. Aber Walter will jetzt nicht, und seine Artgenossin Bärbel traut sich erst gar nicht an die Tür, so viel Angst hat sie.

Doch dann hat Theresa Rößler eine Idee. Im Inneren des Voliere-Gebäudes steht ein Käfig leer. Wenn der Zuschauer hinter dessen Gitter gehen würde und sie den Eingang abschließt, könnte es 
vielleicht klappen. Krähen verstehen nämlich das Konzept des Einsperrens, erklärt die Nachwuchsforscherin.

Gesagt, getan. Rößler macht demonstrativ das Vorhängeschloss zu, der Fremde sitzt gefangen. Und das ändert offenbar alles. Walter hat den Vorgang aufmerksam beobachtet. Er legt den Kopf schräg, schaut sich den Eingesperrten noch einmal genau an, und stapft anschließend mit erhobenem Haupt an ihm vorbei. Auf zum Rechner.

Symbole picken

Ab diesem Moment verläuft alles nach Plan. Der Vogel hüpft auf den Sitzstock vor dem Touchscreen und legt los. Das Programm zeigt ihm jedes Mal zwei kleine Bilder nebeneinander - ein Zelt und eine Blume zum Beispiel. Was sie darstellen, ist unwichtig. Aber eines davon bedeutet Nahrung, das andere nicht.

Manche Symbole kennt Walter bereits. Er pickt das Zelt an. Sofort rollt in das Näpfchen unter dem Bildschirm ein Stück Hundekuchen. Später erscheint die Blume erneut, diesmal in Kombination mit einem Baum. Die Krähe wählt Letzteren, und wieder gibt es ein Leckerli. Anscheinend hat sich das Tier gemerkt, dass die Blume zuvor für ein negatives Ergebnis stand. Folglich müsste das neue, unbekannte Bild Futter erbringen. Logik nach dem Ausschlussprinzip eben.

Der Test verläuft erstaunlich schnell. "Ich muss mich auch konzentrieren", sagt Rößler. Walter ist nach gut vier Minuten fertig. Von 20 Kombinationen hat er bei 18 sofort das richtige Motiv angepeilt und nur in zwei Fällen knapp daneben gepickt. Da musste er nur kurz nachsetzen. Fehlentscheidungen: keine. "Er ist zurzeit sehr motiviert", sagt Rößler lächelnd.

Die Studentin basiert ihre Arbeit auf den Ergebnissen einer Reihe vorangegangener Studien. Nicht nur am KLF befassen sich Verhaltensforscher zunehmend mit der tierischen Kognition. Sie suchen dabei unter anderem nach dem evolutionären Ursprung solcher Fähigkeiten. So lassen sich vielleicht auch neue Einblicke in die Entstehung der menschlichen Intelligenz gewinnen. Abgesehen davon wird zunehmend klar, dass die Trennlinie zwischen Homo sapiens und diversen anderen Spezies gar nicht so scharf ist, wie man lange gerne glaubte.

Bisher konnte das Ausschlussprinzip als Entscheidungsgrundlage bereits bei mehreren Tierarten nachgewiesen werden, darunter bei Menschenaffen wie Schimpansen, aber auch bei Hunden. Unter den Vögeln zeichnen sich vor allem Kolkraben durch logisches Vorgehen bei schnellen Entscheidungen aus. Die ebenfalls als überaus klug geltenden Keas - neuseeländische Papageien - scheinen derartige Fähigkeiten nicht so einzusetzen. Sie suchen einfach nur intensiver, wie ein direkter Vergleich zwischen beiden Vogelspezies gezeigt hat.

Der Unterschied könnte im Fressverhalten begründet liegen, glauben Experten wie Thomas Bugnyar von der Universität Wien und dessen ehemaliger Student Christian Schlögl. Keas ernähren sich überwiegend von Früchten, Samen und Wurzeln, die sie am Boden finden und sofort verzehren. Raben dagegen leben als junge, sich noch nicht fortpflanzende Vögel einige Jahre lang in Gruppen zusammen. Dort herrscht ein starker Konkurrenzdruck.

Tricksen und tarnen

Die Tiere treten häufig auch gemeinsam bei einer ergiebigen Nahrungsquelle wie zum Beispiel einem Kadaver an. Wer sich eines schönen Futterbrockens bemächtigt hat, versteckt ihn zunächst gerne. Die Artgenossen schauen allerdings oft zu, weil sie den Leckerbissen später stehlen wollen. Der Eigentümer wiederum versucht, seine Beute durch Täuschungsmanöver zu schützen. Tricksen und Tarnen gehört bei Jungraben somit zum Alltag.

Interessanterweise zeigen die nah verwandten Dohlen kein solches Verhalten. Diese kleineren schwarzen Gesellen fressen hauptsächlich Insekten, Würmer und dergleichen, welche sofort verschluckt werden. Verstecken ist nicht nötig. Schlögl hat die oben erwähnten Tests zum Vergleich von Raben und Keas auch bei Dohlen durchgeführt und stellte fest, dass Letztere anscheinend nicht nach dem Ausschlussprinzip vorgehen. Ein weiterer Hinweis auf den Ursprung dieser Logik, zumindest bei Vögeln.

Diese Form der Kognition könnte infolge des Versteckens von Futter entstanden sein - als Anpassung an das Gruppenleben und die dabei auftretende Nahrungskonkurrenz. Den Dohlen hingegen ist diese Fähigkeit womöglich sogar nachträglich abhandengekommen, als sie im Laufe der Evolution eine Ernährungsumstellung durchmachten und ihr Futter nicht mehr zu verbergen brauchten. Wenn man ein Talent nicht nutzt, verkümmert es.

Krähen jedoch sind den Raben viel ähnlicher. Sie treten ebenfalls oft in Trupps auf, und ähnlich wie ihre größeren Verwandten verstecken sie gerne ihren Proviant. Ihr sozialer Zusammenhalt ist gleichwohl ausgeprägter, meint Theresa Rößler. Das zeige sich besonders bei äußeren Bedrohungen wie zum Beispiel Raubvögeln. Neulich tauchte ein Uhu in der Nähe des Wildparks auf, berichtet Rößler. "Der wurde von fünf Krähen durchs Tal getrieben."

Rößlers Untersuchungen sollen nun klären, ob Corvus corone ebenfalls nach dem Ausschlussverfahren seine Auswahl trifft. Die ersten Ergebnisse scheinen darauf hinzudeuten. Eine wissenschaftliche Auswertung der Daten steht allerdings noch aus, betont die Studentin. Walter ahnt von all dem nichts. Er hat seine zweite Testreihe für heute beendet und bekommt zur Belohnung noch Grammeln. Krähen lieben Speck, sagt Rößler. "Je fetter, desto besser." Aber könnten Sie bitte noch das Schloss an der Tür aufsperren? "Ach ja, natürlich." Fast hätte sie es vergessen.

Samstag, 25. Oktober 2014

Die verborgene Geschichte des Menschengeschlechts.

aus New York Times,

Christine Kenneally’s ‘Invisible History of the Human Race’

Of Christine Kenneally’s father’s father — a man neither Kenneally nor her father ever knew, a man who did the deed requisite to reproduction and promptly vanished — she asks, “Did he leave anything more significant than the loud bang of a door shut down the generations?” Of course he did. He left his DNA and a granddaughter determined to draw from modern genetics and hard-won family history a coherent account of her roots.

Kenneally’s own heritage is only one of the mysteries she pursues in “The Invisible History of the Human Race,” a smart, splendid, highly entertaining look at how DNA, increasingly visible to us since we first sequenced the human genome in 2000, can “open up tracts of human history that had been entirely obscure.”

While DNA may now be visible, however, it remains more hint than history. Kenneally, a journalist and linguist, shows that just as a gene usually delivers its genetic message only in conversation with an incoming chemical messenger, so our DNA tells its tales most fully only in light of the history of the people who carry and interrogate it. It takes all those threads to get the whole story. And Kenneally wants it all.

“If everyone had his DNA analyzed,” she writes, “and that information were linked to everyone’s historical information, it would be the nearest thing to the book of humanity.” She backs up this claim beautifully, showing how genetic analysis can be combined with skillful mining of historical, social and cultural information to solve fascinating riddles of ancestry.

The book would stand strong on its weird factoids alone. For instance: In Europe, the inheritance of surnames became common in the last 200 to 900 years, depending on country and culture, which makes it difficult to trace a family tree back beyond about 1500. Also: The rarer a surname, the more likely two men bearing it are related. Thus 87 percent of the few men named Attenborough descend from a single, distant forefather. (No wonder Richard and David are brothers.) Possibly my favorite: Sex cuts and reshuffles our genomes so sloppily that much DNA gets lost through the generations, like dropped playing cards. You have many distant ancestors from whom you received very little or even no DNA.
Despite such wonders of ancestral science, Kenneally finds that many people consider genealogy silly. A scholar prominent a century ago opined that people who charted their family trees did so out of “snobbishness and vanity.” In 2007, one science writer warned his genealogy-­obsessed daughter that “nothing in her genealogy defines her.”

“Really?” Kenneally replies. “If a person’s genealogy is the series of individuals whose coupling eventually produced that person, then it’s hard to see how this assertion is plausible.”

For many, unease with genealogy stems from its exploitation by eugenicists. In Nazi Germany, for instance, one’s family tree, embedded in official identification papers, became literally a matter of life and death. Eugenicists have rationalized some of history’s most heinous acts with the science of ancestry. But eugenics, Kenneally reminds us, was born as and remains a distortion of science. Its founders and champions were elites who took inherent differences as a given — and themselves as humanity’s highest form. The problem was not the theories but “the way they were used to give longstanding social divisions a scientific rationale.”

In America, discomfort with genealogy is sharpened by our inspiring delusion that one can live free of history — as Willie Nelson sings, “It’s nobody’s business where you’re going or where you come from, and you’re judged by the look in your eye.” At its extreme, Kenneally writes, this “reflex against the idea that the past must have meaning . . . became a belief that the past has no meaning.”

Yet the past’s value and meaning are rendered powerfully clear in Kenneally’s stories of people whose pasts were erased by history: African-Americans, Jews, orphans. Genetic analyses and genealogical databases like those at Ancestry.com and Family Tree DNA, especially when combined with earnest exploration in archives, now enable people to reconstruct lost lineages. Far more often than not, their reconnection with both family and history changes and deepens their lives. Other sleuthings examine broader puzzles: One chapter describes a fascinating study in which maps of genetic differences within the British Isles neatly match cultural and linguistic distinctions.

Perhaps the book’s most resounding sections are those showing how culture, rather than genetics, can shape lasting differences in human values and behavior.

Kenneally describes a study by the economists Nico Voigtländer and Hans-Joachim Voth, which found persistent differences in anti-Semitism among towns in Germany. Communities that reacted to the Black Death some 600 years ago by blaming and massacring Jews were far more likely to lead pogroms against Jews in the 1920s and to turn Jews over to the Nazis in the 1930s and ’40s.

In a separate series of studies, the economists Nathan Nunn of Harvard and Leonard Wantchekon of Princeton found a similar cultural legacy that shaped trust — a trait some presume to vary according to genetic makeup. Nunn and Wantchekon noticed that the poorest regions of Africa were the regions most exploited by slave traders in the 18th and 19th centuries. These areas suffered decades of raiding in which any stranger might prove a kidnapper, and in which slavers often gained access to their victims by bribing or blackmailing relatives or village authorities.

Clearly such behaviors may have eroded trust at the time, but could the effect last? Nunn and Wantchekon found that it does. The more a population was exposed to slave raiding generations ago, the lower its measures of trust and economic activity today. The specter of slavery, they concluded, had done long-term damage to the social bonds necessary for efficient trade. The economies and people continue to suffer accordingly.

It’s a far more plausible and evidence-based explanation for Africa’s economic troubles than the one offered by Nicholas Wade’s recent book, “A Troublesome Inheritance,” which, with vaporous evidence, attributes weak African economies to African-­specific genetic profiles that purportedly discourage trust. Genetics gives all humans the power to create culture. Yet it appears most likely that it is not genetics but culture’s manifestations, some lovely, some horrific, that distinguish and divide us.

Alas, even these fancy new tools can’t crack every mystery. Kenneally doesn’t find her missing grandfather, but she does discover further up her father’s family tree a convict — one Michael Deegan, her great-great-grandfather, who in the mid-1800s was shipped from Ireland to Australia with a boatload of criminals for stealing a handkerchief. Her father absorbed this news far better than he did his father’s haunting absence, confirming Kenneally’s belief that people who excavate their pasts are almost always glad they did. It’s easier to embrace a thief than a phantom.

Given how fast genealogy is advancing, Kenneally may find her missing grandfather yet. Given how fast genetics is advancing, parts of her book may need updating even as the ink dries. But what will prove lasting is her evocation of how much perspective and even wisdom can be extracted from some determined digging and a bit of spit. The breadth of this book; its abundance of enthralling accounts and astonishing science; its adept, vivid writing; and Kenneally’s exquisitely calibrated judgment make it the richest, freshest, most fun book on genetics in some time.

 

THE INVISIBLE HISTORY OF THE HUMAN RACE
How DNA and History Shape Our Identities and Our Futures 
By Christine Kenneally
355 pp. Viking. $27.95.


David Dobbs, the author of “My Mother’s Lover,” is writing “The Orchid and the Dandelion,” regarding scientific ideas about how genes and experience shape temperament and behavior.


Nota. - Nach dieser Rezension zu urteilen, geht es in dem Buch mehr um kulturelle Trdierung als um genetische Abstammung; und selbst die Suche nach den Vorfahren ist mehr eine Sache von symbolischen Zuschreibungen als von DNA. Sowohl/als auch - das wissen wir längst. ERfahren wollte man gern: wie viel hiervon, wieviel davon? Und da bleibt einem nichts übrig, als beide gegen einander zu betrachten statt miteinander.
JE 

Donnerstag, 23. Oktober 2014

Evolution rückwärts.

Amazonasportal
aus derStandard.at,

Evolution macht einen Schritt "zurück"
Die Passionsblume machte die evolutionären Anpassungen der Blütenröhren wieder rückgängig



München - Evolutionäre Anpassungen entstehen aus Gründen wie Fortpflanzungsvorteilen oder besseren Überlebenschancen. Die Anpassungen können morphologische Besonderheiten oder besondere Verhaltensweisen sein. Ein Beispiel sind die Tacsonia-Arten unter den Passionsblumen: Diese blühen in einer Höhe von 1.700 bis 4.000 Metern der südamerikanischen Anden. In dieser Höhe leben auch die Schwertschnabelkolibris (Ensifera ensifera).
    Eng verbunden

    Die wunderschönen Blüten der Passionsblume sind hochspezialisiert und können nur vom Schwertschnabelkolibri bestäubt werden. Dessen Schnabel ist 11 Zentimeter lang und kann so den Nektar der Blüte, der 6 bis 14 cm weit unten ist, erreichen. Während der Kolibri den Nektar schleckt, bleiben die Pollenkörner am Kopf kleben, und so bestäubt der Vogel die nächste Passionsblume.

    Eine potenzielle Gefahr dieser engen Symbiose ist, dass die beiden Arten auf Gedeih und Verderb aufeinander angewiesen sind: Wenn der Kolibri die Region verlässt oder ausstirbt, könnte die Passionsblume ebenfalls aussterben. Doch es gibt einen Ausweg aus dem Dilemma, wie die Universität München berichtet.

    Münchner Biologen entdeckten nämlich, dass evolutionäre Spezialisierungen der Blütenform auch wieder "rückgängig gemacht" werden können. 13 der 43 Arten der Unterfamilie Tacsonia entwickelten eine kürzere Blütenröhre und können von kurzschnabeligen Kolibris und teilweise von Fledermäusen bestäubt werden. Außerdem tauschten die Blüten die rote Farbe, welche für Kolibris sehr anziehend ist, gegen eine weiße oder grünliche Farbe, welche für Fledermäuse gut sichtbar ist. Die Studie wurde im Fachjournal "Proceedings of the Royal Society B" veröffentlicht.

    "Keine Einbahnstraße"

    Alle Arten der Passionsblume stammen von einem gemeinsamen Vorfahren ab. Die Entwicklung der langen Blütenröhre begann vor 11 Millionen Jahren. Die Unterarten mit kurzen Blütenröhren haben sich erst in den letzten zwei bis vier Millionen Jahre entwickelt. Diese Zeitspanne ist für die Evolution relativ kurz.

    "Solche Spezialisierungen brauchen Zeit, deshalb herrschte lange die Meinung vor, dass sie im Lauf der stammesgeschichtlichen Entwicklung nur weiter ausgebaut, aber nicht zurückgefahren werden", erklärte die Münchner Biologin Susanne Renner. Diese Studie beweise, dass die Evolution keine Einbahnstraße ist. 


    Abstract
    Proceedings of the Royal Society B: "Escape from extreme specialization: passionflowers, bats and the sword-billed hummingbird"


    Nota. - Was daran interessant ist? Dies: In der Biologie gibt es (u. a.) das Dogma, dass eine evolutionär einmal erreichte Spezialisierung einer Gattung nicht wieder umkehrbar sei - es sei denn in der mittelbaren Weise der Neotenie, wo gattungsgeschichtlich erworbene Eigenschaften dadurch unterdrückt werden, dass die Ausreifung der Individuen gehemmt wird. Das spektakulärste Beispiel dafür ist der Mensch, in dessen Gattungsgeschichte spezifisch kindliche Eigenarten immer stärker in den Vordergrund treten, sowohl morphologisch als charakterlich. - Nun erfahren wir, dass es auch auf diesem Gebiet ein Gesetz nicht gibt.
    JE

     

    Dienstag, 21. Oktober 2014

    Gehirnjogging nützt nichts.

    eduard andrae
    aus scinexx

    Gehirnjogging hält nicht, was es verspricht
    Versprechungen kommerzieller Anbieter haben keine wissenschaftliche Basis
    Hirnjogging soll gegen den geistigen Abbau helfen – so werben jedenfalls die Anbieter solcher Spiele. Aber Forscher widersprechen dem nun ausdrücklich in einer Erklärung. Denn weder eine vorbeugende Wirkung gegen Demenz noch eine Förderung der allgemeinen geistigen Leistungen seien bisher für solche Spiele wissenschaftlich belegt.

    Spielend geistig fit. Klingt das nicht verheißungsvoll? Die Werbung lässt uns glauben, dass wir mit bestimmten „Gehirnjogging“-Computerspielen unsere geistige Leistungsfähigkeit steigern und sogar Demenzkrankheiten wie Alzheimer vorbeugen können – und all dies angeblich wissenschaftlich fundiert. Nicht selten ist in der Werbung „von Wissenschaftlern entwickelt“ zu lesen. Doch wie wirksam ist das computerbasierte Gehirnjogging wirklich?

    Keine wissenschaftlichen Belege

    70 international anerkannte Kognitionspsychologen und Neurowissenschaftler haben diese Frage untersucht und nun dazu eine Erklärung veröffentlicht. Ihr Fazit: Die bisherige Forschung belegt die Behauptungen der kommerziellen Anbieter nicht. Die Behauptungen der Gehirnjogging-Anbieter seien wissenschaftlich nicht belegt. Denn ob und wie diese Spiele auf das Gehirn, die geistige Leistungsfähigkeit und die kompetente Bewältigung des Alltags wirken, sei nicht hinreichend erforscht.

    "Oft hängen die Behauptungen der Spielefirmen nur scheinbar mit der zitierten Forschung zusammen", sagt die Psychologin Laura Carstensen von der Stanford University. Die Experten, die die gemeinsame Stellungnahme auf Initiative der Stanford University und des Max-Planck-Instituts für Bildungsforschung unterzeichneten, sind sich einig: „Es gibt keine überzeugenden wissenschaftlichen Belege dafür, dass kommerzielle Gehirnjogging-Spiele den alterungsbedingten Abbau der geistigen Leistungsfähigkeit vermindern oder umkehren.“

    Verbesserungen nur im Spiel selbst

    Bedeutet dies, dass ein Training des Gehirns durch solche Spiele keinerlei Vorteile bringt? Wie die Forscher erklären, gilt auch für Gehirnjogging-Spiele: Übung macht den Meister. Wer viel spielt, steigert seine Leistungen. Die Werbung erweckt aber den Eindruck, dass die Leistungssteigerungen nicht auf die Spiele selbst begrenzt sind. Stattdessen soll einen der Lernerfolg beim Spielen generell schlauer machen, gegen geistigen Abbau schützen und die Kompetenz im Umgang mit Alltagsproblemen steigern. Doch für dieses Versprechen gebe es derzeit keine überzeugenden wissenschaftlichen Belege, so die Forscher.

    Allerdings warnen die Wissenschaftler auch vor Pessimismus. „Wer körperlich aktiv ist, am sozialen Leben teilnimmt und ein geistig anregendes Leben führt, hat bessere Chancen, geistig gesund zu altern“, betont Ulman Lindenberger, Direktor des Forschungsbereichs Entwicklungspsychologie am Max-Planck-Institut für Bildungsforschung in Berlin. Denn Gehirn und Verhalten sind durchaus bis ins hohe Alter trainierbar. Studien zeigen beispielsweise, dass Tanzen, Sport und soziale Kontakte das Gehirn fit halten können.

    (Max-Planck-Institut für Bildungsforschung, 21.10.2014 - NPO)


    Nota.
    Ja, mit solchen Meldungen muss man sich vorsehen. Es ist lediglich nicht erwiesen, dass es nützt. Dass es nichts nützt, ist genausowenig erwiesen. Und den Anbietern nützt es ja, das bedarf gar keines Beweises.
    JE  

    Montag, 20. Oktober 2014

    Mein Auge denkt mir was vor.

    aus scinexx

    Gehirn gaukelt scharfes Sehen vor
    Eyetracking-Experiment zeigt Verknüpfung zwischen scharfen und unscharfen Seh-Eindrücken

    Scharfes Sehen im gesamten Blickfeld? Unmöglich, jedenfalls für das menschliche Auge. Lediglich ein kleiner Bereich im Zentrum der Netzhaut liefert scharfe Bilder – den restlichen Bereich ersetzt das Gehirn anhand von früheren Erfahrungen, wie deutsche Forscher nun im Experiment belegt haben. Unscharfe Eindrücke verknüpft das Gehirn dazu mit bereits gespeicherten scharfen Bildern, erklären sie im Fachmagazin "Journal of Experimental Psychology".

    Wer glaubt, die Welt um sich herum wirklich scharf zu sehen, der irrt: Unsere Augen können in Wahrheit nur einen Bruchteil der Umgebung präzise abbilden. Das liegt daran, dass allein im zentralen Bereich der Netzhaut, der Fovea, echtes Scharfsehen möglich ist. Dieser Bereich entspricht in etwa der Größe eines Daumennagels am Ende eines ausgestreckten Armes. Objekte außerhalb dieser Fläche geben nur ein unscharfes Bild auf der Netzhaut – dennoch erscheint uns die Umgebung scharf und detailliert.

    Gehirn ersetzt unscharfe Bilder

    Wie unser Gehirn das Scharf-Sehen vorgaukelt, haben die Psychologen Arvid Herwig und Werner Schneider von der Universität Bielefeld mit einer Experimentreihe untersucht. Sie gehen davon aus, dass Menschen im Laufe ihres Lebens in unzähligen Blickbewegungen lernen, den unscharfen Seheindruck von Objekten außerhalb der Fovea mit dem scharfen Bild nach der Augenbewegung zu verknüpfen. Sieht eine Person im Augenwinkel unscharf einen Fußball, vergleicht ihr Gehirn dieses aktuelle Bild mit gespeicherten Bildern von unscharfen Objekten. Findet das Gehirn ein passendes Bild, ersetzt es den unscharfen Eindruck durch ein damit verknüpftes präzises Bild aus dem Gedächtnis.



    Der Daumennagel am Ende eines ausgestreckten Arms: Das ist der Bereich, den das Auge tatsächlich scharf sehen kann.
    Mit Hilfe von Eyetracking-Kameras zeichneten die Wissenschaftler die schnellen, sprunghaften Augenbewegungen von Versuchspersonen auf. Während dieser Augenbewegungen, den sognannten Sakkaden, veränderten die Wissenschaftler gezielt einzelne Objekte. Ziel der Experimente war es, den Testpersonen bislang unbekannte Verknüpfungen von unscharfen und scharfen Seheindrücken zu präsentieren. Die Probanden sollten anschließend Merkmale der unscharf wahrgenommenen Objekte beschreiben.

    Neue Verknüpfung nach wenigen Minuten

    Das Ergebnis: Bereits nach wenigen Minuten verknüpften die Versuchsteilnehmer einen unscharfen Seheindruck mit dem zugehörigen scharfen Bild. Das außerfoveale, eigentlich verschwommene Bild ähnelt dadurch den neu erlernten scharfen Seheindrücken immer mehr. "Die Experimente zeigen, dass unser Seheindruck wesentlich von gespeicherten Erfahrungen in unserem Gedächtnis abhängt", so Herwig.

    Der Versuch zeigte ebenfalls, dass das Gehirn das unscharfe Bild bereits ersetzt, noch bevor sich der Blick tatsächlich auf ein Objekt am Rande des Blickfelds zu bewegt. Einen unscharfen Fußball glauben wir genau zu erkennen, obwohl das noch nicht der Fall ist – das im Gehirn gespeicherte scharfe und mit dem unscharfen verknüpfte Bild macht es möglich. Anders ausgedrückt: "Wir sehen nicht die aktuelle Welt, sondern unsere Vorhersagen."

    (Journal of Experimental Psychology, 2014; doi: 10.1037/a0036781)
    (Universität Bielefeld, 13.10.2014 - AKR)

    Samstag, 18. Oktober 2014

    Computer mit simulierter Lebensgeschichte.

    I, Robot
    aus Die Presse, Wien, 18. 10. 2014                                                                     aus dem Film I, robot
                          

    Computertechnik
    Künstliche Intelligenz im Alltag
    Roboter sind längst in der Lage, eigenständige Entscheidungen zu treffen. Aber können sie sich in die komplexe Psyche des Menschen einfühlen?

     

    Bei der diesjährigen Roboter-Fußballweltmeisterschaft in Brasilien teilten die künstlichen Kicker der TU Graz das Schicksal der österreichischen Nationalelf: Sie hatten sich nicht qualifiziert und mussten zusehen. In einer anderen Disziplin konnte „Trainer“ Gerald Steinbauer hingegen stolz auf seine Mannschaft sein. Als es darum ging, in einem nachgebauten Erdbebengebiet möglichst viele Überlebende zu finden, holten die steirischen Roboter-Olympioniken eine Silbermedaille. Das, meint Steinbauer, sei ohnehin ein wichtigeres Einsatzgebiet als Fußball. „Jedes Jahr verletzen sich menschliche Katastrophenhelfer im Schutt.“ Da wären Roboter geeigneter.

    Einmal im Jahr lassen bei den RoboCups Forscherteams aus der ganzen Welt ihre Roboter gegeneinander antreten. Längst sind das keine Automaten mehr. Steinbauers Athleten können selbst verzwickte Situationen analysieren und dann Entscheidungen treffen. Steinbauer gehört zu den führenden Robotikern Österreichs. Am Institut für Softwaretechnologie der TU Graz forscht er zum Thema künstliche Intelligenz. „Unsere Roboter müssen ohne Steuerung von außen unerwartete Probleme lösen“, sagt er.

    Dazu werden sie vorab mit Anweisungen für alle denkmöglichen Szenarien gefüttert. Steinbauers Team sucht nach Formeln für alle Unwägbarkeiten eines Roboterlebens. „Es ist kein Zufall“, sagt er, „dass künstliche Intelligenz von Beginn an Philosophen beschäftigt hat.“

    Hilfsroboter turnen mit
     
    Künstliche Intelligenz hat längst Einzug in den Alltag gefunden: als Spracherkennungsprogramm am Smartphone, das auf fast jede Frage ein Antwort weiß. Oder als Bordcomputer in Autos, die das Fahrverhalten beeinflussen. Japanische Firmen arbeiten seit Jahren mit Cobots, das sind Collaborative Robots, also künstliche Hilfsarbeiter, die Seite an Seite mit menschlichen Mitarbeitern einfache Tätigkeiten verrichten. In einigen Firmen beteiligen sich die Roboter sogar zum Gaudium der Kollegen an den für Japan üblichen morgendlichen Gymnastikübungen. Gebrechliche Menschen greifen in Fernost zunehmend auf die Dienste von künstlichen Pflegehelfern zurück. Davon ist man hierzulande noch weit entfernt.

    In Österreich dominiert die Grundlagenforschung. So war ein Projektteam der Uni Klagenfurt an der Entwicklung eines EU-Prestigeprojekts beteiligt, das unlängst an der TU München fertiggestellt wurde: eines humanoiden Barkeepers. James heißt der Roboter, der mit den Gästen redet und Gläser abräumt. Um herauszufinden, ob sie leer sind, muss er sie eingehend begutachten. Das haben ihm die Kärntner Forscher beigebracht. „Die Herausforderung lag darin, einen winzigen Sensor zu bauen, mit dem er es schnell vermessen kann“, so Projektmitarbeiter Stephan Mühlbacher. Nun soll James lernen, auf die Wünsche seiner menschlichen Kundschaft einzugehen. Wie aber soll sich ein nach mathematischen Algorithmen programmierter Roboter in die komplexe menschliche Psyche einfühlen? Lässt sich das menschliche Denken und Fühlen einem Roboter erklären?

    Möglicherweise wurde die Antwort darauf vor fast 120 Jahren gegeben. Davon ist zumindest der Computertechniker Dietmar Dietrich von der TU Wien überzeugt. Er glaubt, dass Sigmund Freuds Modell der Psychoanalyse dazu geeignet ist, den Code des menschlichen Denkens zu knacken: Ich, Es und Über-Ich heißen die Hauptfunktionen seiner Computersysteme, die das menschliche Denken simulieren sollen.

    Psychoanalyse für Roboter
     
    Diese Software füttern die Forscher mit einer erfundenen Biografie: „Wir gaukeln ihm eine Vergangenheit vor“, sagt Dietrich. Gute Erfahrungen, schlechte Erfahrungen. Aber schafft das ein Bewusstsein, Gefühle? „Zukünftig“, sagt Dietrich, würden seine Computer „eine Art von Bewusstsein entwickeln“. Auch ein moralisches Grundverständnis? Was, fragt Dietrich, sei denn Moral, wenn „nicht eine aus der eigenen Geschichte angelernte Vorstellung?“

    Noch ist der erfundene Erfahrungsschatz der Computer stark beschränkt. „Die Menge an Informationen, die sich ein Mensch in drei Jahrzehnten erarbeitet, ist enorm“, sagt Dietrich. Noch ist die Wissenschaft nicht weit genug, um Roboter mit Gefühlen zu bauen. Aber das sei nur eine Frage der Zeit, glaubt Dietrich. „Ich werde das nicht mehr erleben. Aber in 50 oder 100 Jahren gibt es bestimmt Computer, die menschenähnlich denken.“

    LEXIKON

    Künstliche Intelligenz (KI) ist ein Computersystem, das ohne Anweisungen von Menschen Entscheidungen trifft. Im Alltag kennt man KI von Smartphones, Boardcomputern oder Systemen zur Energieregulierung.
    Humanoider Roboter ist ein menschenähnlicher Roboter, der auf KI basiert. In manchen Ländern kommen Roboter bereits als Fabriksarbeiter oder Pflegehelfer zum Einsatz. Noch steckt die Technik aber in den Kinderschuhen. Manche Forscher glauben, dass die humanoiden Roboter der Zukunft eine Art Bewusstsein besitzen werden.


    Nota.

    Was ist Moral, "wenn nicht eine aus der eigenen Geschichte angelernte Vorstellung?"

    Uff. Nein, nicht Computer sind eine Gefahr, sondern die Leute, die sie bauen. Sie haben keinen andern Horizont als die technische Machbarkeit. Welche "Moral" kann man sich denn wohl aus seiner eigenen Geschichte anlernen? Eine Schaden-Nutzen-Rechnung, was andres kommt mir nicht in den Sinn. Und wenn man selbst das größte Glück der größten Zahl noch draufsattelt (im verbindlichen schulischen Ethik-Unterricht angelernt), wird doch bestenfalls eine soziale Klugheitslehre daraus, aber nie ein Unterscheid von gut und böse.

    Und wisst ihr, warum? Weil Computer niemals Kinder waren und daher auch nicht wieder werden können. "Kindsein heißt, gut und böse unterscheiden können, ohne nachdenken zu müssen", sagt Erich Kästner. Und wer da nicht hindurchgegangen ist, der kann sich später auch an nichts erinnern. (Dem Herrn Dietrich von der TU Wien haben sie die Kindheit offenbar gestohlen, und die kann man sich nicht ergaukeln.)

    Zum Unterscheiden von gut und böse muss man sich selber entscheiden, das lässt sich nicht "anlernen". 
    JE