Sonntag, 29. März 2015

Lamarck von vorn und hinten: Epigenetik zum Zweiten.

aus Der Standard, Wien, 25.3.2015

"Das Buch des Lebens ist in zwei Sprachen geschrieben"

INTERVIEW | 

STANDARD: Das Jahr hat für Sie karrieretechnisch vielversprechend begonnen. Haben Sie das 
erwartet?

Alexander Stark: Nein. Das Angebot, als Senior Scientist am Forschungsinstitut für Molekulare Pathologie zu arbeiten, bekam ich an meinem ersten Arbeitstag nach Weihnachten. Die Zusage zur Projektförderung durch den Europäischen Forschungsrat ergab sich erst vor kurzem.
STANDARD: Das Forschungsleben ist tendenziell eher von Unsicherheiten geprägt. Max Weber nannte es einst ein "wildes Hasard". Fühlen Sie sich nun sicherer?
Stark: Nein. Mein Gefühl orientiert sich nach wie vor an der Wissenschaft, wo man nie weiß, wo es hingeht und wo es keinen Raum zum Zurücklehnen gibt. Das hält den eigenen Antrieb am Laufen. Rational weiß ich natürlich, dass ich abgesicherter bin und besser planen kann.
STANDARD: Die Anzahl der Gene ist bei Mensch, Maus und Fliege ungefähr gleich groß. Was macht uns dann eigentlich zum Menschen?
Stark: Man muss nur bei den Primaten schauen: Beim Menschen und Schimpansen sind die Gene - genauer jene Bereiche der DNA, die Proteine codieren - zu über 99,9 Prozent identisch. Zumindest auf der sehr engen evolutionären Distanz zwischen Mensch und Schimpansen spielt die Gen-Regulation die Hauptrolle für die Entwicklung zweier Arten.
STANDARD: Was sind die großen offenen Fragen der Gen-Regulation?
Stark: Man weiß, dass die Gen-Regulation in sehr bestimmten Bereichen im Erbgut, genauer auf der DNA, festgeschrieben ist. Diese regulatorischen DNA-Abschnitte heißen Enhancer. Diese können mitunter über sehr lange Distanzen die Gen-Ablesung anschalten oder verstärken. Wie das im Detail funktioniert, ist noch völlig unbekannt. Wir wissen auch nicht, wie die Enhancer aussehen. Und es stellt sich die Frage, wie die Enhancer die Gene finden, deren Aktivierung sie dann steuern.
STANDARD: Weiß man, wie stark die Enhancer im Erbgut vertreten sind?
Stark: Es gibt Schätzungen, dass es im Menschen bis zu einer Million verschiedener Enhancer gibt, in der Fruchtfliege schätzungsweise ein paar Hunderttausend Enhancer.
STANDARD: Sie bezeichnen die Information der Enhancer als regulatorischen Code zur Aktivierung von Genen. Welche Informationen beinhalten die Enhancer?
Stark: Der regulatorische Code definiert alle in einem Organismus vorkommenden Zelltypen und gibt vor, wie aus einer einzigen Eizelle der ganze Körper mit den jeweiligen Zelltypen an den richtigen Stellen gebildet werden soll.
STANDARD: Die Enhancer sind also die Bauherren bei der Entwicklung von Organismen?
Stark: Die Enhancer funktionieren als Schalter der Gen-Aktivierung und letztlich auch als Schalter von der Entwicklung oder der Zelltypdifferenzierung. Sie weisen spezielle Bindestellen für bestimmte Transkriptionsfaktoren auf. Diese Bindestellen können aber in unterschiedlichen Kombinationen vorkommen. Von ihnen gibt es in der Fliege ungefähr 600 und im Menschen 1000. Es gibt bei uns damit quasi 1000 Wörter, die in unterschiedlichen Anordnungen vorkommen können. In diesen Kombinationen codieren sie den Plan, wie sich der menschliche Körper entwickelt. Das funktioniert wie bei Sprachen: Mit 26 Buchstaben formen wir durch beliebige Kombinationen der Buchstaben Wörter, aus Wörtern Sätze und aus Sätzen unendlich komplexe Texte.
STANDARD: Manche sprechen von der DNA als dem "Buch des Lebens" - eine nicht ganz unumstrittene Metapher. Doch wenn man nun einmal bei ihr bleibt: Kommen die Enhancer dabei zu kurz?
Stark: Die Enhancer sind ja als Abschnitte der DNA ein Teil des Buches. Dieses ist aber in zwei verschiedenen Sprachen geschrieben. Zum einen in der Sprache der Proteine, also dem genetischen Code. Dieser macht im Menschen aber nur zwei Prozent des gesamten Genoms aus. Der Rest ist nichtcodierend. In diesem Rest liegen die regulatorischen Elemente - und diese sind in einer anderen Sprache geschrieben. Diese wollen wir entschlüsseln.
STANDARD: Diese Sprache scheint besonders kompliziert zu sein.
Stark: Die Komplexität des Codes hängt mit der Komplexität dessen zusammen, was der Code definieren muss. Der genetische Code im Erbgut muss ja nur die insgesamt 20 Aminosäuren codieren und kann daher relativ einfach sein. Der regulatorische Code enthält viel komplexere Informationen.
STANDARD: Nochmals zu Ihrer Person: Sie haben ihre Forscherkarriere am Europäischen Laboratorium für Molekularbiologie (EMBL) gestartet und waren dann am MIT tätig - beides renommierte Institute für Molekularbiologie. War das geplant oder Glück?
Stark: Die Entscheidung, ans EMBL zu gehen, war reines Glück. Ich bin in der Rückschau bestürzt, wie naiv ich an die Wahl der PhD-Stelle herangegangen bin. Denn das war der entscheidende Moment. Ohne das EMBL wäre ich jetzt nicht hier. An das MIT zu gehen, war eine gezielte Wahl. Meine Erfahrung zeigt: Viele Nachwuchsforscher wissen nicht, worauf es beim Wechsel vom Studium ins Doktorat ankommt.
STANDARD: Worauf kommt es an?
Stark: Man sollte nicht aus Bequemlichkeit an der Heimat-Uni bleiben, sondern nach renommierten Instituten suchen. Diese erkennt man etwa an ihrem wissenschaftlichen Output und ob die Gruppenleiter und Professoren zu internationalen Konferenzen eingeladen werden. Zudem ist wichtig: Wie viele Ressourcen gibt es? Haben die Institute die neueste Ausrüstung? An der Uni ist es oft schwer, an diese Informationen heranzukommen. Obwohl ich ein sehr guter Student war, habe ich sie damals nicht bekommen.

Alexander Stark (40) studierte Biochemie und Bioinformatik. Der gebürtige Deutsche war am Europäischen Laboratorium für Molekularbiologie in Heidelberg, am Broad-Institut der US-Unis MIT und Harvard sowie am MIT Computer Science and Artificial Intelligence Lab tätig. Seit 2008 wirkt er am Forschungsinstitut für Molekulare Pathologie in Wien, seit 2015 als Senior Scientist.

Nota. - Dass Teile des Genoms durch Methylierung gewissermaßen abgeschaltet werden, hatten wir noch gar nicht recht verdaut. Jetzt sollen wir auch noch glauben, dass manch eine Vererbung durch Enhancement überhaupt erst eingeschaltet wird? Gibt es denn für die Natur bald gar keine Gesetze mehr?
JE



Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Mittwoch, 25. März 2015

Ist das Anthropozän verzichtbar?

aus Tagesspiegel.de, 12. 3. 2015

Geoforscher diskutieren über neues Erdzeitalter
Die Zeit des Menschen

von Ralf Nestler

Aus der Entfernung werden die Dinge oft deutlicher. Elf Kilometer, die Reiseflughöhe eines Flugzeugs, genügen, um zu erkennen, wie stark die Menschheit die Oberfläche des Planeten gestaltet: begradigte Flüsse, Staudämme, Steinbrüche. Schätzungen zufolge bewegtHomo sapiens dank der von ihm ersonnenen technischen Möglichkeiten bis zu zehnmal so viel Gestein und Sediment auf dem Globus wie natürliche Vorgänge – etwa Erosion durch strömende Flüsse. Hinzu kommt ein Artensterben, wie es der Planet lange nicht erlebt hat.

Und darum sollte eine geologische Epoche nach ihm benannt werden, das „Anthropozän“. Entschieden ist das noch lange nicht, aber über das Ob und Wann jener Menschenzeit streiten die Geoforscher. Ist es wirklich gerechtfertigt, im Geschichtsbuch der Erde, das viereinhalb Milliarden Jahre umfasst, ein eigenes Kapitel „Mensch“ zu beginnen? Wann würde es anfangen, mit der Zähmung des Feuers, dem Beginn der Landwirtschaft, der Industrialisierung?

Seit Jahren schwärt die Debatte, jüngster Beitrag ist ein Artikel im Fachblatt „Nature“. Dort schlagen Simon Lewis und Mark Maslin vom University College London vor, die Menschen-Epoche 1610 beginnen zu lassen. Begründung: Die Folgen menschlichen Tuns – insbesondere die Kolonialisierung Amerikas – waren damals bereits so weitreichend, dass ein globaler Effekt nachweisbar sei. Zudem gibt es einen „Zeitstempel“, mit dem der Beginn der Epoche erkennbar ist.

Natur und Technik hängen zusammen

Neu ist die Idee, die Zeit des Menschen in den Erdwissenschaften kenntlich zu machen, nicht. Sie wurde bereits seit dem 18. Jahrhundert, etwa vom walisischen Geologen und Theologen Thomas Jenkyn, propagiert. Allerdings eher aus theologischen Gründen. Es ging um die Abgrenzung des Homo sapiens von anderen Kreaturen. 2002 begann die zweite und ungleich steilere Karriere des Begriffs. Der Chemie-Nobelpreisträger Paul Crutzen argumentierte, dass der Mensch die Umwelt so massiv beeinflusst habe, dass die stabile Phase des Holozäns (Beginn vor 11 700 Jahren) vorüber sei und wir längst im Anthropozän steckten.

Die Idee faszinierte viele, auch Sozialwissenschaftler und Künstler. „Es geht nicht nur darum, die oberste Erdschicht zu benennen, sondern um ein Gesamtverständnis“, sagt Reinhold Leinfelder, Geologe an der FU Berlin, ehemaliger Leiter des Berliner Naturkundemuseums und künftig Chef im„Haus der Zukunft“. „Wir müssen weg von dem Dualismus: Hier die Natur, dort Mensch und Technik. Beides hängt zusammen, beeinflusst einander. Wie etwa bei der Ernährung, die mit Klima, Gesundheit und Bodenressourcen verknüpft ist. Das kommt im Anthropozän-Konzept zum Ausdruck.“

Taugt die Menschenzeit als geologische Epoche?

Leinfelder hat auch die aktuelle Ausstellung zum Thema im Deutschen Museum in München kuratiert und ist Mitglied der Anthropozän-Arbeitsgruppe der Internationalen Stratigraphie-Kommission. Diese Institution ist die „Hüterin der geologischen Zeittafel“. Sie legt fest, wann etwa das Kambrium oder das Karbon beginnen, oder welche Fossilien und chemischen Besonderheiten in einer alten Gesteinsschicht als Zeitenwende gelten dürfen. Wie zum Beispiel eine Iridum-Anomalie in den Schichten nahe El Kef (Tunesien), die den Einschlag eines Asteroiden vor 66 Millionen Jahren markiert: das Ende der Kreidezeit, bei dem auch die Dinosaurier ausstarben.

Fallout der Atombomben und Plastik als "Leitfossilien"

Nun kämpfen die Anthropozän-Verfechter dafür, dass die Menschenzeit in die heilige Schrift der Stratigraphie aufgenommen wird. 2016 will die Anthropozän-Arbeitsgruppe unter der Leitung von Jan Zalasiewicz von der Universität Leicester einen Vorschlag unterbreiten, warum die Menschen-Epoche nötig ist, wann sie begann und woran sie in der Natur zu erkennen sei.

Einen Entwurf stellten Zalasiewicz und Kollegen Anfang des Jahres im Fachmagazin „Quaternary International“ vor. Demnach sollen der Fallout von Atomwaffen, die seit 1945 gezündet wurden, sowie Plastikpartikel als „Leitfossilien“ der Menschenzeit gelten. Allerdings widerspricht die Datierung auf Mitte des 20. Jahrhunderts zahlreichen anderen Anthropozän-Konzepten. So sehen andere Forscher den Beginn der Industrialisierung als Auslöser, wieder andere halten den Beginn der Landwirtschaft für den Anfang des Anthropozäns. Zumindest dieses Argument kann von Stratigraphen rasch abgewiesen werden: Eine geologische Epoche muss um der Vergleichbarkeit willen weltweit etwa zur gleichen Zeit beginnen. Das ist beim Ackerbau nicht der Fall. In Nordostdeutschland begann die Bodenbearbeitung beispielsweise mehrere tausend Jahre später als in China.

Der von Lewis und Maslin `favorisierte Ansatz erfüllt ihrer Ansicht nach beide Kriterien, um den Stratigraphen gerecht zu werden. Erstens müssen tiefgreifende Veränderungen erkennbar sein und zweitens ist ein greifbares Datum vonnöten. Die Forscher argumentieren, dass nach dem Eintreffen der ersten Europäer in Amerika weltweit große Veränderungen auftraten: Globaler Handel begann, zahlreiche Tier- und Pflanzenarten wurden über Ozeane in bis dato unbekannte Gefilde gebracht und veränderten die Umwelt. Eine „Kollision der alten und neuen Welt“ nennen es Lewis und Maslin. Und sie haben dafür eine geologische Zeitmarke gefunden: den Rückgang des atmosphärischen Kohlendioxid-Gehalts, der in Eisbohrkernen für die Zeit um 1610 nachgewiesen wurde. Ursache dafür ist die um rund 50 Millionen Menschen schrumpfende Bevölkerung in Amerika nach dem Eintreffen der Europäer. Landwirtschaftsflächen blieben ungenutzt und nahmen Modellrechnungen zufolge massenhaft Kohlendioxid auf, wodurch der Gehalt des Gases in der Lufthülle zurückging.

Für Geologen eine entbehrliche Diskussion

Ob diese Jahreszahl als Beginn des Anthropozäns gelten wird, ja ob es überhaupt diese im geologischen Maßstab extrem kurze Epoche geben wird, ist offen. Es gibt zahlreiche Geoforscher, die der Idee noch nichts abgewinnen können. Bisher sind die Ablagerungen aus dieser hypothetischen Epoche zu gering, als dass sie ins Gewicht fielen. Wo sie lokal auftreten, werden sie bei Kartierungen längst als „anthropogene Ablagerung“ ausgewiesen, ohne dass dafür ein besonderer stratigrafischer Status nötig wäre. 

Phil Gibbard von der Universität Cambridge, der ebenfalls an der Anthropozän-Arbeitsgruppe beteiligt ist. Die Erde habe schon viele Katastrophen erlebt und sich jedes Mal davon erholt. Keiner wisse, wie sich die vermeintliche Epoche weiter entwickelt.

Das Anthropozän ist ein hochgepeitschtes Thema, auf das Politiker und Historiker anspringen. Für uns Geologen ist es entbehrlich“, sagt Manfred Menning vom Deutschen Geoforschungszentrum Potsdam. Er leitet die Deutsche Stratigraphische Kommission, die derzeit an einer neuen Zeittafel für die Schichten zwischen Zugspitze und Flensburger Förde arbeitet. Ob darauf auch das Anthropozän stehen soll, das war einer der Tagesordnungspunkte bei einem Treffen der führenden Stratigraphen in der vergangenen Woche, erzählt er. „Nein, wird es nicht, der Vorschlag wurde ohne weitere Diskussion einstimmig abgelehnt.“



Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Dienstag, 24. März 2015

Einsicht kommt vom Sehen.


aus Die Presse, Wien,17.03.2015

Beim Urteilen folgt das Gehirn den Augen
Was man länger sieht, gefällt einem besser, man wusste es vom Essen. Aber es gilt auch für Moralfragen.

Ob es um das Essen geht oder um den Einkauf, das Auge entscheidet mit, jeder Koch weiß es, und in jedem Supermarkt ist das, was man am wenigsten braucht und was am meisten kostet, dort platziert, wo es ins Auge sticht. Da hilft der Einkaufszettel oft nichts, die Emotion überrennt die Vernunft, und spätestens beim Heimschleppen des Gekauften muss man sich eingestehen, dass man nicht ganz so Herr im eigenen Haus ist, wie man sich das gern vormacht: Wir werden unterschwellig von der Umwelt gesteuert.

Das läuft über alle Sinne – wer etwas Kaltes in der Hand hält, verhält sich sozial kalt –, auch über das Auge. Nun ja, das mag im Alltagspraktischen so sein, beim Einkaufen, aber im Grundsätzlichen lassen wir uns doch vom Auge nichts dreinreden! Und wie! Psychologen um Philip Pärnamets (Lund) belehren uns eines Schlechteren: Sie haben Testpersonen ins Labor geladen und sie über moralische Fragen urteilen lassen, etwa darüber, ob „Lügen immer schlecht“ ist oder „Töten in manchen Fällen gerechtfertigt“ sein kann.

Ist Lügen übel? Je nach Augen-Blick!

Erst bekamen die Probanden die Fragen zu hören, dann sahen sie die alternativen Antworten auf einem PC, links stand etwa: „manchmal gerechtfertigt“, rechts: „nie gerechtfertigt“. Die Varianten waren verschieden lang zu sehen, die Augen schweiften hin und her, das wurde per Kamera dokumentiert. Dann wurde das Urteil abgefragt: Die Variante, die länger im Blick war, überwog, zugleich fiel das Urteil rascher und mit größerer Sicherheit. Das heißt, dass das Hin und Her der Augen und das des Urteilens im Gehirn zusammenhängen: Am Ende neigt man rational dorthin, wo man länger hingesehen hat.

In der erste Runde tauchten die Alternativen nach Zufall auf, in der zweiten bestimmten die Experimentatoren. Wieder wurde überwiegend das länger Gesehene gewählt: Die Zeit (der Augen-Blicke) entscheidet über die Inhalte (der Urteile). Das wusste man schon von der Wahl von Speisen: Man nimmt die, die man länger im Auge hat (Pnas, 16. 3.). „Der Prozess, in dem man zu einer moralischen Entscheidung kommt, kann durch den Blick der Augen determiniert werden“, schließt Pärnamets. Und sein Kollege Petter Johansson mahnt zur Wachsamkeit: „Schon heute sind alle möglichen Sensoren in Mobiltelefone eingebaut, sie können auch Augenbewegungen nachverfolgen. Damit haben sie das Potenzial, unsere Entscheidungen in einer Weise zu beeinflussen, wie es früher unmöglich war.“


Nota. - Wichtigkeit! Bei Hunden wird's der Geruchssinn sein, sie verbringen ja den halben Tag mit der Nase am Boden, bei Katzen vielleicht eher... das Gehör? Bei uns Menschen ist die Wahrnehmung unter allen Sinnen am engsten an die Augen gebunden: Seit wir uns auf die Hinterbeine gestellt haben, reichen wir mit der Nase nicht mehr tief, dagegen haben wir einen weiten Überblick - und einen Blickwinkel von ziemlich 360°! Ist es irgend verwunderlich und gar eine spezielle Untersuchung wert, dass unsere Ein- sichten weitestgehend von unsern Sichten abhängen? 

Viel geistreicher wäre es, darauf hinzuweisen, dass es sich - im Unterschied zu den meisten Tieren - um denjenigen Sinn handelt, von dem man noch am ehesten abstrahieren kann - und sei's nur, indem man die Augen schließt. Ein unangenehmer Ton, ein unangenehmer Geruch, ein unangenehmes Gefühl auf der Haut führt schnell zu körperlichem Unbehagen und kann nicht lange ausgehalten werden. An einen hässlichen Anblick dagegen kann man sich gewöhnen. Aber wenn die Augen dann doch mal eine starke körperliche Reaktion hervorrufen - Ekel, Abscheu, Mitleid, Empörung -, so sind es nicht die Sinnesempfindungen selbst, die sie bewirken, sondern der (geistige) Sinn, den wir ihnen beilegen.

Eigentlich handelt es sich um eine Untersuchung darüber, wie wenig unsere Urteile von unsern Sinnen geprägt sind.
JE




Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Sonntag, 22. März 2015

Deine Sprache lenkt deine Wahrnehmung.

Wir sehen Ereignisse anders, je nachdem, welche Sprache wir sprechen
aus scinexx

Wie Sprache unsere Wahrnehmung beeinflusst
Deutschsprachige sehen und kategorisieren Ereignisse anders als Englischsprachige

Ob wir Deutsch oder Englisch sprechen, beeinflusst, wie wir unsere Umwelt sehen. Im Deutschen fokussieren wir* eher auf das Ziel einer Handlung, im Englischen dagegen auf den Verlauf der Handlung selbst, wie ein Experiment belegt. Dieser Effekt zeigt sich sogar bei Zweisprachigen: Sie reagieren anders, ja nachdem, in welcher Sprache sie gerade denken und reden.

Sprache spielt eine wichtige Rolle dafür, wie wir unsere Umwelt wahrnehmen: Sie hilft uns dabei, Dinge zu kategorisieren, beeinflusst aber gleichzeitig auch, wie wir dies tun. Existiert beispielsweise für eine Farbnuance kein Wort, dann nehmen wir diese auch nicht bewusst als eigenen Farbton wahr. 

Sogar moralische Entscheidungen werden durch Sprache beeinflusst: Wenn wir ein moralisches Dilemma in einer Fremdsprache präsentiert bekommen, sind wir eher bereit, einen Menschen für das Gemeinwohl zu opfern als in unserer eigenen Sprache.

Die Sache mit der Verlaufsform

Panos Athanasopoulos von der Lancaster University in England und seine Kollegen wollten nun wissen, ob wir je nach Sprache auch Alltagsszenen anders wahrnehmen. Dafür verglichen sie deutsche, in Deutschland lebende Muttersprachler mit in Großbritannien lebenden englischen Muttersprachlern sowie zweisprachige Teilnehmer.

Der Grund dahinter: Im Englischen existiert eine explizite Verlaufsform des Verbs, die deutlich macht, dass etwas gerade dabei ist, zu geschehen. Meist wird durch das Anhängen der Endung "-ing" erreicht: "I was walking down the street". Im Deutschen und einigen anderen Sprachen gibt es eine solche Verbform jedoch nicht. "Deshalb neigen Sprecher dieser Sprache dazu, Endpunkte und Zeitangaben einer Handlung zu erwähnen, um die Abfolge klar zu machen", erklärt Athanasopoulos.

Mit oder ohne Ziel?

Für ihr Experiment zeigten die Forscher 15 rein englisch- oder rein deutschsprachigen Probanden und 30 zweisprachigen Teilnehmern jeweils drei Videoclips. In einem war eine Person zu sehen, die eine Straße entlang auf ein parkendes Auto zu lief, ihre Ankunft dort war aber nicht mehr zu sehen. Ob die Person daher wirklich auf dieses Ziel zu lief, blieb im Ungewissen.

Läuft der Mann einfach nur die Landstraße entlang oder geht er auf die Hütte zu?

Und genau das war der Knackpunkt: Die Forscher wollten wissen, ob die Sprache beeinflusst, wie zielorientiert wir die Handlung eines anderen einschätzen. Deshalb sah jeder Proband zum Vergleich zwei weitere Clips. Einer zeigte eine klar zielorientierte Handlung: Eine Person lief die Straße entlang und betrat dann ein Haus. Im anderen Clip sah man eine Person, die eine Landstraße entlang lief, ohne dass ein konkretes Ziel in der Nähe zu sehen war.

Deutschsprachige schauen auf das Ziel

Und tatsächlich: Je nach Sprache nahmen die Probanden die Testszene anders wahr: Deutschsprachige waren in 40 Prozent der Fälle der Meinung, die Person sei gezielt auf das parkende Auto zugelaufen. Bei den englischsprachigen Teilnehmer sahen dagegen nur 25 Prozent eine so zielgerichtete Handlung. Drei Viertel hatten einfach nur einen auf einer Straße entlanglaufenden Mann gesehen.

Interessant aber war das Ergebnis für die zweisprachigen Probanden: Denn diese reagierten je nach gerade gesprochener Sprache anders. Lief der Test in Englisch ab, reagierten sie wie englische Muttersprachler, wurde deutsch gesprochen, interpretierten sie das Gesehene ähnlich zielorientiert wie die Probanden, die nur Deutsch beherrschten.

Ein zweiter Test, bei dem jeweils eine Sprache durch eine Zusatzaufgabe – lautes Zählen – abgelenkt und blockiert wurde, ergab Ähnliches. Auch hier bestimmte die Sprache, in der die Probanden den Test absolvierten, wie sie das Gesehene wahrnahmen und kategorisierten. "Sie kategorisieren die EEreignisse entsprechend den grammatikalischen Rahmenbedingungen der jeweils gesprochenen Sprache", so Athanasopoulos.

Sprache beeinflusst Wahrnehmung

"Durch eine andere Sprache hat man auch eine andere Sicht der Welt", erklärt Athanasopoulos. Die Studie zeige, dass selbst bei alltäglichen Beobachtungen und in kurzen Zeiträumen die Sprache bestimmt, wie wir Wahrgenommenes kategorisieren. "Dies enthüllt, wie beeinflussbar die menschliche Wahrnehmung ist", so der Forscher.

In eine konkrete Situation übersetzt: Möchte man nach einem Raub von einem Zeugen wissen, wohin der Dieb gelaufen ist, sollte man ihn besser auf Deutsch befragen. Geht es aber darum, seinen Laufstil zu beschreiben, dann wäre Englisch vermutlich die bessere Wahl. (Psychological Science, 2015; doi: 10.1177/0956797614567509)

(Psychological Science, 18.03.2015 - NPO)

*) Im Deutschen fokussieren wir überhaupt nicht, im Englischen fokussieren sie. Im Deutschen sehen wir ab oder konzentrieren uns auf... Und spannend ist das nur für Journalisten und Sozialpädagogen.  


Nota. - Im Englischen überwiegen die Zeitwörter, im Deutschen die Nomina - im allgemeinen; das kann der Sprecher aber verändern. Interessant (allerdings nicht spannend) wäre ein Vergleich mit dem Franzö- sischen. Dort überwiegen die Nomina noch (viel) stärker; aber es gibt auch, wie in andern romanischen Sprachen, eine vielgebrauchte Verlaufsform.
JE








Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Dienstag, 17. März 2015

Dein Gedächtnis ist kein Buchhalter, sondern ein Redakteur.

aus nzz.ch, 17.3.2015, 15:20 Uhr

Gedächtnisforschung
Erinnern fördert Vergessen

von Lena Stallmach 

Ist das Vergessen ein passiver oder ein aktiver Prozess? Gedächtnisforscher sind sich diesbezüglich nicht einig. Während das eine Lager davon ausgeht, dass Erinnerungen einfach verblassen beziehungsweise durch neue überlagert werden, favorisiert das andere die Ansicht, dass irrelevante Erinnerungen gezielt gelöscht werden. Für die zweite Hypothese bringen Forscher nun einen Beleg anhand von bildgebenden Verfahren. Sie zeigen, dass das mehrmalige Abrufen einer Erinnerung das neuronale Muster einer konkurrierenden Erinnerung abschwächt

Störende Erinnerungen unterdrückt

Als Erstes testeten Maria Wimber von der University of Birmingham in Grossbritannien und ihre Kollegen das Gedächtnis von Probanden. Diese lernten jeweils zwei Gruppen von Bild-Wort-Paaren, wobei ein Wort jeweils mit zwei unterschiedlichen Bildern assoziiert werden musste: Beispielsweise das Wort Sand mit Marilyn Monroe im ersten Durchgang, im zweiten mit einem Hut. Danach wurde ein Teil der Wörter jeweils vier Mal genannt, wobei sich die Probanden nur das erste Bild möglichst detailliert in Erinnerung rufen sollten. Zusätzlich nannten sie auch die Kategorie des Bildes (Gesicht, Objekt oder Ort), damit die Forscher überprüfen konnten, ob sich die Probanden korrekt erinnerten. Anfangs funkte das zweite Bild oft dazwischen, dies geschah aber immer seltener. Eine halbe Stunde später konnten sich die Probanden schlechter an Details aus dem zweiten Bild, dem Störbild, erinnern im Vergleich zu Bildpaaren, bei denen keines der Bilder in Erinnerung gerufen wurde. Das mehrmalige Abrufen einer Erinnerung scheint demnach ähnliche, störende Erinnerungen aktiv zu hemmen.

Zu ähnlichen Ergebnissen waren zwar auch schon andere Forscher gekommen. Doch Wimber und ihre Kollegen gingen in ihrer Studie noch einen Schritt weiter, indem sie die Hirnaktivität der Probanden mit der fMRI untersuchten. In Hirnregionen, in denen visuelle Informationen verarbeitet werden, erzeugen verschiedene Bilder unterschiedliche Aktivitätsmuster. Die Forscher konnten zeigen, dass ein Wort anfangs noch die neuronalen Muster für beide Bilder aktivierte. Mit jedem Abrufen verschob sich die Aktivität allerdings in die Richtung des abgerufenen Bildes. Vor allem war das Aktivitätsmuster für das Störbild nach viermaligem Abrufen des richtigen Bildes schwächer als das Muster für ein Bild, das niemals gestört hatte.

Sinnvolles Vergessen

Bei dieser gezielten Unterdrückung von dazwischenfunkenden Erinnerungen scheinen Hirnregionen im Stirnhirn eine Rolle zu spielen, wie die Studie zeigt. Je stärker die neuronalen Muster der Störbilder gehemmt wurden, desto höher war die Aktivität in diesen Regionen.

Wimber geht davon aus, dass irrelevante Erinnerungen durch das regelmässige Abrufen von ähnlichen, wichtigen Erinnerungen irgendwann ganz gelöscht werden. Das sei auch sinnvoll, sagt sie. Wenn man einen neuen PIN-Code für ein Bankkonto habe, könne man den alten getrost vergessen. In anderen Situationen, etwa beim Lernen von zwei Fremdsprachen, von denen man die eine selten braucht, ist es dagegen weniger praktisch.

¹ Nature Neuroscience, Online-Publikation vom 16. März 2015.


Montag, 16. März 2015

Die Aufklärung im frühen Mittelalter.


aus Die Presse, Wien, 13.03.2015 | 18:49 |                                         Vivian-Bibel, Karl der Kahle zwischen Kriegern und Gelehrten 

Die Logik erhellte das Mittelalter
Gelehrte aller Religionen philosophierten auch im scheinbar finsteren, unwissenschaftlichen Mittelalter auf hohem Niveau, vor allem über Aristoteles' Logik.

von Ronald Posch

Aristoteles starb vor mehr als 2300 Jahren. Seine Philosophie jedoch nie: „Es ist irgendwie faszinierend, dass man heute noch von sich sagen kann, man sei Aristoteliker“, erklärt der Philosoph Christophe Erismann, der bereits in Lausanne, Genf, Paris und Helsinki forschte und mit seinem neuen Projekt an der Uni Wien tätig sein wird. Er erhält eine mit rund zwei Millionen Euro dotierte Förderung vom Europäischen Forschungsrat, kurz ERC. Erismann will im Projekt zeigen, dass sich im neunten Jahrhundert nach Christus Philosophen im gesamten Mittelmeerraum – unabhängig von ihrer Religion – mit der antiken Geisteswelt beschäftigten. Vor allem die Logik des Aristoteles beeinflusste ihr Denken.

„Der Glaube der Gelehrten hat ihre Fähigkeit zu philosophieren nicht geschwächt oder gar verlöschen lassen, sondern im Gegenteil oft stimuliert“, sagt Erismann. Gerade die Logik sei seit der Spätantike häufig in religiösen Kontroversen angewendet worden, etwa um die Richtigkeit der einen oder anderen Position nachzuweisen. Im Mittelalter gab es keine Alternative zur aristotelischen Logik, weshalb sich die griechisch-bzyantinische, lateinische, syrische und arabische Geisteswelt mit ihr beschäftigte.

Erisman will das unter anderem am Beispiel von drei Gelehrten des neunten Jahrhunderts nachweisen. Johannes Scottus Eriugena war ein christlicher Theologe. Der in Irland geborene Gelehrte forschte in Laon und Reims im heutigen Frankreich zur Zeit Kaiser Karls des Kahlen (843 bis 877 n. Chr.). Patriarch Photius von Konstantinopel knüpfte in seinen Schriften zur gleichen Zeit an die antiken Gelehrten an. Abū Yūsuf Ya‘qūb ibn Isāq al-Kindī beschäftigte sich als erster Araber mit den antiken griechischen Ideen. Er gilt als Begründer der arabischen Philosophie. Erismann will herausfinden, wie die Logik die Traditionen dieser Gelehrten verbindet, wie sie sich unterscheidet und ob sie zum Austausch zwischen ihnen anregte.

Was Erismann jetzt schon weiß, ist, dass die Geistesgeschichte des neunten Jahrhunderts die damaligen politischen Mächte unter einem anderen Blickwinkel erscheinen lässt. Das Jahrhundert biete ein positives Beispiel für Wissenschaftsförderung: „Wenn das neunte Jahrhundert ein Zeitalter des intellektuellen Wetteiferns war, so war es das auch dank der damaligen Mächte, die dies unterstützten. Anhand des historischen Beispiels lässt sich gut über die Bedeutung der Förderung der Wissenschaften nachdenken.“ Die Geisteswissenschaften spielten eine große Rolle, obwohl die Zeit politisch instabil war.

Intellektuelle Welt erblühte im Krieg

Damals teilte sich das Reich Karls des Großen auf. Die Söhne des großen Königs stritten sich darum. Es zerfiel nach schweren Konflikten in drei Teile, wobei Karl der Kahle die westlichen Reichsteile – das schon im Kleinen die Umrisse des heutigen Frankreichs zeigte – beherrschte. Das Byzantinische Reich erlitt schwere militärische Niederlagen gegen die Bulgaren, aber vor allem gegen die Araber. Es verlor etwa die Inseln Kreta und Sizilien an muslimische Truppen.

In der muslimischen Welt beherrschten die Kalifen der Abbasiden-Dynastie ein Gebiet, das von Nordafrika bis Zentralasien reichte. Sie führten ständig Krieg. Zudem plünderten und handelten die Wikinger entlang von Küsten und Flüssen in ganz Europa. Doch in dieser politisch instabilen, finsteren Zeit erhellte die Logik die Welt rund um das Mittelmeer.

„Im neunten Jahrhundert blüht die intellektuelle Welt auf. Es fand eine Erneuerung der Wissenschaften statt“, erklärt Erismann. Sowohl das Reich von Karl dem Kahlen als auch Byzanz und das abbasidische Kalifat „durchlebten eine bemerkenswerte Phase intellektuellen Schaffens und eine intensive Übersetzungs- und Kopiertätigkeit antiker Texte“. Wir verdanken es den Kopien dieser Zeit, dass wir die antiken Schriften heute noch lesen können. Sie wären sonst verloren gegangen.

Im Mittelmeerraum gibt es trotz unterschiedlicher Religionen eine gemeinsame Denktradition. Oft wird das heute, scheinbar absichtlich, verdrängt: „Ohne die Vergangenheit idealisieren zu wollen, kann man sich vorstellen, dass die gebildeten Eliten der verschiedenen Kulturen die gleichen Texte lasen und sich somit gewissermaßen besser verstanden“, sagt Erismann. Heute fände sich kein einziges vergleichbares Buch, das von allen Europäern und Völkern des Mittelmeerraumes gelesen werde.


Die Logik erklärt die Gesetze des Denkens. Der vollständige altgriechische Begriff lautet übersetzt „Kunst des Denkens“. Es gilt, die folgerichtigen Schlüsse aus Argumenten zu ziehen. Im Mittelalter war die Logik nicht nur eine Sprachwissenschaft, sondern auch eine umfassende Erforschung der Dinge in ihren Beziehungen zueinander. Die Logik ermöglicht es, sich die Frage zu stellen, ob alles für sich existieren kann oder nicht. Wenn Aristoteles sagt: „Der Apfel ist rot“, dann bedeutet das in seiner Logik, dass der Apfel selbstständig existiert und die Röte seine Qualität beschreibt.


Nota. - Das finstere Mittelalter ist eine Erfindung der europäischen Aufklärung des 17. und 18. Jahrhunderts, die ihren Hauptgegner in der römischen Kirche sah. Da war das Bild der Kirche als Bewahrer und Pflege der antiken Bildung nicht populär. Das zu korrigieren ist schon recht. Aber man muss es nicht gleich übertreiben. Denn wenn in der Logik Aristoteles die unbestrittene Autorität war, herrschte im Reich der Weltanschauung zumindest in der christlichen Welt ebenso unangefochten die platonische Ideenlehre, oder vielmehr ihre neuplatonische Radikalisierung. Erst mit dem Universalienstreit des 13. Jahrhunderts erfuhr Aristoteles - übrigens vor allem unterm Einfluss seines arabischen Kommentators Averroes (der in den islamischen Ländern wenig Beachtung fand, weil dort die antike Bildung schon wieder in Verruf war) - einen Sieg über Plato. Aber er bescherte der Scholastik auf die Dauer ihre heute sprichwörtliche sterile Spitzfindigkeit. Um der Bildung im Abendland einen neuen Schub zu geben und um eigentlich die Wissenschaft in die Welt zu setzen, war es dann wieder notwendig, dass Galileo ausdrücklich auf... Plato zurückgriff, und gerade auf die Ideenlehre...
JE

Freitag, 13. März 2015

Können Computer sehen?

aus Der Standard, Wien, 4. 3. 2015

"Bis zum Schluss herauskommt: Pferd, ja oder nein"

INTERVIEW ALOIS PUMHÖSEL

Der Informatiker Thomas Pock nimmt das Gehirn zum Vorbild, um Computern das Sehen beizubringen

STANDARD: Wenn der Computer ein Gesicht als Gesicht erkennen soll, welche Regeln muss er dabei befolgen?

Pock: Grundsätzlich muss er wissen, aus welchen Teilen ein Gesicht besteht. Augen, Nase, Mund sind charakteristische Merkmale, die der Computer recht gut erkennen kann. Wichtig ist die relative Position der Merkmale zueinander. Die Kunst ist, die große Vielfalt von Gesichtern zu erfassen. Wenn man Gesichter von älteren Personen, Kindern, größere, kleinere Gesichter, nah bei der Kamera oder weiter weg, schief gedrehte Gesichter erkennen will, wird es sehr schwierig. Die Algorithmen müssen auf der einen Seite feine Details unterscheiden und auf der anderen aber auch große Variabilität zulassen können.

STANDARD: Welche mathematischen Werkzeuge benutzen Sie, um Computern das Sehen beizubringen?

Wir stellen Objekte mit allen dazugehörigen Merkmalen als Datenpunkte in einem höherdimensionalen Raum, einem sogenannten Feature-Raum dar. Will man dem Computer beibringen, ein Gesicht zu erkennen, muss man jenen Unterraum, der aus den Gesichtern geformt wird, möglichst einfach beschreiben können. In vielen Anwendungen wird aber einfach eine sogenannte Hyperebene berechnet, die bei allen wahrgenommenen Strukturen Gesichter von Nichtgesichtern trennt. So ein ähnliches Konzept ist heutzutage praktisch in jeder Digitalkamera verbaut. Komplexere Algorithmen versuchen aber, noch viel genauere Unterscheidungen zu treffen.

STANDARD: In Ihrer Arbeit orientieren Sie sich am menschlichen Sehvermögen, um Bildverarbeitungsalgorithmen zu verbessern. Wie können Erkenntnisse aus Medizin und Psychologie nützlich sein?
In den Neurowissenschaften ist man sich noch uneinig, wieweit die Architektur des Gehirns bereits bei der Geburt vorgegeben ist. Die einen sagen, die Nervenzellen strukturieren sich erst mit den Lernprozessen zu Netzwerken. Die anderen sagen, dass viele Strukturen bereits feststehen und dass man tatsächlich relativ wenig dazulernt. Psychologische Experimente mit kleinen Kindern zeigen, dass das visuelle System des Menschen aus verschiedenen Grundelementen besteht. Bei den Design-Entscheidungen, die ich beim Aufbau eines mathematischen Bilderkennungsmodells zu treffen habe, orientiere ich mich ganz stark an diesen Grundelementen. Besonders ist hier die auf Max Wertheimer zurückgehende Gestaltpsychologie ein Vorbild. Sie untersucht, wie der Mensch Strukturen aus seinen Wahrnehmungen ableiten kann.
STANDARD: Welche Grundelemente des visuellen Systems des Menschen sind es, die Sie sich abschauen wollen?
Wenn man eine Kontur eines Objekts hat, die unterbrochen ist, dann ergänzt das menschliche Gehirn das Fehlende automatisch. Ein sehr einfaches Beispiel wäre ein Dreieck, das man auf den ersten Blick erkennt, selbst wenn nur die drei Spitzen vorgezeichnet sind. Man kann relativ komplexe Figuren erkennen, auch wenn davon nur wenige Punkte oder Kanten vorgegeben sind. Diesen Prozess kann man mathematisch sehr schön erklären.
STANDARD: Wie kann man diese Fähigkeit in einen Algorithmus fassen?
Dieses Schließen der Kontur, die das menschliche visuelle System leistet, verhält sich so, als würde man die offenen Enden mit einem elastischen Stab verbinden. Das kann man mit einer berühmten Gleichung Leonhard Eulers, der sogenannten Euler'schen Elastika, berechnen. In meinem Forschungsteam, das ich mit dem ERC Starting Grant aufbaue, geht es genau darum: Wie kann man grundlegende Designs von biologischen visuellen Systemen in mathematische Rechenmodelle umsetzen, die man auch ohne zu großen Aufwand lösen kann?
STANDARD: Es gibt zufällige Strukturen, die man fälschlicherweise als eine bestimmte Gestalt wahrnimmt. Auch das menschliche Auge täuscht sich manchmal. Wie verhindert man Fehleinschätzungen des Computerauges?
Es gibt zwei Prozesse, die beim Sehen im menschlichen Gehirn ablaufen: Zum einen ein Bottom-up-Prozess, bei dem die Einzelteile zusammengesucht werden, um eine Gestalt zu erkennen. Dann gibt es aber auch noch einen Top-down-Prozess, der mir vorgibt, was ich zu erwarten habe. Ist es realistisch, in dieser Situation ein Pferd zu sehen? Erst wenn die beiden Prozesse Übereinstimmung finden, dann sieht der Mensch ein konkretes Objekt. Um das zu illustrieren, präsentiere ich in meinen Vorlesungen den Studierenden spezielle Bilder, die auf den ersten Blick wirr erscheinen. Für viele ist ihr Inhalt erst erkennbar, wenn ich mündlich Hinweise gebe, also Kontext für den Top-down-Prozess liefere.
STANDARD: Was heißt das auf den Computer umgelegt?
Das ist die große Frage. Wie kann ich alle möglichen Inhalte, die das Computerauge sehen könnte, möglichst wenig komplex beschreiben? Wie kann ich ein Pferd in all seinen möglichen Ausformungen abspeichern? Es ist unglaublich, was das Gehirn in dieser Hinsicht leistet, und noch unklar, wie das genau funktioniert. Wahrscheinlich wird ein hierarchisches System angewandt. Das heißt, die Bildinformation wird immer wieder auf verschiedene Strukturen hin gefiltert. Die Bildinformation wird so lange reduziert, bis zum Schluss herauskommt: Pferd, ja oder nein.
STANDARD:Wie weit sind diese Prozesse bereits rekonstruierbar?
Bei der Gestaltfindung weiß man, wie es funktionieren kann. Wir arbeiten an der Umsetzung der Euler'schen Elastika für das Erkennen einer Gestalt und konnten zeigen, dass man ein Objekt viel einfacher mathematisch beschreiben kann, indem man das Bild in einen höherdimensiona- len Raum einbettet. Bildverarbeitungsprobleme kann man so viel besser lösen. In meinem ERC-Projekt geht es darum, beide Prozesse in einem Framework darstellen zu können.
STANDARD:Sie beschäftigen sich im Rahmen Ihrer Professur auch mit Mobile Vision, also Bildverarbeitung etwa am Smartphone. Welche Anwendungen könnte das bringen?
Es geht um alle Anwendungen, bei denen sich die Kamera selbst auch mitbewegt. Ein Handy kann in zehn Jahren vielleicht Szenen interpretieren. Sie schalten die Kamera ein, und das Gerät wird die Umgebung dreidimensional rekonstruieren. Es wird sagen: Das ist eine Bank, das ein Auto, das ein Mensch. Es wird auch Menschen erkennen, deren Bild Sie abgespeichert haben. Ein anderer Anwendungsfall wäre, die Fahrassistenzsysteme, die in Oberklassewagen das richtige Verhalten des Lenkers überwachen, in ein Smartphone zu packen.
STANDARD: Beschäftigen Sie sich auch mit den gesellschaftlichen Folgen der Technik, die bekanntlich auch zu unerwünschter Überwachung eingesetzt werden kann?
Ich mache mir viele Gedanken darüber. Wenn ich einmal älter werde, möchte ich persönlich nicht von einem Roboter gepflegt werden. Ich halte ein wachsames Auge darauf, dass ich nicht in eine Richtung abdrifte, mit der ich die totale Überwachung begünstige. Ich selbst sehe mich als Grundlagenforscher, der noch viel mit Papier und Bleistift arbeitet. Ich will einfach auf einer elementaren Ebene das Sehen verstehen. Die möglichen Anwendungen stehen weniger im Vordergrund.   




THOMAS POCK (36) vom Institut für Maschinelles Sehen und Darstellen der TU Graz erhielt 2014 für das Projekt Homovis (High-level Prior Models for Computer Vision) einen ERC Starting Grant. Die renommierte Auszeichnung soll exzellente Wissenschafter in einem frühen Karrierestadium unterstützen. Pock hält eine Stiftungsprofessur, die gemeinsam von der TU Graz und vom AIT (Austrian Institute of Technology) geschaffen wurde. Am AIT ist er in diesem Rahmen als Principal Scientist im Forschungsbereich Intelligent Vision Systems tätig. Pock ist verheiratet und Vater von vier Kindern.



Donnerstag, 12. März 2015

Gedächtnis.

Hummeln können sich Standort, Geruch, Muster und Farbe vieler verschiedener Blüten merken.aus nzz.ch, 3.3.2015, 16:44 Uhr

Gedächtnisforschung
Hummeln fabrizieren falsche Erinnerungen

lsl. ⋅ Hummeln sind ziemlich intelligente Tiere. Sie haben ein gutes Gedächtnis für den Standort, den Geruch, die Farbe und die Musterung von vielen verschiedenen Blüten. Aber wie Menschen können sie sich auch einmal irren, wie eine Studie nun zeigt. Demnach neigen Dunkle Erdhummeln dazu, gelernte Informationen zu vermischen, wobei eine falsche Erinnerung entsteht .¹

Erinnerungen verschwimmen

Forscher unter der Leitung von Lars Chittka von der Queen Mary University of London trainierten die Hummeln auf künstliche Blüten, gelbe und solche mit schwarz-weissen, konzentrischen Kreisen. In einem Versuch gab es erst in der Mitte der schwarz-weissen Blüten immer einen Tropfen Nektar, später wurden die Hummeln aber nur noch bei den gelben Blüten fündig. Dabei lernten sie zuverlässig, dass nur noch die gelben Blüten erfolgversprechend waren, und flogen diese jeweils als Erstes an.

Nach dem Training stellten die Forscher aber zusätzlich zu den schwarz-weiss gestreiften und gelben auch noch gelb gestreifte Blüten auf. Die neuen Blüten vereinten also die Merkmale der beiden anderen. Doch die Hummeln liessen sich davon zunächst nicht beirren. Kurz nach dem Training versuchten sie es mehrheitlich als Erstes bei den gelben Blüten. Doch ein bis drei Tage später änderte sich ihr Verhalten. Zwar flogen sie in den ersten fünf Versuchen auch vor allem die gelben Blüten an, nachher verlegte sich ihre Präferenz aber auf die gelb gestreiften Blüten – obwohl sie bei diesen noch nie fündig geworden waren. Offensichtlich vermischten sie die Merkmale, die früher einmal erfolgversprechend waren.

Irren ist menschlich

Eine Vermischung von Informationen aus verschiedenen Erinnerungen im Langzeitgedächtnis passiert auch Menschen relativ oft. Deshalb sind Zeugenaussagen, die mit einem gewissen Abstand zum Tathergang aufgenommen werden, fehleranfällig. Chittka vermutet, dass die Vermischung aufgrund der Kategorisierung von Informationen geschieht, bei Hummeln etwa nach Muster oder Farbe. Würde jede Erinnerung detailliert abgespeichert, brauchte das laut Chittka zu viel Speicherplatz. Durch die Kategorisierung könne man sich zwar mehr merken, aber manchmal leide darunter die Qualität.

Nota. - Einer meiner Lieblingssprüche lautet: Intelligenz ist Gedächtnis plus Humor. Wobei Gedächtnis im Wesentlichen unser animalisches Erbe und Humor unsere spezifisch menschliche Zutat ist. Aber das Gedächtnis ist fehlbar, von Natur aus, denn je mehr gespeichert wird, umso mehr kann man verwechseln. Der Humor kommt danach, nachdem das Gedächtnis seine Arbeit getan hat; denn er betrifft die Verbindung der - getrennt - Erinnerten, das macht ihn produktiv: zusammenfügen, was nicht passt, und einander verfremden, was einander allzu vertraut ist. - Wär es aber möglich, dass sich der nachgeborene Humor in das Anlegen der Gedächtnisspuren selbst einmischt und Erinnerungen durch Paradox und Verfremdung auszeichnet und hervorhebt? So dass man Intelligenz weniger als eine kognitive Funktion denn als eine Charakterfrage ansehen sollte...?
JE

Dienstag, 10. März 2015

Wilhelm Windelband.


institution logo 
Der Heidelberger Philosoph Wilhelm Windelband

Marietta Fuhrmann-Koch
Kommunikation und Marketing
Ruprecht-Karls-Universität Heidelberg

Aus Anlass des 100. Todestages ist dem Heidelberger Philosophen Wilhelm Windelband (1848 bis 1915) ein internationales Symposium an der Ruperto Carola gewidmet, zu dem das Philosophische Seminar vom 12. bis 14 März 2015 einlädt. Erwartet werden 15 Referenten aus dem In- und Ausland. Die Tagung verfolgt das Ziel, eine Bestandsaufnahme der wissenschaftshistorischen Rolle Windelbands vorzunehmen und die Bedeutung, Wirkungsgeschichte und Aktualität seines philosophischen Werks zu erschließen.

Pressemitteilung
Heidelberg, 6. März 2015

Der Heidelberger Philosoph Wilhelm Windelband

Tagung beschäftigt sich mit dessen wissenschaftshistorischer Rolle und der Aktualität seines Denkens

Aus Anlass des 100. Todestages ist dem Heidelberger Philosophen Wilhelm Windelband (1848 bis 1915) ein internationales Symposium an der Ruperto Carola gewidmet, zu dem das Philosophische Seminar vom 12. bis 14. März 2015 einlädt. Erwartet werden 15 Referenten aus dem In- und Ausland. Die Tagung verfolgt das Ziel, eine Bestandsaufnahme der wissenschaftshistorischen Rolle Windelbands vorzunehmen und die Bedeutung, Wirkungsgeschichte und Aktualität seines philosophischen Werks zu erschließen.

Um die Wende zum 20. Jahrhundert galt Windelband noch als einer der wichtigsten Philosophen in Deutschland, der mit zahlreichen Gelehrten in Europa (wie Henri Bergson oder Benedetto Croce) und Amerika (etwa mit Josiah Royce) in engem Kontakt stand. „Heutzutage dagegen ist Wilhelm Windelband in der Fachwelt allenfalls für seine Unterscheidung der ideographischen und nomothetischen Methode bekannt, auf die er den Unterschied zwischen den Geistes- und den Naturwissenschaften zurückzuführen versuchte, sowie durch sein in zahlreichen Auflagen gedrucktes und immer noch verwendetes Lehrbuch zur Geschichte der Philosophie“, betonen die Organisatoren des Symposiums Prof. Dr. Peter König und Privatdozent Dr. Oliver Schlaudt vom Philosophischen Seminar der Universität Heidelberg.


Der große Einfluss Wilhelm Windelbands, der auch Gründungsmitglied der Heidelberger Akademie der Wissenschaften war, lässt sich nicht zuletzt an seinen Schülern ablesen, zu denen Heinrich Rickert, Georg Jellinek, Georg Simmel, Max Weber, Ernst Troeltsch, Emil Lask und Albert Schweitzer gehörten. „Im Unterschied zu anderen Vertretern des Neukantianismus, denen sich die Forschung in den letzten Jahren mit wachsendem Interesse zuwandte, wurde Windelband bislang, von einigen Ausnahmen abgesehen, keine große Aufmerksamkeit zuteil, und dies obwohl er auch als philosophischer Schriftsteller von überraschender Vielfältigkeit und Originalität war“, so die Veranstalter.

Kontakt:
Prof. Dr. Peter König
Philosophisches Seminar
Tel. +49 174 6587201
p.koenig@urz.uni-heidelberg.de

Kommunikation und Marketing
Pressestelle
Tel. +49 6221 54-2311
presse@rektorat.uni-heidelberg.de

http://www.philosophie.uni-hd.de/windelband_programm.html

Montag, 9. März 2015

Vertrauen ist kopfig und nicht bauchig.

aus scinexx

Vertrauen zeigt sich in unserer Gehirnstruktur
Forscher weisen deutliche Unterschiede in zwei Gehirnregionen nach

Wie vertrauensvoll wir sind, zeigt sich in unserem Gehirn: Zwei Hirnareale sind unterschiedlich stark ausgeprägt, je nachdem ob wir eher zu den misstrauischen oder zu den leicht vertrauenden Menschen gehören, wie eine Studie nun zeigt. Die Erkenntnisse können auch helfen, neue Therapiemethoden für Autismus und ähnlich psychische Leiden zu entwickeln, berichten die Forscher im Fachmagazin „NeuroImage“. Vor allem der präfrontale Cortex weist bei vertrauensvollen Menschen vergrößerte Strukturen (gelb, s. o.) auf.

In der Beziehung, bei der Arbeit oder in der Politik - Vertrauen ist eine wichtige Komponente des menschlichen Zusammenlebens. Schon das Lächeln eines Gegenübers hilft uns, Situationen und Personen richtig einzuschätzen. Bei einigen psychologischen Leiden wie dem Autismus fehlt Betroffenen oft diese soziale Fähigkeit. Wie verschiedene Hirnareale mit Vertrauen in Verbindung stehen, konnte jedoch bisher noch nicht gezeigt werden.

Vertrauensvolles Verhalten im Test

Brian Haas und seine Kollegen von der University of Georgia in Athens ermittelten daher in einer aktuellen Studie, wie Gehirnstruktur und Vertrauen zusammenhängen. Sie untersuchten bei 82 gesunden Probanden die Tendenz, anderen zu vertrauen – oder eben nicht.

Zum einen füllten die Teilnehmer einen Fragebogen aus, in dem sie selbst einschätzen sollten, wie vertrauensvoll sie sind. Hier sollten sie auch eine Reihe bewusst ausdrucksloser Gesichter als vertrauenswürdig oder nicht bewerten. Dieser Part ermöglichte den Forschern eine Einschätzung, zu welchem Verhalten die jeweiligen Probanden tendieren. Im zweiten Teil wurden deren Gehirne mit Hilfe eines Magnetresonanztomographen (MRT) gescannt. Die Ergebnisse aus der Befragung und dem Scan wurden anschließend miteinander abgeglichen.

Gehirnareale vergrößert

Und tatsächlich: Die Forscher fanden Unterschiede in zwei Hirnarealen, je nachdem wie vertrauensvoll die Probanden waren. Es zeigte sich vor allem, dass die graue Substanz in einem Teil des präfrontalen Cortex‘ bei den Leuten voluminöser war, die zu mehr Vertrauen neigten. Dieser Bereich im Gehirn gilt als Steuerzentrale für Entscheidungen und wird auch gebraucht, um soziale Anerkennung zu bewerten.

„Für eine Gehirnregion namens Amygdala konnten wir weitere Funde beobachteten“, sagt Haas. Diese Region ist besonders bedeutend für die Gefühlsverarbeitung. „Wenn etwas für uns emotional wichtig ist, hilft uns die Amygdala, es zu codieren und zu erinnern“, erklärt der Studienleiter. Wie sich zeigte, war dieses Areal vor allem bei den Extremen auffällig: Er war sowohl bei denjenigen Teilnehmern vergrößert, die besonders vertrauensvoll waren, als auch bei denen, für die dies gar nicht zutraf.

Funde bieten mögliche Therapieansätze

Nach Ansicht der Forscher könnten diese Ergebnisse auch bei der Behandlung von einigen psychologischen Krankheiten helfen. So fällt es beispielsweise Autisten schwer, die Welt in gesellschaftlicher Hinsicht zu verstehen und auch, Menschen zu vertrauen „Wir haben nun Belege dafür, dass diese Gehirnregion für das Vertrauen wichtig sind und wenn wir verstehen können, wie diese Unterschiede mit spezifischen sozialen Prozessen zusammenhängen, können wir vielleicht gezieltere Behandlungsmethoden für Menschen entwickeln, die Defizite in der sozialen Wahrnehmung haben.“ Weitere Studien könnten darauf abzielen, ob und wie Vertrauen verbessert werden kann, meint Haas. Außerdem sei es interessant, ob das Gehirn bezüglich der Kommunikation, die jemand mit anderen hat, veränderbar ist. (NeuroImage, 2015; doi: 10.1016/j.neuroimage.2014.11.060)

(University of Georgia, 09.03.2015 - MAH)


Nota. - Und niemals vergessen: Hier ist die Rede nicht von Determinanten, sondern von - mehr oder weniger günstigen - Bedingungen. Was ein Individuum im Laufe seines Lebens daraus macht, ist eine ganz eigene Geschichte.
JE