Mittwoch, 13. April 2016

Die Apokalypse.

aus nzz.ch,

Die Geschichte des Weltuntergangs   
Der Tag des Herrn, der Tag des Zorns 
Die christliche Vorstellung eines bevorstehenden Weltendes hat das Abendland mitgeprägt – sie ist bis heute virulent, wie der Historiker Johannes Fried in einem neuen Buch zeigt.

von Michael Stallknecht



Könnte man ein Fieberthermometer in die Welt stecken, es wäre die abzulesende Temperatur jüngst wohl um einige Grad gestiegen. Weltmächte begegnen einander wieder mit militärischen Drohgebärden, Migrationsbewegungen nehmen ungeahnte Ausmasse an, das globale Finanzsystem steht auf der Kippe. Dazu läuft das schon länger bekannte Hintergrundprogramm: drohende Klimakatastrophe, besorgniserregende Pandemien, Angst vor der genetischen Veränderung des Menschen . . . Die gute alte Erde mache es nicht mehr ewig, liess sich unlängst der Physiker Stephen Hawking vernehmen. Wir sollten vorsichtig umgehen mit ihr – bis wir technologisch so weit seien, ins Weltall auszuwandern.


Naherwartungen

«Der folgende Essay ist ein Symptom unserer Zeit» – so beginnt, recht nüchtern, Johannes Fried sein neues Buch über ein alles andere als nüchternes Thema: den Weltuntergang, den Tag des Herrn, den «Tag des Zorns», den «Dies Irae», wie die katholische Totenliturgie ihn bis 1970 kannte und nannte. Die Apokalypse war und ist bis heute, so die faszinierende Grundthese des Mittelalterhistorikers, eine christliche Angelegenheit. Zwar sieht Fried beispielsweise im Hinduismus Vorstellungen einer zyklischen Erneuerung der Welt verbreitet, zwar spreche auch der Koran von einem Weltengericht. Aber nur das Christentum habe, inspiriert von Teilen der jüdischen Prophetie und vor allem von der Katastrophe der Zerstörung des Jerusalemer Tempels im Jahr 70 n. Chr., die Idee eines finalen Weltenbrands entwickelt. Befragt man Überlebende der Atombombenabwürfe von Hiroshima und Nagasaki nach ihren Erinnerungen, dann verwenden sie interessanterweise nicht das Wort, das durchschnittlichen Menschen im Westen schon in Anbetracht weit weniger schrecklicher Ereignisse einfällt: «apokalyptisch».

Dass mit dem Untergang bald oder sehr bald zu rechnen sei, prägte in Europa das Lebensgefühl über Jahrhunderte hinweg. Anlass zur Resignation, wie man meinen könnte, bot es in einer christlichen Perspektive allerdings nicht. Was galt es nicht alles an Gutem zu tun, um sich und andere auf das grosse Finale vorzubereiten; was nicht alles an Busse, um es vielleicht doch noch ein wenig hinauszuzögern.
Bei Fried erweist sich das vorgestellte Weltende als kultureller Antriebsfaktor ersten Ranges, verdanken doch zentrale Umbrüche wie etwa die Reformation ihre Schubkraft einer unmittelbaren Naherwartung des Jüngsten Gerichts. Martin Luther erblickte im Papst keineswegs nur metaphorisch den Antichrist, der laut Neuem Testament der endgültigen Wiederkunft Christi vorausgehen werde. Andere Gruppen wie die Wiedertäufer beriefen sich auf Bibelstellen, laut denen dem Weltenbrand tausend Jahre eines friedlichen irdischen Wohlstands vorgeschaltet sein würden. Von da ist es zu den Sozialutopien des 19. und 20. Jahrhunderts nicht mehr weit. Indem Fried souverän die Grenzen des eigenen Fachs überschreitet, macht er zugleich einmal mehr die Sinnlosigkeit der Annahme deutlich, es gebe eine regelrechte Epochenschwelle zwischen Mittelalter und Neuzeit. Dass viele Naturwissenschaften ihre Fortentwicklung im Mittelalter der Sorge um das Ende verdanken, hatte Fried schon vor einigen Jahren in seinem Werk «Aufstieg aus dem Untergang» (2001) dargelegt. Gerade weil man «weder Tag noch Stunde» wissen konnte, wie es im Matthäusevangelium heisst, galt es die kosmischen Zeichen zu deuten, die dem Tag des Herrn vorausgehen sollten. Das verschaffte nicht nur der Astrologie, sondern auch der Astronomie gewaltigen Auftrieb, regte Zeitrechnung und Kalenderwesen an.

Doch dreht Fried im neuen Buch die Schraube um eine entscheidende Windung weiter. Nicht nur habe die Religion ihre eigene Säkularisierung befördert, so die These, sondern die Naturwissenschaften seien – in umgekehrter Perspektive betrachtet – auch bis heute von christlichen Deutungsmustern geprägt. Wenn Wissenschafter vor Klimakatastrophe oder Überbevölkerung warnten, erscheine uns das Ende nicht weniger nahe als den Menschen des Mittelalters. – Und wie damals gilt es heute möglichst alles zu tun, um die Katastrophe noch ein wenig aufzuschieben. Millionen werden investiert, um herauszufinden, ob die Erde bald mit einem Asteroiden zusammenstossen könnte oder das Universum weiter expandieren wird.

Kulturelles Unterbewusstsein

Mag die Theologie seit der Aufklärung die Beschäftigung mit der Wiederkunft Christi allmählich aufgegeben haben, so kehren die alten Ängste in einer merkwürdigen Dialektik der Aufklärung doch umso sicherer zurück: «Der kulturelle Habitus apokalyptischer Erwartungen verlässt den ‹Westen› nicht.»

Damit möchte der Historiker natürlich nicht die Ergebnisse moderner Forschung bestreiten, und die Realität möglicher Untergangsszenarien ist ohnehin nicht sein Thema. Nur sieht er im christlich geprägten Westen bis heute «eine versteckte, doch unstillbare Sehnsucht nach dem Ende» am Werk, die gerade von der Populärkultur immer wieder aufs Neue befeuert werde. Kein Jahr ohne Kinofilme, in denen die Welt untergeht oder von guten Menschen gerade noch gerettet wird. Verändert hat sich laut Fried dabei nur, dass der Mensch, der Gott nicht mehr als Schöpfer sieht, sich nun die Verantwortung für das Ende in der Regel selbst zuschreibt. Wie alles andere ist so auch die Apokalypse «technischer, messbarer und umfassender geworden, uns näher gerückt, eingebunden in die Komplexität der globalisierten Welt, von Menschen hervorgebracht». Doch das kulturelle Gedächtnis prägt die Formen, in denen wir uns selbst beschreiben. Oder sollte man hier schon von einem «kulturellen Unterbewusstsein» sprechen?

Solche geschichtstheoretischen Überlegungen liessen sich vielfach an Frieds Durchgang durch zweitausend Jahre Weltuntergang anschliessen. Der Autor selbst lässt Deutungen eher implizit mitschwingen, als sie dem Leser aufzudrängen. Erst recht bleibt er mit Wertungen vorsichtig, als verordne er sich angesichts seines Alarmismus-trächtigen Themas eine Extraportion Zurückhaltung. Das sorgt auch dafür, dass sich nicht jede Wendung der anschaulich geschriebenen Darstellung unmittelbar erschliesst, dass mancher Satz zunächst abzuschweifen scheint. Bis der Leser nach und nach verstanden hat, dass er an einem faszinierenden Freiflug teilnimmt, der eine neue Perspektive auf die europäische Ideengeschichte eröffnet.

Johannes Fried: Dies Irae – Eine Geschichte des Weltuntergangs. C. H. Beck, München 2016. 352 S., Fr. 38.90.





Nota - Obige Bilder gehören mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und ihre Verwendung an dieser Stelle nicht wünschen, bitte ich um Ihre Nachricht auf diesem Blog. JE

Dienstag, 12. April 2016

Mathematiker haben andere Gehirne.

aus scinexx

Mathematikern ins Gehirn geblickt
Spezielles Mathe-Netzwerk aus verknüpften Hirnarealen existiert nur bei Mathe-Profis

Mathe-Profis sind anders: Wenn Mathematiker über mathematische Aussagen nachdenken, springt in ihrem Gehirn ein ganz spezielles Netzwerk an. Dieses Aktivitätsmuster ist für sie einzigartig und reagiert nur auf Mathematik, wie Hirnscans belegen. Bei Nichtmathematikern existiert dieses Netzwerk dagegen nicht. Spannend auch: Die Lage der aktivierten Hirnareale verrät, dass abstrakte Mathematik weniger mit Linguistik zu tun hat, als manche Forscher bisher angenommen haben.

Mathematik gehört zu den einzigartigen Errungenschaften des Menschen. Zwar können auch einige Tiere zählen, aber die Fähigkeit zu abstraktem mathematischen Denken fehlt ihnen. Umstritten ist jedoch, wie unsere Vorfahren zur Mathematik kamen: Einer Theorie nach ist sie eine Art Nebenprodukt unserer Sprache. Die logischen und teilweise abstrakten Regeln der Grammatik werden demnach einfach auf Zahlen statt auf Wörter angewendet.

Sprache oder Zahlen als Basis?

Dem widersprechen jedoch gerade viele Mathematiker und Physiker, die in ihren Fähigkeiten keine linguistischen Bezüge sehen. Albert Einstein sagte beispielsweise: "Wörter und Sprache, ob geschrieben oder gesprochen, spielen für meine Denkprozesse keine Rolle." Eine zweite Theorie sieht daher die Ursprünge der abstrakten Mathematik eher in einer Weiterentwicklung der Hirnprozesse, die einfaches Zählen und die Zahlenerkennung ermöglichen.

Um herauszufinden, welche Theorie stimmt, haben Marie Amalric und Stanislas Dehaene von der Sorbonne Universität in Paris genauer aufgeschlüsselt, was im Gehirn von Mathematikern und Nichtmathematikern vorgeht. Sie wollten wissen, ob es Unterschiede zwischen Laien und Profis gibt, aber auch, ob beim Verarbeiten mathematischer Aussagen Sprachschaltkreise beteiligt sind oder nicht. 



Nur bei Mathe-Aussagen aktivierte Hirnbereiche bei Mathematikern (blau)

Mathe im Hirnscanner

Für ihre Studie spielten die Forscher 15 Mathematikern und 15 Akademikern gleichen Bildungsgrads, aber nichtmathematischer Ausrichtung jeweils eine kurze gesprochene Aussage vor. "Diese Statements stammten aus vier Bereichen der höheren Mathematik, Analysis, Algebra, Topologie und Geometrie.", erklären die Forscher. "In einer fünften Kategorie ging es dagegen um Wissen aus Naturwissenschaft und Geschichte."

Bei allen gehörten Aussagen sollten die Probanden entscheiden, ob die Aussagen wahr, falsch oder sinnlos waren. Wie erwartet, fiel dies den Mathematikern bei den mathematischen Aufgaben erheblich leichter als ihre nichtmathematischen Kollegen. Bei den Kontrollaussagen waren beide Gruppen dagegen etwa gleich gut.

Mathe-Netzwerk – nur bei Mathematikern

Doch die entscheidenden Unterscheide zeigten sich erst, als die Forscher die Hirnaktivität ihrer Probanden mittels funktioneller Magnetresonanz-Tomografie (fMRT) verglichen: Bei den Mathematikern aktivierten die mathematischen Aussage ein ganz spezifisches Muster von Hirnarealen. Diese bleiben bei den nichtmathematischen Aussagen dagegen inaktiv und stumm.

"Dieses Aktivitätsmuster war einzigartig für die Teilnehmer mit mathematischer Expertise", berichten die Wissenschaftler. Bei den Nichtmathemaikern lösten einige der Mathe-Aussagen stattdessen die gleichen Aktivitätsmuster aus wie Nonsenssätze in den Kontrollsätzen. "Das spricht dafür, dass Mathe-Aussagen für die Nichtmathematiker wie sinnloses Gebrabbel klangen", so Amalric und Dehaene.

Bezug zu Zahlen, aber nicht zur Sprache

Das eigentlich Spannende aber waren die am Mathe-Netzwerk beteiligten Areale: Sie unterschieden sich deutlich von den Hirnregionen, die bei der Sprachverarbeitung aktiv sind, wie die Forscher berichten. Stattdessen umfasste dieses Mathe-Netzwerk die beiden Areale, die für die Erkennung von Zahlen und unseren Zahlensinn zuständig sind – obwohl in keiner der mathematischen Aussagen konkrete Zahlen vorkamen.

"Dies bestätigt, dass fortgeschrittene Mathematik und unser grundlegender Zahlensinn eine gemeinsame Wurzel besitzen", konstatieren Amalric und Dehaene. "Die Hypothese, dass die Sprachsyntax eine Rolle für die algebraischen Fähigkeiten von Erwachsenen spielt, passt dagegen nicht zu den Ergebnissen. (Proceedings of the National Academy of Sciences, doi: 10.1073/pnas.1603205113

(PNAS, 12.04.2016 - NPO)





Nota - Obige Bilder gehören mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und ihre Verwendung an dieser Stelle nicht wünschen, bitte ich um Ihre Nachricht auf diesem Blog. JE
 

Montag, 11. April 2016

Die Sokal-Affäre.

In den 1990er Jahren waren selbstähnliche Strukturen und die Chaostheorie bei Theoretikern der Postmoderne en vogue.  

aus nzz.ch,13.3.2016, 06:00 Uhr
    Sokal-Affäre
    Wissenschaftliche Parodie mit Nachhall
    Die «Sokal-Affäre» löste vor zwanzig Jahren einen Streit zwischen Natur- und Geisteswissenschaftern aus. Und wie ist es heute um das Verhältnis zwischen den beiden Wissenschaftskulturen bestellt?

    von Sven Titze

    Es ist nicht immer ungetrübt, das Verhältnis zwischen Naturwissenschaftern auf der einen Seite und Geistes- und Sozialwissenschaftern auf der anderen. Unterschiedliche Praktiken, Kriterien und Sprechweisen lassen zuweilen interdisziplinäre Konflikte ausbrechen. Ein spezieller Streit, der bis heute nachwirkt, versetzte 1996 die akademische Welt in Aufruhr. Damals veröffentlichte der amerikanische Physiker Alan Sokal einen aufsehenerregenden Artikel – nicht etwa in einer Fachzeitschrift der Physik, sondern in «Social Text», einem Magazin der Sozialwissenschaften. «Transgressing the Boundaries: Towards a Transformative Hermeneutics of Quantum Gravity» lautete der Titel (auf Deutsch «Die Grenzen transgredieren: hin zu einer transformativen Hermeneutik der Quantengravitation»). Das krude Gemisch aus Begriffen der Physik und der Philosophie war Programm.

    Postmodernes Kauderwelsch

    Sokal wollte mit seinem Artikel den teils unpassenden, teils völlig unsinnigen Einsatz naturwissenschaftlicher Terminologie karikieren, welcher damals unter Autoren beliebt war, die unter dem Einfluss postmoderner Theorien standen. Zu diesem Zweck rührte er ein Textgebräu aus physikalischen und philosophischen Versatzstücken an, dessen Lektüre erfahrenen Wissenschaftern die Haare zu Berge stehen lassen musste. Doch «Social Text» druckte den Artikel im Frühling 1996.
    Als Sokal nur Tage später bekanntgab, dass er die Herausgeber mit einer Parodie hereingelegt habe, löste er eine lebhafte Debatte aus. Der Physiker konnte sich der Genugtuung und Schadenfreude der meisten Fachkollegen sicher sein, während viele Sozial- und Geisteswissenschafter verschnupft reagierten. Die Aufregung um die «Sokal-Affäre» hat sich selbstverständlich längst gelegt. Doch das bedeutet nicht, dass Brüche zwischen den Disziplinen, die damals offen zutage traten, heute nicht mehr existierten.

    Massimo Pigliucci ist jemand, der das einzuschätzen vermag. Der aus Italien stammende Wissenschafter, der Philosophie am Cuny City College in New York lehrt, aber auch einen Doktortitel in Biologie hat, beschäftigt sich seit Jahren mit dem Verhältnis zwischen den Wissenschaftskulturen. «Die Naturwissenschafter, von denen ich weiss, dass sie über solche Dinge nachdenken, gehen tendenziell süffisant davon aus, dass Sokal der gesamten Philosophie eine harte Lektion erteilt hat», meint er. Doch das stimme nicht. In Wirklichkeit habe Sokal mit seiner Parodie von 1996 nur die Nachlässigkeit der Herausgeber von «Social Text» belegt, die einen mangelhaften Artikel offenbar deshalb akzeptierten, weil er ihr Weltbild bestätigte. Deshalb sei nicht gleich die ganze Philosophie der Postmoderne zu verwerfen, so Pigliucci.

    Die Kritik wird persönlich

    Sokal liess es mit der Parodie damals aber nicht bewenden; 1997 legte er nach. Gemeinsam mit dem belgischen Physiker Jean Bricmont veröffentlichte er das Buch «Impostures intellectuelles», das 1999 auf Deutsch mit dem Titel «Eleganter Unsinn» erschien. Die Reichweite der Vorwürfe in diesem Buch war viel grösser als die der Parodie. Jetzt wurde es persönlich.

    Mit fast geniesserischer Genauigkeit zerpflückten die Physiker Textstellen von einschlägigen Autoren der Geistes- und Sozialwissenschaften. Unter ihnen waren namhafte Gelehrte wie der Philosoph Gilles Deleuze und der Psychoanalytiker Jacques Lacan. Zum einen monierten Sokal und Bricmont, dass jene Autoren oftmals Begriffe aus den Naturwissenschaften oder der Mathematik verwendeten, ohne sie zu verstehen – zum Beispiel «Relativitätstheorie», «Chaos» oder «Topologie». Ausserdem kritisierten die Physiker die Neigung, naturwissenschaftliche Publikationen als bloss konstruierte Texte zu relativieren, ohne den Bezug zur Wirklichkeit mitzudenken. Erneut wurde heftig debattiert. Einige Beobachter schrieben, die angegriffenen Autoren seien missverstanden worden. Sokal und Bricmont mussten sich auch gegen den Vorwurf verteidigen, intolerant und reduktionistisch gegenüber der Philosophie aufzutreten.

    Dieser Konflikt ist nicht nur von akademischem Interesse; er kann sogar politisch relevant sein, wie Sokal in einem weiteren Buch zeigte. In «Beyond the Hoax» aus dem Jahr 2008 berichtete er, die Relativierung westlicher Wissenschaft, wie sie von einzelnen postmodernen Autoren vertreten wurde, habe Eingang in das Weltbild der «Hindutva» gefunden, einer nationalistischen Strömung unter indischen Hindus. Auch seine früheren Angriffe auf die postmodernen Autoren stellte Sokal in einen politischen Kontext: Seiner Ansicht nach schadete ihre mangelhafte Argumentationsweise der politischen Linken – dem politischen Lager, zu dem sich Sokal ebenso wie die meisten jener Autoren bekennt.

    Inzwischen ist es in den Sozial- und Geisteswissenschaften ein wenig aus der Mode gekommen, unbekümmert mit naturwissenschaftlichem Vokabular um sich zu werfen. Als eine Ausnahme kann wohl der Philosoph und Wissenschaftssoziologe Bruno Latour genannt werden, der schon in «Eleganter Unsinn» auftaucht. Selbst bei seinen neusten Texten wird oft nicht klar, ob er naturwissenschaftliche Begriffe als Metaphern verwendet oder ob er sie nur halb verstanden hat.
    Ein weiteres aktuelles Beispiel für das muntere Mischen von Physik und Sozialwissenschaften ist ein Buch, das im April 2015 im renommierten Verlag Cambridge University Press herausgegeben wurde. In «Quantum Mind and Social Science» versucht der Politologe Alexander Wendt von der Ohio State University die Relevanz quantenmechanischer Phänomene im Gehirn für das Leib-Seele-Problem und für die «soziale Ontologie» darzulegen. Dabei nimmt kaum ein Physiker an, dass quantenmechanische Effekte einen prägenden Einfluss auf das Denken haben. Selbst wenn die Hypothese stimmte: Mit den sozialwissenschaftlichen Konsequenzen hat es Wendt komplett übertrieben.

    Fruchtbarer Dialog

    Während Wendt noch vorgibt, naturwissenschaftlich zu argumentieren, haben sich andere Autoren explizit dagegen gewandt. Doch das ist selten geworden. Es gebe in den Geistes- und Sozialwissenschaften nur noch «Nester antiwissenschaftlichen Denkens», meint Pigliucci. Das umgekehrte Phänomen – aggressiv «szientistisches» Denken in den Naturwissenschaften – sei heute sogar häufiger anzutreffen. Darunter versteht Pigliucci zum Beispiel die seiner Ansicht nach irrige Behauptung, anhand naturwissenschaftlicher Argumente liessen sich Antworten auf moralische Fragen geben. Generell findet er es unglücklich, dass Naturwissenschafter und Geistes- und Sozialwissenschafter einander so oft geringschätzten. Das gehe bis zum Hochmut. Pigliucci setzt dagegen auf den fruchtbaren Dialog zwischen den Disziplinen.


    Der Physiker Sokal hat in seinem Streben nach mehr Redlichkeit in der Wissenschaft bis heute nicht nachgelassen. Zuletzt stand dabei die Psychologie im Fokus. 2013 war Sokal an einem Artikel beteiligt, in dem ein Konzept der «positiven Psychologie» wegen mathematischer Mängel aufs Korn genommen wurde. Ein so spektakulär zündender Denkanstoss wie die Parodie von 1996 ist Sokal aber nicht noch einmal gelungen.






    Nota - Obige Bilder gehören mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und ihre Verwendung an dieser Stelle nicht wünschen, bitte ich um Ihre Nachricht auf diesem Blog. JE

    Samstag, 9. April 2016

    'Information' als Wortschleier.

    aus NZZ, 10. 10. 06


    Information als Legende 
    Peter Janichs philosophischer Einspruch

    von Bernhard Dotzler

    Ein Missstand mehr in der Welt. Zu den vielen Unseligkeiten, die uns die beste aller Welten vergällen, zählt nach Ansicht des Marburger Philosophen Peter Janich auch die Inflationierung des Informationsbegriffs. «Allgegenwärtig», sagt er, «ist die Legende von der Naturalisierung der Information»: «Ob als Grundbegriff von Theorien des Kultürlichen oder als natürliche Erbinformation, ob als Namengeber einer jungen Wissenschaft oder als Politikum, ob als Bezugspunkt einer gewaltigen Technologie oder als Fixpunkt einer wirtschaftlichen Heilsbotschaft, die Legende von der Information hat viele Formen, Erzähler und Adressaten.»

    Ginge es nur um diese Häufung, wäre Janichs Buch freilich nichts als ein Teil des inkriminierten Übels. Aber die Kritik gilt dem, was sein Autor die «Naturalisierung» der Information nennt, sowie dem Umstand, dass es sich dabei um eine «Legende» handelt. Den faktischen Stellenwert der Informationstechnologie zieht Janich nicht in Zweifel. Nur wenn darüber hinaus eine einseitig natur- und technikwissenschaftliche Zurichtung des Begriffs der Information die Folge ist, soll darin eine gefährliche Fehlentwicklung zu erkennen sein. «Naturalisierung» meint ebendiese Zurichtung. Es sei, klagt Janich an, regelrecht das Programm der Naturwissenschaften, die alleinige und deshalb auch die volle Zuständigkeit für Information zu beanspruchen. Statt dadurch aber zu einer Sache allein von Experten geworden zu sein, habe ausgerechnet dieser naturwissenschaftlich okkupierte Informationsbegriff – so unbemerkt wie effizient – weite Kreise gezogen. Insofern sei «Information als Naturgegenstand» zur «Legende» geworden: zu einer Geschichte, die man für wahr hält, ohne dass ihre Wahrheit gesichert wäre.

    Aufklärung, sagt da der Philosoph, tut not. Das Argument, mit dem er sie leisten will, hat eine sehr einfache Grundform. «Information» gehört ursprünglich in den Zusammenhang menschlicher Kommunikation. Der Begriff ist oder war Element «einer Sprache, die üblicherweise nur auf redende und schreibende Menschen angewandt wird». Dasselbe Vokabular wurde dann jedoch herangezogen, um nachrichtentechnische Vorgänge zu beschreiben; und diese technischen Beschreibungen wiederum wurden auf Gebiete wie die Molekularbiologie und die Hirnforschung übertragen. Auf einmal schienen technische Objekte nicht anders als die Bausteine des menschlichen Genoms oder Gehirnzellen Eigenschaften des Menschen zu besitzen. Ja, in der neuen «Werbesprache» geschieht das Gleiche noch mit den einfachsten Dingen: «Da halten bei einem neuen Autotyp Form und Funktion Zwiegespräch, da erkennt ein Shampoo die Nöte des Haares… Immer, so scheint es, dient es der Aufwertung einer Sache, sie als sprachlich, kommunikativ oder kognitiv darzustellen.» So wird «spezifisch Menschliches» einerseits auf alle möglichen Bereiche ausgedehnt, während andererseits dieses Menschliche – Sprache, Kommunikation und Erkenntnis – längst «auf nachrichtentechnische Strukturen» reduziert worden ist.

    Man kennt die Stoßrichtung dessen, was hier als «Kritik einer Legende» vorgetragen wird. Dass diese Art von Einspruch gegen den Reduktionismus einer naturwissenschaftlich-technisch dominierten Denk- und Redekultur einer solchen Neuauflage bedurft hätte oder dass er gar mehr hilft als die Regalmeter seit langem geführter Debatten, darf man mit Fug und Recht bezweifeln. Doch gibt es noch eine andere Lesart, welche diesem Buch vielleicht etwas mehr abzugewinnen erlaubt. Es ist auch, so schlicht wie darin verdienstvoll, eine Erinnerung an einige der kanonischen Texte zur Zeichen- und Informationstheorie: Texte von Morris, von Shannon und Weaver, von Wiener, von Turing.

    Im Rückgang auf deren Aussagen aber ruft es einen heute fast vergessenen Impuls der Technikentwicklung des letzten halben Jahrhunderts ins Gedächtnis, die anfängliche Hoffnung nämlich, «Maschinen bauen zu können, die in ihren Leistungen von denen des Menschen ununterscheidbar sind». In den Medien werden die zugehörigen Phantasien durchaus noch gepflegt, man denke an Filme wie «I Robot» oder die Fortsetzung von «Ghost in the Shell», die unlängst in den Handel kam. Aber niemand würde die Medien selber für eine Realisierung jenes zweifelhaften Traums halten. Insoweit hat die Internetkultur ihn verdrängt. Das Menetekel trog, sagen die Marketingleute; das Menetekel, sagen die Philosophen, konnte und kann nicht eintreffen. Sieht man dagegen, welche kategorialen Überlagerungen die Menschen- und die Medienwelt dennoch in eins setzen, gilt es zu überlegen, ob es nicht doch längst wahr geworden ist. 

    Peter Janich: Was ist Information? Kritik einer Legende. Suhrkamp-Verlag, Frankfurt am Main 2006. 181 S., Fr. 27.10.


    Nota. Der Schluss ist überheblich. Allerdings ist das rezensierte Buch – womöglich um der Schärfe der Polemik willen – ein wenig halbherzig. –

    Was ist falsch daran, wenn ich sage, nachdem ich gegen einen Stein getreten und ihm eine bestimmte Flug-richtung mitgeteilt habe, ich hätte ihm  "Information" gegeben? Es kommt immer auf den Sinnzusammen-hang an, in den diese Formulierung passt oder nicht passt. Es ist mystifizierend und wichtigtuerisch, das Wort in allen erdenklichen und am liebsten jenen Fällen zu gebrauchen, wo es nichts sagt, nämlich keine zusätzliche 'Information' mitteilt. Und wo passt es? Überall da, wo darauf abgesehen wird, dass einem Etwas eine Eigenschaft von außen hinzugefügt wird. Wo ein Organismus eine Eigenschaft sponte sua aus sich heraus entwickelt, ist es sinnlos und irreführend, wenn man sagt, er habe sich selber 'eine Information gegeben'.

    Womit das Wort seine eigentliche Spitze nicht an dem bekommt, was es bezeichnet, sondern an dem, was es folglich nicht bezeichnet: Die unter Didaktikern gängige Vorstellung, 'Wissen' käme schlechthin nur als 'Information' zu Stande, entlarvt sich dadurch als später Widerhall des plumpsten philosophischen Dogma-tismus. Tatsächlich geschieht Information ja nicht aus dem Umstand, dass sie 'gegeben' oder 'genommen' wird, sondern indem eine Organismus sie 'sich zu eigen' macht. Erst diese Einsicht macht die Frage nach dem Anteil sinnvoll, den der freie Wille dabei spielt – und der Einfluss, den die Didaktik auf ihn nehmen kann. Merke: Nicht die Nachricht 'in/formiert' den Organismus, sondern ihre Zurkenntnisnahme.  
    JE




    Nota - Obige Bilder gehören mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und ihre Verwendung an dieser Stelle nicht wünschen, bitte ich um Ihre Nachricht auf diesem Blog. JE
     

    Die Philosophie der Aufklärung.

    aus nzz.ch, 9.4.2016, 05:30 Uhr

    Philosophie im 18. Jahrhundert
    In einem Doppelband des «Grundrisses der Geschichte der Philosophie» wird die Geistesbewegung der Aufklärung in Mittel-, Nord- und Osteuropa in einem eindrucksvollen Panorama vor Augen geführt.

    von Ulrich Kronauer

    Im Schwabe-Verlag in Basel erscheint, in solides Leinen gewandet, das philosophiehistorische Standardwerk in deutscher Sprache, der «Grundriss der Geschichte der Philosophie». Es knüpft schon mit dem Titel an die Tradition des im 19. Jahrhundert von Friedrich Ueberweg realisierten Projekts einer Darstellung der gesamten Philosophiegeschichte an. Von dem neuen, von Helmut Holzhey herausgegebenen «Grundriss», der auf vierzig Bände angelegt ist und der damit alle bisherigen Auflagen und Bearbeitungen des «Ueberweg» an Umfang weit übertrifft, ist mehr als ein Viertel erschienen. Der Philosophie des 18. Jahrhunderts ist eine eigene Abteilung gewidmet, die fünf Bände umfasst und inzwischen vollständig vorliegt.

    Vernunft und Toleranz

    Helmut Holzhey und Vilem Mudroch haben den fünften Band dieser Abteilung herausgegeben, der aus zwei umfangreichen Halbbänden besteht und in dem die Philosophie in Mittel-, Nord- und Osteuropa behandelt wird oder, genauer, in dem noch bis 1806 formell bestehenden Heiligen Römischen Reich Deutscher Nation, in der Schweiz, in Skandinavien, Polen, dem Königreich Ungarn und Russland.

    Die philosophiegeschichtliche Darstellung des fünften Bandes steht, wie die beiden Herausgeber im Vorwort schreiben, «insgesamt im Zeichen der Aufklärung». Gerade in allerjüngster Zeit wurde der Aufklärung mit ihren Leitbegriffen – Vernunft, Fortschritt, Toleranz, Gleichheit, Menschenwürde, Glaubensfreiheit – in der Presse und in politischen Statements eine besondere Aktualität zugesprochen. Es gelte, so heisst es, die Werte der Aufklärung in Erinnerung zu rufen und das Erbe dieser Geistesbewegung zu bewahren. Die Orientierung an einer Epoche, die nun schon über zweihundert Jahre zurückliegt, ist allerdings nicht ganz unproblematisch und nicht ohne historisch reflektiertes Bewusstsein möglich, zumal sich die Mentalitäten und die sozialen Normen stark gewandelt haben. So galten die heute beschworenen Werte etwa der Gleichheit und der Menschenwürde damals nicht für alle Menschen; und selbst Vertreter der Aufklärung, der grosse Immanuel Kant nicht ausgenommen, zeigten Verständnis dafür, dass die Frauen nicht gleichberechtigt waren oder dass Minderheiten wie die Juden und die sogenannten Zigeuner diskriminiert wurden. Auch gab es gravierende Unterschiede zwischen einzelnen Ländern, etwa zwischen Frankreich und Deutschland, in der Radikalität der Kritik an den gesellschaftlichen Zuständen und den Machtansprüchen der Kirche.

    Die Menschen lebten, wie Kant 1784 feststellte, insgesamt noch keineswegs in einem aufgeklärten Zeitalter, sondern nur erst in einem Zeitalter der Aufklärung. Kant beschreibt Aufklärung – den «Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit» – als unabgeschlossenen Prozess. Die Hauptziele dieser gesamteuropäischen Bewegung sind auch heute noch nicht erreicht und insofern durchaus «aktuell». Ihnen lassen sich die Programmideen der als gemässigt geltenden deutschen Aufklärung zuordnen, die in dem umfangreicheren ersten Teil des Doppelbandes behandelt werden. Helmut Holzhey nennt als entsprechende Ziele «die Ablösung von Lehren und Ordnungen geistlicher und weltlicher Art», die einer kritischen Prüfung durch die autonome menschliche Vernunft nicht standhalten, sowie «die Gewährleistung einer nicht konfessionell-dogmatisch gebundenen Religionsausübung und die Errichtung einer natur- bzw. vernunftrechtlich fundierten politischen Ordnung». Die deutsche Aufklärung sei insbesondere durch die philosophische Methode des Eklektizismus (oder auch: der Eklektik) charakterisiert und damit auch durch die Abwendung von autoritätsgebundenem Wissen, durch das Streben nach Vorurteilsfreiheit und geistiger Unabhängigkeit sowie die Leitvorstellung der Vervollkommnungsfähigkeit des Menschen. Unter der Annahme einer alle Menschen verbindenden Vernunft sei der Kampf gegen Aberglauben und Schwärmerei geführt, seien die Sinnlichkeit und die Erfahrung aufgewertet worden.

    Der gute Überblick über die deutsche Aufklärung setzt mit den Hauptvertretern der eklektischen Philosophie des Christian Thomasius ein, es folgt die Philosophie Christian Wolffs und seiner Schüler, deren Einfluss nicht unterschätzt werden sollte. Grossen Raum nehmen naturgemäss Kant und der Kantianismus ein. Ein weit gefasster Philosophiebegriff erlaubt es, das ganze kulturgeschichtliche Spektrum des Geisteslebens aufzufächern. In eigenen Kapiteln werden die Institutionen der Universitäten und Akademien behandelt, die Städte Berlin und Göttingen als Zentren des intellektuellen Geschehens, sodann die Theologie und die Religionskritik, der Pietismus und der Pantheismusstreit, die jüdische Aufklärung, die Popularphilosophie und die Volksaufklärung. Umfangreiche Kapitel sind auch dem Naturrecht sowie Staat und Politik vor der Französischen Revolution gewidmet, dem Menschenbild in Physiologie, Anthropologie, Pädagogik und Geschichtsschreibung, den Naturwissenschaften, Gesellschaft, Staat und Ökonomie am Ende des Jahrhunderts, schliesslich den Theorien der Künste und der Philosophie der Dichter, der Literatur- und Philosophiegeschichtsschreibung sowie den Anfängen des spekulativen Idealismus.

    Nicht nur die grossen Köpfe

    Der zweite Teil gibt einen Überblick über die Geschichte der Philosophie des 18. Jahrhunderts in der Schweiz, in Nord- und Osteuropa. Auch hier liegt der Schwerpunkt auf den Einflüssen der europäischen Aufklärung. Dabei hätte auch noch die Forschung zu den baltischen Ländern berücksichtigt werden können, in denen die Ideen der Aufklärung noch bis weit in das 19. Jahrhundert hinein wirksam waren.

    An dem Werk haben viele ausgewiesene Fachleute mitgearbeitet; das Niveau der Beiträge ist hoch, zuverlässig sind die Verzeichnisse der Primär- und Sekundärliteratur, informativ und gut lesbar die zum Teil ausführlichen Darstellungen von Leben und Lehre eines Autors. Als sehr nützlich erweisen sich die Einblicke, die jeweils in einzelne wichtige Werke eines Philosophen eröffnet werden. Neben den bis heute ausstrahlenden Köpfen wie Wolff und Kant, Hamann und Herder oder Mendelssohn wird eine Vielzahl von Denkern vorgestellt, deren Namen und Wirken weitgehend in Vergessenheit geraten sind, die aber Wesentliches zum Diskurs der Aufklärung beigetragen haben.

    Grundriss der Geschichte der Philosophie. Die Philosophie des 18. Jahrhunderts. Band 5/1 und 5/2. Heiliges Römisches Reich Deutscher Nation. Schweiz. Nord- und Osteuropa. Herausgegeben von Helmut Holzhey und Vilem Mudroch. Schwabe-Verlag, Basel 2015. 1677 S., leinengebunden, Fr. 320.–.

    Dienstag, 8. März 2016

    Fleiß behindert die guten Einfälle.

    aus scinexx

    Warum wir Geistesblitzen vertrauen sollten

    Aha-Momente hat jeder schon erlebt: Plötzlich scheint dabei die Lösung eines Problems wie aus dem Nichts aufzutauchen. Aber wie verlässlich sind diese Geistesblitze? Das haben Forscher nun überprüft. Ihr Ergebnis: Lösungen, die auf solchen Aha-Momenten beruhen, sind sogar oft richtiger als diejenigen, die auf systematisches, analytisches Denken zurückgehen. Wir sollten sie daher nicht missachten, so ihr Rat.

    Viele große Forscher und Erfinder verdanken Geistesblitzen ihre besten Ideen.

    Heureka! Von vielen großen Forschern und Genies wird berichtet, dass sie ihre besten Ideen durch plötzliche Eingebungen bekamen. Ob Albert Einstein, der in einem Gedankenexperiment über einen Fahrstuhl nachdachte und dabei die Basis für seine Allgemeine Relativitätstheorie fand, der Chemiker Kekulé, dem im Halbschlaf die Struktur des Benzolrings einfiel oder Niels Bohr, dem ein Geistesblitz die Grundlage für sein Atommodell lieferte.

    Wie richtig sind Geistesblitze?

    "Die Geschichte der großen Entdeckungen ist voll solcher Geistesblitze, was den Glauben nährt, dass solche Aha-Momente meist die richtige Lösung liefern", sagt Carola Salvi von der Northwestern University. "Aber ob das auch stimmt, wurde bisher nie getestet und kann durchaus ein Irrglauben sei, weil schlicht nur die positiven Fälle erzählt werden."

    Um zu testen, wie verlässlich plötzliche Eingebungen wirklich sind, haben Salvi und ihre Kollegen Probanden 50 bis 180 verschiedene Denkaufgaben lösen lassen. Darunter waren klassische Wortfindungsaufgaben ebenso wie visuelle Puzzles. Alle Aufgaben mussten unter Zeitdruck absolviert werden und die Teilnehmer sollten anschließend angeben, ob sie durch analytisches Denke auf die Lösung gekommen waren oder durch einen Aha-Moment.

    Spontan, aber korrekt

    Das Ergebnis: Die Teilnehmer, denen ein Geistesblitz bei der Lösung half, lagen deutlich häufiger richtig als diejenigen, die systematisch an die Aufgabe herangegangen waren, wie die Forscher berichten. Bei den linguistischen Tests waren 94 Prozent der auf plötzlichen Eingebungen beruhenden Ergebnisse korrekt, aber nur 78 Prozent der durch analytisches Denken zustande gekommenen. Bei den visuellen Puzzeln stand es 78 zu 42 für die Aha-Momente.

    "Das zeigt, dass das Vertrauen, das viele Menschen gegenüber solchen Eingebungen haben, durchaus gerechtfertigt ist", sagt Salvi. Ihr Kollege John Kounios von der Drexel University ergänzt: "Das spricht dafür, eine Idee ernst zu nehmen, wenn sie durch einen Geistesblitz entstanden ist. Sie wird zwar nicht immer richtig sein, aber die Wahrscheinlichkeit dafür ist sogar höher als bei einer Idee, die methodisch ausgearbeitet wurde."

    Leider unvorhersehbar

    Dummerweise hat das Ganze aber einen Haken: Ein Geistesblitz lässt sich nicht erzwingen. "Diese Einsichten sind unbewusst und automatisch, man kann sie nicht drängen", erklärt Kounios. "Der dahinterstehende Prozess benötigt seine eigene Zeit und erst wenn unser Unterbewusstsein alle Punkte verbunden hat, poppt die Lösung in unserem Bewusstsein als Aha-Moment auf."

    Im konkreten Test führte diese Unberechenbarkeit dazu, dass die Probanden mit den Geistesblitzen zwar häufiger richtig lagen, dafür aber die erlaubte Zeit überschritten. Denn sie neigten dazu erst dann zu antworten, wenn sie wirklich einen Aha-Moment hatten, statt einfach zu raten. Bei den Aufgaben, bei denen sie analytisch vorgingen, lagen sie zwar oft falsch, hielten dafür aber den Termin ein.

    Zeitdruck hemmt Geistesblitze

    Und noch etwas kommt hinzu: Je größer der Zeitdruck, desto geringer die Chance, dass ein Geistesblitz kommt. "Angst verschiebt unser Denken von solchen Einsichten hin zum analytischen Denken", erklärt Kounios. "Deshalb sind Terminvorgaben zwar sinnvoll, um Aufgaben rechtzeitig abzuschließen, wenn aber kreative Ideen gefragt sind, ist es günstiger, einen flexiblen Zeitrahmen zu haben."

    Denn kommt beim Grübeln keine Eingebung, dann neigen viele Menschen dazu, vor Ablauf der Frist schnell noch eine Lösung zu raten – aber genau dabei werden die meisten Fehler gemacht, wie die Tests zeigen. "Dieses Raten beruht oft auf analytischen, bewussten Gedankengängen, die noch nicht abgeschlossen sind und daher voreilige, falsche Schlüsse fördern", erklären die Forscher. "Eingebungen kommen dagegen erst dann überhaupt ins Bewusstsein, wenn das unbewusste Problemlösen abgeschlossen ist, und sind deshalb oft korrekter." (Thinking & Reasoning, 2016; doi: 10.1080/13546783.2016.1141798)

    (Drexel University, 08.03.2016 - NPO)



    Nota.*  Schulischer (und jeder andere) Unterricht verlangt Konzentration. Nicht nur ist Schule eine halbe Sache. Sie schadet sogar, wenn sie den Eindruck erweckt, Konzentration sei die Form des eigentlichen Denkens. Das konzentrierte Denken ist immer sekundär und in manchen Fällen nicht einmal erforderlich.

    Unsere Schulen erwecken diesen Eindruck, denn ihr Funktionsmodus ist Unterricht und Übung.* Werden gelegentlich kreative Sequenzen eingeflochten, dann unterliegen sie entweder dem Lernziel der jeweiligen 'Stunde' (und sind in Wahrheit Konzentrationsgymnastik), oder lockeres Beiwerk. Auf jeden Fall erschei-nen sie als der uneigentliche Teil des Denkens. 

    Sie sind aber der eigentliche. Die Schule lenkt den Geist auf Abwege. Das muss man sich erstmal klarma-chen: Die jungen Leute werden acht bis dreizehn Jahre ihres jungen Lebens lang in die Irre geführt – aus-nahmslos und von Amts wegen. 

    Und wenn sie Pech haben, demnächst sogar ganztags.
    JE

    *) aus Warum Schule schadet 
    **) Gr. schôlê hieß noch Muße; aber lat. studium heißt schon Eifer.

    Donnerstag, 3. März 2016

    Ach, nur veröffentlichtes Wissen ist Wissenschaft...

    Journals Fachzeitschriften aus Süddeutsche.de, 2. 3. 2016

    Fachzeitschriften
    Irrer Wettkampf um die meisten Zitate
    Forscher fühlen sich gedrängt, so oft wie möglich in hoch bewerteten Magazinen zu publizieren. Das schadet der Wissenschaft.

    Von Hubertus Breuer

    Neurowissenschaftler in einem Labor an der Universität Marburg einen angenehmen Anblick genießen: In einem Kernspintomografen liegend sahen sie auf einem kleinen Bildschirm frei erfundene, mit ihrem Autorennamen gezeichnete Fachartikel. Die Begeisterung darüber zeigte sich im Nucleus Accumbens, dem im Vorderhirn gelegenen Belohnungszentrum des Menschen. Zwei ihrer Fachkollegen, die Hirnforscher Frieder Paulus und Sören Krach, mittlerweile an der Klinik für Psychiatrie der Universität zu Lübeck, nahmen davon aufmerksam Notiz.

    Sie beobachteten, wie das Gehirnareal umso aktiver wurde, je renommierter das Journal war, in dem das Manuskript angeblich erscheinen sollte. Genauer gesagt: Die Freude war umso größer, je höher die Bewertung des Fachblatts nach dem sogenannten "Journal Impact Factor", kurz JIF, war. Sollte das Manuskript etwa in Nature Neuroscience erscheinen (2013 mit einem JIF von14,98), einem der Sterne am Himmel der Hirnforschung, erstrahlte der Nucleus Accumbens wie ein Feuerwerk.


    Die Aktivität nahm indes ab, als dieselbe Arbeit im Fachblatt Neuro Image (JIF6,13) präsentiert wurde und geriet zu einem Schummern, als es nur derNeuroreport (JIF 1,68) war. Mit ihrer kürzlich im Fachblatt Plos Oneerschienenen Versuchsreihe wollten Paulus und Krach demonstrieren, wie Naturwissenschaftler das dominierende Belohnungsprinzip des akademischen Betriebs neuronal verinnerlicht hatten. Denn je renommierter das Journal, in dem ein Wissenschaftler publiziert, desto höher fällt auch der persönliche Impact Factor eines Wissenschaftlers aus. Und der bestimmt seinen Marktwert.

    "Der Impact Factor spielt eine zentrale Rolle"

    Das hat Folgen. Rankings und Statistiken sind heute beliebte Mittel, um Forschung, Institutionen und eben auch Wissenschaftler zu bewerten. Erstellt werden sie mithilfe der Bibliometrie, die akribisch Fachartikel und Zitate zählt. Damit errechnet sie den Impact Factor, die Universalwährung des akademischen Betriebs. "Egal, ob es um die Einwerbung von Drittmitteln, die Bewertung von Fachbereichen, Stellen oder Beförderungen geht," schreiben Paulus und Krach, "der Impact Factor spielt eine zentrale Rolle."

    Dabei war dem JIF anfangs eine viel schlichtere Aufgabe zugedacht. Ersonnen von dem US-Linguisten und Gründer des Institute for Scientific Information, Eugene Garfield, sollte der Impact Factor Bibliothekaren helfen, Abonnements für ihre Institution zu verwalten. Er errechnet, wie oft im vergangenen Jahr Artikel zitiert wurden, die in den beiden Jahren zuvor veröffentlicht worden sind - im Falle von Nature Neuroscience 2013 eben 14,98-mal und 2014 dann 16,1-mal. Das soll abbilden, wie wichtig ein Journal im Wissenschaftsdiskurs ist.Nature und Science sind in den Naturwissenschaften die unangefochtenen Platzhirsche.

    Je höher der persönliche Impact-Faktor, desto größer die Chance auf Fördermittel

    Doch innerhalb der vergangenen zehn Jahre hat sich der Gebrauch des Impact Factors stark gewandelt: Er wird immer mehr genutzt, um auch die Leistung von Forschern individuell zu bewerten. Je mehr ein Wissenschaftler in renommierten Journalen publiziert - bevorzugt als Hauptautor-, desto höher ist seine Punktzahl. Und je beeindruckender diese Ziffer, desto größer die Wahrscheinlichkeit, Fördergeld zu bekommen oder mit Bewerbungen Erfolg zu haben. Deshalb ziehen gerade Nachwuchswissenschaftler den Impact Factor in Erwägung, ehe sie eine Arbeit zur Publikation einreichen. "Wen man anstellt, sollte man aufgrund der Verdienste, nicht aufgrund des Impact Factors entscheiden", erklärte der Physiker Reinhard Werner von der Universität Hannover im Januar 2015 ausgerechnet in Nature, das sich derzeit in einem olympischen JIF von 41,5 sonnt.

    Das Zitat selbst ist kein perfekter Maßstab zur Bewertung der Qualität und Bedeutsamkeit einer Arbeit, denn nur selten erfüllt es die Aufgabe, auf die besten Studien in einem Forschungsfeld zu verweisen. Stattdessen hat es viele Funktionen: auf Resultate anderer Experimente zu verweisen, gelegentlich zu kritisieren und mitunter auch einem befreundeten Kollegen oder dem Doktorvater einen Gefallen zu tun. Außerdem führt es in die Irre, von einem Journal-Ranking auf den Wert eines einzelnen Artikels zu schließen.

    Reviews sind beliebt, sie ziehen Zitierungen an wie das Licht die Motten

    Im Schnitt entfallen auf nur ein Fünftel der Artikel in einem Fachjournal 80Prozent der Zitierungen. Zeitschriften publizieren wichtige Manuskripte zudem oftmals zu Beginn eines Jahres, damit sie bis zur JIF-Berechnung öfter zitiert werden können. Auch Reviews sind deshalb beliebt, denn die ziehen Zitierungen an wie Motten das Licht. Wer jedoch in einem Nischenfach arbeitet - Tiermedizin zum Beispiel-, dessen Journale stehen im Schatten erfolgreicher Fachgebiete - etwa Molekularbiologie. Solche Themengebiete produzieren naturgemäß weniger Zitate.

    Die Folgen: Forscher fühlen sich gedrängt, so oft wie möglich in hoch bewerteten Magazinen zu publizieren, um ihren persönlichen Kurs zu steigern. So machen sie sich den JIF als zentrales Bewertungskriterium ihrer Arbeit zu eigen. Das kann sich direkt auszahlen: In China erhalten Forscher an einigen Universitäten Boni und Gehaltserhöhungen, wenn sie einen Artikel in einem Journal mit hohem Impact Factor platzieren.

    In Deutschland kann zumindest der eigene Fachbereich profitieren. Denn bei der leistungsorientierten Mittelvergabe der Hochschulen werden Publikationen mit hohem Impact Factor oft honoriert. Und weisen die Publikationen aus einer deutschen Universität einen besonders hohen Gesamt-Impact- Factor auf, schadet das sicher nicht deren Chancen bei der Exzellenzinitiative.

    Ein Marketinginstrument mit zerstörerischer Wirkung

    Aus diesen Gründen haben seit 2012 mehr als zwölftausend Forschungsinstitutionen und Wissenschaftler eine Erklärung namens DORA unterzeichnet, die "San Francisco Declaration on Research Assessment". Dort heißt es, der JIF sei "ein Marketinginstrument, das eine unkontrollierte, zerstörerische Wirkung in der Welt der Wissenschaften entfaltet hat".

    Doch nicht jeder teilt den Pessimismus. Nature-Chefredakteur Philip Campbell erklärte im Juli 2015 der britischen Times, der JIF sei "ein Maßstab der Bedeutung eines Journals, und es gibt keinen Grund, ihn nicht zu publizieren und Erfolge herauszustreichen".

    Dabei sind die Wissenschaftler selbst nicht frei von Schuld. So reagierte in der Studie von Paulus und Krach das Belohnungszentrum gerade derjenigen Forscher am stärksten auf die Aussicht, in Nature Neuroscience zu veröffentlichen, die im Schnitt tatsächlich häufiger in Journalen mit hohem Impact Factor publizieren - ein Mechanismus, der an suchtähnliches Verhalten denken lässt. Der Lust an der Selbstbestätigung können sich auch erfolgreiche Forscher offenbar kaum entziehen.

    Und so führen sie - gemeinsam mit fast allen anderen - eine Praxis fort, die, wie es die Fachliteratur inzwischen nennt, zur "Impact-Factor-Manie" führt. Reinhard Werner schreibt dazu in Nature: "Wenn wir glauben, dass wir nach albernen Kriterien beurteilt werden, dann passen wir uns an und verhalten uns albern."