Donnerstag, 27. Februar 2014

Maschinengenerierte Wissenschaft!

aus Der Standard,Wien, 28. 2. 2014                                                           lichtkunst.73  / pixelio.de
                     

Wissenschaftsverlage publizierten massenhaft Nonsens
Publik gewordener Skandal womöglich nur die Spitze des Eisbergs

Grenoble - Was in Fachzeitschriften für Informatiker steht, mag sich Normalsterblichen nicht erschließen. Die entsprechenden Experten sollten damit jedoch etwas anzufangen wissen. Tatsächlich aber scheinen sich selbst die Spezialisten mit dem Kauderwelsch schwerzutun, anders lässt sich der nun publik gewordene Skandal nicht erklären: Der französische Informatiker Cyril Labbé hat herausgefunden, dass zwischen 2008 und 2013 computergenerierter Nonsens als Fachartikel in wissenschaftlichen Journalen erschien.

Wie "Nature" aktuell berichtet, wurden die mehr als 100 unsinnigen Artikel von der frei verfügbaren Software SCIgen erzeugt. Die Publikationen, darunter auch Fachmagazine des Springer-Verlags, sollen nun wieder aus den Datenbanken entfernt werden. Labbé befürchtet, der Vorfall könnte nur die Spitze des Eisbergs sein - was freilich generelle Fragen nach der Qualität des Peer-Review-Prozesses in Fachzeitschriften aufwirft. (tberg)
 

Sie werden immer mehr.


aus scinexx                                 So könnte man sich die neuen Quasiteilchen vorstellen, mit ringförmigen Rippeln.

Physiker entdecken neues Quasiteilchen
Quantengebilde im Halbleiter verhält sich wie ein Flüssigkeitstropfen

Überraschender Fund im Halbleiter: Bei Laserbeschuss von Gallium-Arsenid-Halbleitern haben Physiker ein neues Quasiteilchen entdeckt. Das kurzlebige Gebilde aus Elektronen und Löchern verhält sich wie eine Kreuzung aus einem Atom und einem Flüssigkeitstropfen. Das Quasiteilchen könnte wertvolle neue Informationen über die Interaktion von Licht und Materie liefern, wie die Forscher im Fachmagazin "Nature" berichten.

Quasiteilchen sind Ansammlungen kleinerer Teilchen, die sich verhalten wie aus einem Guss: Für kurze Zeit besitzen sie beispielsweise eine gemeinsame Masse, Energie oder Wellenlänge und reagieren auf einen Impuls wie ein Partikel. Solche Quasiteilchen entstehen beispielsweise in Kristallen in Form elastischer Wellen oder in Metallen in Form sogenannter Plasmonen, oberflächlicher Wellen von Ladungsträgern.

Halbleiter im Laserbeschuss

In Halbleitern kennt man Exzitonen, eine Verbindung von einem Elektron und einem "Loch" – einer Stelle im Gitter, an der ein Elektron fehlt. Diese Quasiteilchen, so kurzlebig sie meist auch sind, können das Verhalten und die Eigenschaften eines Materials entscheidend beeinflussen. So spielen Exzitonen eine große Rolle für die Absorption von Licht in einem Halbleiter, beispielsweise in einer Solarzelle.


Merkmale einer Flüssigkeit und eines Atoms zugleich: Quantentropfen

Eine bisher unbekannte Variante eines solchen Quasiteilchens haben nun Forscher des Joint Institute for Laboratory Astrophysics (JILA) in Boulder entdeckt, als sie mit einem Gallium-Arsenid-Halbleiter experimentierten. Sie bestrahlten diesen mit einem ultraschnellen roten Laser, der 100 Millionen Pulse pro Sekunde erzeugt. Diese Pulse erzeugen im Halbleiter kurzlebige Exzitonen, so viel war bereits bekannt.

Elektronengebilde als Quantentropfen

Jetzt aber zeigte sich, dass diese Exzitonen sich bei steigender Laserintensität zu einem ganz neuen Quasiteilchen zusammenfinden: Die Elektronen gruppieren sich mit den Löchern zu einem neuen, tropfenähnlichen Gebilde. "Diese Quantentröpfchen bestehen aus wenigen Paaren von Elektronen und Löchern – je vier, fünf oder sechs davon“, erklärt Koautor Mackillo Kira von der Philipps-Universität Marburg.

Die Besonderheit dieser Neuentdeckung: Die Quasiteilchen verhalten sich in mancher Hinsicht wie eine Flüssigkeit: Sie können beispielsweise Rippel ausbilden und auch die Art, wie die Elektronen und Löcher in ihnen miteinander verknüpft sind, die sogenannte Paar-Korrelation, ähnelt der in einem Flüssigkeitstropfen, wie die Forscher berichten.


Das Dropleton hat eine quantisierte Abhängigkeit von der Lichtintensität Erkenntnisse für opteoelektronische Bauteile

Gleichzeitig aber sind die Tropfen so klein, dass sie quantenphysikalische Eigenschaften aufweisen wie ein Atom. Kira und seine Kollegen schlagen daher als Name für das neue Quasiteilchen "Dropleton" vor - Tropfenteilchen. "Was die praktischen Anwendungen angeht: Niemand wird nun hergehen und ein Quantentropfen-Widget konstruieren", betont der JILA-Physiker Steven Cundiff. Dafür ist die Lebensdauer der Dropletons von nur 25 billionstel Sekunden auch viel zu gering.

Aber das neue Quasiteilchen könnte indirekt zu Verbesserungen beispielsweise von optoelektronischen Geräten beitragen, wie die Forscher erklären. Denn für ein Quasiteilchen sind 25 Picosekunden eine relativ lange Lebensdauer - und diese reicht aus, um an ihnen die Wechselwirkung zwischen Licht und Materie genauer zu erforschen. "Damit verbessern wir unser Verständnis darüber, wie Elektronen in verschiedenen Situationen interagieren – auch in optoelektrischen Bauteilen", sagt Cundiff. (Nature, 2014; doi: 10.1038/nature12994)

(Nature, 27.02.2014 - NPO)

Mittwoch, 26. Februar 2014

Einstein - doch kein Urknall?

aus derStandard.at, 25.2.2014

Manuskript entdeckt: 
Einstein arbeitete an einer Alternative zur Urknalltheorie
Entwurf zeigt, dass der Physiker die Grundidee der Steady-State-Theorie zur Entstehung des Kosmos bereits 1931 hatte

Jerusalem - Man könnte meinen, Albert Einsteins Arbeit sei hinlänglich bekannt und umfassend erforscht. Dass er an einer Alternative zur Urknalltheorie arbeitete, war bisher allerdings nicht bekannt. Nach über 80 Jahren ist nun in Jerusalem ein Manuskript des Physikers aufgetaucht, in dem er der Möglichkeit einer kontinuierlichen gleichförmigen Expansion des Universums nachging. 

Der Entwurf mit dem Titel "Zum kosmologischen Problem" aus dem Jahr 1931 erinnert stark an die Steady-State-Theorie, die der britische Forscher Fred Hoyle beinahe 20 Jahre später entwickelte. Einstein dürfte seine Idee zwar bald wieder verworfen haben, das Manuskript ist aber ein klarer Hinweis dafür, dass ihn die Vorstellung eines explosiven Beginns des Universums durch einen Urknall mit folgender Expansion nicht ganz überzeugte.

Die Explosion des Uratoms

Die Grundvoraussetzung für Urknall-Modelle hatte Einstein mit der 1915 publizierten allgemeinen Relativitätstheorie selbst geschaffen. In den 1920er Jahren entwickelte Georges Lemaître die erste Urknall-Theorie, 1929 entdeckte Edwin Hubble durch Entfernungsmessungen an Sternen außerhalb der Milchstraße schließlich die Expansion des Universums. Er bestätigte damit Lemaîtres Vorhersage, ohne dass ihm dessen Arbeit bekannt war. Dies schien die Annahme eines extrem heißen, dichten Anfangszustands, eines Uratoms, das im Moment der Entstehung des Universums explodierte, zu stützen.

Hoyles Gegenentwurf

In den späten 1940er Jahren widersprach Fred Hoyle dieser Interpretation: Er erkannte zwar Hubbles Entdeckung der Expansion des Universums an, folgerte daraus aber, dass sich das Universum in einem Zustand der Gleichförmigkeit befinde, in dem die kontinuierliche Erzeugung von Materie die Expansion des Weltalls vorantreibe. Detail am Rande: Den heute gängigen Begriff "Big Bang" prägte kein anderer als Hoyle, als er 1949 in einer BBC-Radiosendung die Urknalltheorie Lemaîtres kritisierte.

Öffentlich zugängliches Dokument

Wie das nun entdeckte Dokument zeigt, hatte Einstein die Grundidee der Steady-State-Theorie schon viel früher - ohne, dass Hoyle wiederum davon wusste: "Betrachtet man ein durch physische Massstäbe begrenztes Volumen, so wandern unausgesetzt materielle Teilchen aus demselben hinaus. Damit die Dichte konstant bleibe, müssen immer neue Massenteilchen in dem Volumen aus dem Raume entstehen", heißt es dort. Dass er die Idee wieder verwarf zeigt, dass Einstein der späteren Fachdebatte um fast zwei Jahrzehnte voraus war: Der zum Teil auf amerikanischem Briefpapier geschriebene Entwurf dürfte 1931 während einer Reise nach Kalifornien entstanden sein, glauben Experten.

Entdeckt hat das Manuskript nun der Physiker Cormac O’Raifeartaigh vom irischen Waterford Institute of Technology - obwohl es streng genommen nie verschwunden war: Es ist seit langem frei zugänglich im Albert-Einstein-Archiv in Jerusalem ausgestellt und auch online in dessen digitaler Datenbank abrufbar. Irrtümlicherweise wurde es bisher allerdings für den Erstentwurf eines anderen Einstein-Papers gehalten. O’Raifeartaigh und seine Kollegen veröffentlichten ihre Entdeckung aktuell auf dem Preprint-Server arXiv. (David Rennert)
 

Link
Digitalisiertes Originaldokument (Einstein Archives Online)
Abstract
arXiv: "A steady-state model of the universe by Albert Einstein"



aus Der Standard, Wien, 26. 2. 2014



Wie Albert Einstein gegen den Urknall stritt
In einem bisher unveröffentlichten Manuskript aus dem Jahr 1931 vertrat der Vater der Relativitätstheorie die Ansicht, dass im Universum ständig neue Materie entsteht. Aber er hatte sich verrechnet.



Das Universum dehnt sich aus, alle Galaxien bewegen sich voneinander fort: Diese Erkenntnis Edwin Hubbles im Jahr 1929 revolutionierte unser Weltbild. Die nächste Revolution fand Ende der Neunzigerjahre statt: Seit damals glauben die meisten Kosmologen, dass sich das Universum nicht nur ausdehnt, sondern immer schneller ausdehnt.

Es war der Theologe und Physiker Georges Lemaître, der 1931 einen naheliegenden Schluss zog: Wenn sich das Universum beständig ausdehnt und keine Materie dazukommt, verliert es immer mehr an Dichte. Umgekehrt war es früher dichter als heute. Extrapoliert man zurück, kommt man zu einem Zeitpunkt, wo es die größtmögliche Dichte hatte: Lemaître sprach vom Uratom. Heute sagen wir Urknall bzw. auf Englisch Big Bang. Dieses Wort war anfangs spöttisch gemeint, Fred Hoyle prägte es. Er mochte die Urknalltheorie nicht und entwickelte in den späten Vierzigern eine Alternative: die Steady-State-Theorie. Dieser zufolge expandiert das Universum zwar, seine Dichte bleibt aber konstant. Logische Folgerung: Es muss immer neue Materie entstehen. Das glaubt heute kaum mehr einer.

Doch Einstein liebäugelte damit. Das entdeckte der Physiker Cormac O'Raifeartaigh in den „Albert Einstein Archives“ der Uni Jerusalem: Er las ein unveröffentlichtes Manuskript Albert Einsteins, entstanden 1931 auf einer Reise nach Kalifornien, mit dem Titel „Zum kosmologischen Problem“. Bisher hatte man es für einen Entwurf für den sehr wohl publizierten Artikel „Zum kosmologischen Problem der allgemeinen Relativitätstheorie“ gehalten. Nun fand O'Raifeartaigh: Es enthält andere Gedanken. Vor allem den, dass die Dichte des Universums konstant bleibt, weil ständig neue Teilchen entstehen. So nahm Einstein die Steady-State-Theorie voraus.

Er glaubte an ein statisches Universum

Einstein ging von einem Problem aus, das ihn schon lange plagte: Die von ihm 1915 vollendete allgemeine Relativitätstheorie erlaubt zunächst keine statische Lösung für das Universum. Da Einstein aber nicht glaubte, dass das Universum sich ausdehnt – oder zusammenzieht –, führte er eine „kosmologische Konstante“ λ in seine Gleichungen ein, durch die ein statisches Universum möglich wurde. Als er 1929 von der Expansion des Universums erfuhr, verwarf er die Konstante als „Komplikation, die die logische Einfachheit der Theorie beeinträchtigt“, nannte sie angeblich „die größte Eselei meines Lebens“. Die Konstante ist längst wieder da, heute wird sie als Energiedichte des Vakuums interpretiert – und als Grund für die beschleunigte Expansion des Universums.

Wie kam Einstein auf die Aussage, dass die Dichte konstant sei? Offenbar durch einen Rechenfehler, den er selbst noch an einer Stelle korrigierte – die Zahl 9 durch 3 ersetzte –, bevor er das Manuskript beiseitelegte. Wohl, weil er erkannte, dass ohne den Fehler ein triviales Ergebnis herausgekommen wäre: dass die Dichte gleich null ist. Damit ist der zentrale Satz der Arbeit hinfällig: „Die Dichte ist also konstant und bestimmt die Expansion bis auf das Vorzeichen.“ Und auch die abschließende Erklärung Einsteins: „Der Erhaltungssatz bleibt dadurch gewahrt, dass bei Setzung des λ-Gliedes der Raum selbst nicht energetisch leer ist.“

Das nur vierseitige Manuskript bezeugt zweierlei: dass auch große Köpfe sich schlicht verrechnen können. Und dass auch Genies wie Einstein ihren Vorurteilen treu bleiben. Die Idee, dass das Universum nicht im Wesentlichen gleich bleibt, war ihm einfach über Jahrzehnte zuwider. Ähnlich wie die Konsequenzen der Quantentheorie.

Sonntag, 23. Februar 2014

Proconsul - der erste Menschenartige.

aus Der Standard, Wien, 23. 2. 2014

Frühe Menschenartige waren zumindest zeitweise Waldbewohner
Forscher fanden in Afrika 18 Millionen Jahre alte Überreste eines Waldes, zu dessen Bewohnern auch der Primat Proconsul zählte

Auf der Insel Rusinga im Viktoriasee hat ein internationales Team von Wissenschaftern die Überreste eines dichten urzeitlichen Waldes entdeckt. Die zahlreichen Fossilien geben einen hervorragenden Einblick in die Lebenswelt in dem Biotop vor rund 18 Millionen Jahren. Doch ein Fund stellte die übrigen Entdeckungen in den Schatten: Die Forscher legten im ursprünglichen Waldboden Knochen eines frühen Menschenartigen frei - und gelangten dadurch zu einer lange gesuchten Antwort: Erstmals liegen nun Beweise vor, dass die schwanzlosen Affen der Gattung Proconsul wenigstens zeitweise in einem sehr dichten Wald lebten. Die Ergebnisse wurden jetzt im Fachjournal "Nature Communications" veröffentlicht.

Etwa zu jener Zeit, als die ersten Menschenartigen entstanden, begann der Ostafrikanische Graben sich zu öffnen. Über Millionen von Jahren hin bildete sich dadurch zeitgleich eine Vielzahl unterschiedlicher Lebensräume. Da sich ändernde Umweltbedingungen einen starken Selektionsdruck auf Arten ausüben, waren diese variablen Lebensbedingungen auch eine Triebkraft für die Evolution von Affen und Frühmenschen.

Die Savanne, die heute so charakteristisch für große Landstriche Afrikas ist, gab es damals noch nicht: Afrika war teils dicht bewaldet. Im kenianischen Teil des Viktoriasees auf der Insel Rusinga haben Forscher der Baylor University, Texas, USA, sowie anderer Universitäten und Dr. Thomas Lehmann, Senckenberg Gesellschaft für Naturforschung, die 18 Millionen Jahre alten fossilen Überreste eines Waldstück entdeckt und untersucht. Hier ist eine ganze Lebensgemeinschaft dokumentiert: Blätter, Baumstümpfe, Stämme, Wurzelsysteme, Wirbeltiere und Wirbellose Tiere. Dort, buchstäblich an den Fuß eines dieser Baumstämme, fanden die Forscher auch fossile Überreste von Proconsul, einer der ältesten Gattungen von Menschenartigen (Hominoiden). Dies ist der erste Beweis, dass Proconsul tatsächlich auch im Wald lebte.

Unterschiedliche Umweltvorlieben

Proconsul ist für die Wissenschaft ein alter Bekannter: Diese Art ist durch zahlreiche Fossilien an verschiedenen Fundstellen Ostafrikas belegt. Aber an welchen Lebensraum war dieser Affe angepasst? Das war bisher unbekannt. "Frühere Arbeiten an den Fossilien-Fundstellen auf Rusinga deuteten auf eine Vielfallt gegensätzlicher Umweltvorlieben des Proconsul hin. Keine dieser früheren Arbeiten konnte den Proconsul eindeutig einem spezifischen Habitat zuordnen", erklärt Daniel Peppe, Junior-Professor für Geologie an der Baylor University.

Anatomisch scheint der Proconsul vielseitig in seiner Fortbewegungsweise: Seine große Zehe und die Art, wie die Muskeln daran angesetzt haben müssen, deuten darauf hin, dass er mit den Füßen greifen konnte. Aber Schulter, Ellenbogen und Arme zeigen, dass er sich auch auf allen Vieren fortbewegte: Proconsul war für das Leben im Wald geeignet, konnte aber auch in offenen Landschaften zurecht kommen. Nun ist sicher, dass die Art zumindest für einige Zeit auch im Wald vorkam.

Waldheimat des Proconsul

Doch Wald ist nicht gleich Wald. Da sich das fossile Waldstück auf Rusinga in einem bemerkenswert detaillierten Zustand erhalten hat, können es die Wissenschafter sehr genau beschreiben und diesen Lebensraum eines frühen Menschenartigen als Ganzes betrachten. Die Bäume sind mit Wurzeln und so gruppiert erhalten, wie sie einmal gewachsen sind. Die Forscher konnten ausmessen, wie weit die Bäume auseinander standen, wie breit die Stammdurchmesser waren und wieviel Blattmasse anfiel. Daraus lässt sich berechnen wie dicht und feucht der Urwald war. In diesem Wald waren neben den frühen Menschenartigen auch verschiedene Nagetiere, Fleischfresser und Eichhörnchen beheimatet. Es war ein sehr dichter Wald mit großen, ein Kronendach bildenden Bäumen von bis zu 160 Zentimetern Stammdurchmesser.

Doch gab es diesen Wald nur für eine begrenzte Zeit. Spuren des Proconsul dagegen finden sich auch in anderen Grabungsschichten. Für diese Art war das Leben im Wald also nur eine neben anderen Optionen – was zeigt, dass die ältesten Menschenartigen über große Anpassungsfähigkeit in dynamischen Lebensräumen verfügten.

"Seit den 1940er Jahren wird in Rusinga nach Fossilien gesucht. Aber erst jetzt wurden diese Baumstämme gefunden", erläutert Dr. Thomas Lehmann die Besonderheit der Fundstätte: "Nur durch die Zusammenarbeit von Geologen, Paläoanthropologen, Paläobotanikern, und Paläontologen konnte der Lebensraum dieser Frühmenschen vollständig untersucht werden und diese wechselnden Umgebungsbedingungen feststellen." (red.)
 

Freitag, 21. Februar 2014

Open access: Wissenschaft ist öffentliches Wissen.

aus derStandard.at, 20. Februar 2014, 17:54

Offene Türen zu neuen Erkenntnissen
Immer mehr Verlage starten Open-Access-Journale für den Gratiszugang zu wissenschaftlichen Publikationen

Die ehrwürdige Londoner Royal Society ist endgültig in der Gegenwart angekommen: 349 Jahre nach der Gründung von Philosophical Transactions, des ersten wissenschaftlichen Fachmagazins, das Forschungsarbeiten nach Begutachtung durch Kollegen (Peer- Review) veröffentlicht, geht sie mit dem Open-Access-Journal Royal Society Open Science online. Naturwissenschafter und Mathematiker sollen hier wie gehabt ihre Arbeiten einreichen können. Der Unterschied zu den übrigen Fachmagazinen der alten Gelehrtengesellschaft: Niemand muss für den Zugang zum veröffentlichten Paper zahlen.

Forschung wird meist von der öffentlichen Hand finanziert. Vor diesem Hintergrund wurde der Ruf nach freiem und kostenlosem Zugang zu wissenschaftlichen Veröffentlichungen in den letzten Jahren immer lauter. Für die Publikation von Forschungsergebnissen, die im neuen EU-Forschungsrahmenprogramm Horizon 2020 erzielt werden, wurde kürzlich sogar eine Verpflichtung zu Open Access festgeschrieben.



Dabei gibt es zwei Kategorien: Bei Green Open Access publizieren Wissenschafter nach wie vor in klassischen Zeitschriften wie Nature oder Science. Die meisten Verlage lassen es dann zu, dass eine inhaltlich, aber nicht grafisch idente Kopie des Artikels nach einer Embargofrist von bis zu zwölf Monaten in frei zugänglichen institutionellen Archiven deponiert wird. Gold Open Access ist dagegen nichts anderes als ein Fachmagazin, das alle Artikel frei zugänglich macht - wie etwa PLoS One oder eben Royal Society Open Science. Auch die Herausgeber des Fachmagazins Science haben kürzlich eine Open-Access-Schwester des renommierten Fachblatts angekündigt: Science Advances soll 2015 erscheinen.

Pilotprojekt mit Zukunft

Der Trend ist deutlich: Bereits 20 Prozent aller Fachartikel werden in Open-Access-Zeitschriften publiziert. Rechnet man Green Open Access dazu, sind es schon deutlich mehr. Diese Eigenarchivierung unterstützt nun auch das IST Austria in Maria Gugging mit einer eigenen Richtlinie. IST-Chef Thomas Henzinger will sichergehen, dass "die Ergebnisse unserer Forschung einem möglichst großen Publikum zur Verfügung gestellt werden". Wie reagieren die großen Wissenschaftsverlage wie Elsevier, Wiley, Springer oder Taylor & Francis auf diesen Trend? Da sie in den letzten Jahren mit ihren kostenpflichtigen Zeitschriften Milliardengewinne einfahren konnten, sind sie naturgemäß wenig erfreut. Mittelgroße Verlage wie Institute of Physics (IOP) scheinen sich eher zu Lösungen bereit zu erklären, sagt Falk Reckling, Open-Access-Experte beim Wissenschaftsfonds FWF. In einem Pilotprojekt haben das IOP, der FWF und das österreichische Bibliothekenkonsortium eine Variante erarbeitet, die Zukunft haben sollte.

Fachartikel, die aus FWF-Projekten hervorgehen und in Zeitschriften von IOP erscheinen, können auf Wunsch der Wissenschafter Open Access gestellt werden. Die Kosten übernimmt der FWF. Die Kosten für Open Access, die dem FWF entstehen, werden den österreichischen Forschungsstätten wiederum von den Subskriptionspreisen für Magazine von IOP abgezogen. "Damit werden die Artikel frei zugänglich, ohne dass für das Wissenschaftssystem Mehrkosten entstehen", sagt Reckling. Die Max-Planck-Gesellschaft, die Los Alamos National Laboratories sowie britische und niederländische Bibliothekenkonsortien haben bereits Interesse an dem Modell angemeldet. (pi)

Donnerstag, 20. Februar 2014

Der Pontifex maximus des deutschen Philisteriums.

aus NZZ, 20. 2. 2014

Streit um Hegel
Aus dem Nachlass Wolfgang Harichs

von Stefan Dornuf · Fast zwanzig Jahre nach dem Tod des Ostberliner Philosophen Wolfgang Harich (1923-1995) hat der Marburger Tectum-Verlag eine auf elf Bände veranschlagte Nachlassedition begonnen. Der Herausgeber Andreas Heyer hat im vorliegenden Band fünf sämtliche erreichbaren Texte und Materialien untergebracht, die den Streit um Hegel in der DDR der fünfziger Jahre dokumentieren: «An der ideologischen Front. Hegel zwischen Feuerbach und Marx». Tatsächlich lieferte der «Fall Hegel» einen willkommenen Vorwand für den Ideologiepapst Kurt Hager, im Verein mit dem Leipziger Ordinarius Rugard Otto Gropp die philosophische Szene von lästigen Störenfrieden zu säubern. So kam es, dass Harich 1956 für acht Jahre im Gefängnis verschwand, Ernst Bloch 1957 seine Lehrbefugnis verlor und Georg Lukács ab 1958 in der DDR nicht mehr verlegt werden durfte. Damit war der Kahlschlag komplett, und es etablierte sich in Ostdeutschland das philosophische Regime Manfred Buhrs, dem später noch die Harich-Schülerin Camilla Warnke zum Opfer fallen sollte, die gemeinsam mit ihrem Ehemann Peter Ruben aus der Akademie der Wissenschaften ausgeschlossen wurde.

Dank seinen Mehrfachfunktionen - als Mitherausgeber und Chefredakteur der «Deutschen Zeitschrift für Philosophie», als Chefredakteur des Aufbau-Verlags für Philosophie und Belletristik sowie als Dozent an der Humboldt-Universität - war Harich in der intellektuellen Landschaft der DDR eine nicht zu umgehende Grösse. Der bisweilen als Wunderkind Apostrophierte liess keinen Zweifel daran, dass das für ihn massgebliche Hegel-Bild sich von demjenigen Stalins - der Diktator hatte Hegel als Reaktionär abgestempelt - unterschied. Inspirieren liess Harich sich von Lukács und Bloch, deren Konzeptionen er auch in seinen einschlägigen Lehrveranstaltungen propagierte, die auf beinahe 300 Seiten dokumentiert werden. Die dialektische Pointe dabei ist, dass nicht der politisch radikalere Fichte, sondern der gemässigte Hegel die letztlich adäquate Einschätzung der bürgerlichen Umwälzung in Frankreich liefert, weil er, anders als Fichte, die Kategorie der «Versöhnung» kennt. Auf dieser Linie wird dann auch der im Vergleich mit den utopischen Sozialisten grössere Realismus eines Karl Marx verständlich.

In seinen Vorlesungen charakterisiert Harich Hegel als «philiströs, spiesserhaft, altklug und alltäglich und vor allem: [eine] eines jedes Schwungs und jeden Feuers entbehrende durch und durch prosaische Natur». Doch sollte man die dialektische Umwendung nicht überlesen. Aus alledem folgt nämlich nicht weniger, als dass Hegel, so Harich, «frei von der Sentimentalität des Sturms und Drangs war. Nichts von jenem Kultus der Individualität, von jener hypochondrischen Selbstbeobachtung, jenem Schöntun mit sich selbst, wie es sich in der bürgerlichen Intelligenz infolge der allgemeinen Verödung des öffentlichen Lebens durch den Mangel grosser und allgemeiner Interessen in Deutschland ausgebildet hatte.» - Es ist deprimierend zu sehen, wie Wolfgang Harichs Versuche der Aufklärung des philosophisch interessierten Publikums von der bornierten Kaderphilosophie immer wieder hintertrieben wurden. Und es ist nicht übertrieben, zu sagen, dieser Band erbringe den Beweis, dass die offizielle Kulturpolitik der SED schon zu einem frühen Zeitpunkt einer Bankrotterklärung gleichkam.

Wolfgang Harich: An der ideologischen Front. Hegel zwischen Feuerbach und Marx. Schriften aus dem Nachlass. Herausgegeben von Andreas Heyer. Band 5. Tectum-Verlag, Marburg 2013. 816 S., Fr. 55.60.

Mittwoch, 19. Februar 2014

Mischexistenz im Real Life.


Paul Marx, pixelio.de
aus NZZ, 19. 2. 2014

Den Stecker ziehen
Über die Sehnsucht nach einem Leben ohne Internet und die falsche Vorstellung von zwei Welten

von Eduard Kaeser

Bereits werden Entgiftungskuren für Netzabhängige auf dem Therapiemarkt angeboten und «Offline»-Tage ausgerufen. Das hat etwas für sich - allerdings nur, wenn darob nicht vergessen geht, dass wir nicht in zwei Welten leben, einer virtuellen und einer echten, sondern in einer einzigen Welt: als Mischwesen. 

Paul Miller zum Beispiel, ein junger Technikjournalist, übte sich in einjähriger Internet-Enthaltsamkeit. Er schrieb in geradezu verzückter Tonlage des Illuminierten: «Anfang 2012 war ich 26 Jahre alt und ausgebrannt. Ich wollte eine Auszeit vom modernen Leben - von dem Hamsterrad der E-Mail-Box und der ständigen Flut der WWW-Informationen, die meine Gesundheit ersäuften. Ich wollte fliehen [. . .] Das 'reale Leben' wartete vielleicht auf der anderen Seite des Web-Browsers auf mich. Wie es schien, wurde meine Vermutung in den ersten Monaten bestätigt. Das Internet hatte mich von meinem wahren Selbst zurückgehalten, dem besseren Paul. Ich habe den Stecker herausgezogen und das Licht gefunden.»

«IRL»

Ein Diskurs über digitale Abstinenz scheint Platz zu greifen. Zum Internet-Slang gehört beispielsweise das Kürzel «IRL»: In Real Life. Es wird in Online-Chats gebraucht, um einen Gesprächspartner oder Mitspieler als realitätsfremden Geek blosszustellen; etwa so: «Ich spreche von meinen Freunden IRL, nicht von dir, du Loser.» Offenbar gewinnt das Leben offline gerade in Online-Foren an besonderer Bedeutung und Würde - vor dem Hintergrund eines «digitalen Dualismus», wie ihn der Mediensoziologe Nathan Jurgenson nennt: falsches, krankes, unnatürliches Leben im Netz - wahres, gesundes, natürliches Leben ausserhalb.

Nun ist nicht zu leugnen, dass die «digitale» Lebensform Entfremdungen, Verkümmerungen, Süchte schafft. Aber eingedenk des alten medizinischen Wortes, dass eine Krankheit erst da existiert, wo auch eine Diagnose ist, wäre gerade angesichts der neuen Netz-Gewohnheiten zu Vorsicht zu raten - es gibt unter Ärzten vermutlich mehr Kontroversen als Konsens über pathogene Wirkungen des Netzes. Nichtsdestoweniger verzeichnet die Chronik der laufenden Pathologisierung Bücher mit suggestiven Titeln wie «Was das Internet mit unserem Gehirn anstellt» oder «Digitale Demenz»; und die Vereinigung amerikanischer Psychiater erwägt, infolge von Netzbenutzung entstehende Gebresten - «internet use disorder» - ins Handbuch psychischer Krankheiten aufzunehmen. Parallel dazu beginnt ein Wellness- und Reha-Markt ins Kraut zu schiessen, mit entsprechenden Therapieangeboten. Unlängst erlangte der englische Kinderpsychiater Richard Graham eine gewisse Berühmtheit, als er ein vier Jahre altes Mädchen wegen dessen vermeintlicher Tablet-Abhängigkeit behandelte. «Englands jüngste iPad-Süchtige», vermeldete eine Schlagzeile.

«Disconnect to reconnect»

Der Internet-Ausstieg nimmt bereits die Gestalt einer Bewegung an, die unter dem Banner «digitale Entgiftung» («digital detox») Wind macht. In Artikeln und Blogs blüht das Genre der Selbsterfahrung und Selbsthilfe: «Wie eine wöchentliche digitale Entgiftungskur mein Leben änderte» oder «Warum wir so an der Technik festgehakt sind (und wie wir den Stecker herausziehen können)». Der Begriff «digital detox» ist neuestens in den Oxford Dictionary Online gelangt: «Die Zeitspanne, in der eine Person auf den Gebrauch von elektronischen Smartphones oder Computer verzichtet, um Stress zu vermindern oder sich auf soziale Begegnungen in der physischen Welt zu konzentrieren.» In der Schweiz ist im letzten Dezember ein «Offline-Day» erprobt worden. In den USA findet ein «National Day of Unplugging» statt. Das Esalen-Institut an der Pazifikküste, berühmt geworden als Abflugrampe für spirituelle Raumflüge, bietet den «Digital Detox Retreat» an unter dem Motto «Disconnect to reconnect». In eingeweihten Ohren klingt das alte Hippie-Motto «Turn on, tune in, drop out» nach, nun in seiner Internetversion: «Log out!» Man mag hinter der Suche nach dem wahren Leben einen modischen Hype vermuten - eine «Fetischisierung des IRL», wie Jurgenson das nennt. Aber solche Sorgen und Anstrengungen drücken ein uraltes und ernstes Problem aus, das jede Person auf ganz individuelle Weise heimsucht.

Menschen haben den mehr oder weniger starken Drang, jemand zu sein, eine Person eben - jemand Unverwechselbares. Wir lernen von klein auf, uns darzustellen, eine Rolle zu spielen, uns selbst als diese oder jenen zu erfinden. «Persona» heisst auch «Maske». Masken und Rollen auszuprobieren, gehört zum Heranwachsen und In-die-Gesellschaft-Hineinwachsen. Früher gaben - etwas vereinfacht gesagt - Familie, Schule, Kirche, Beruf vor, wer man war. Heute ist das soziale Netz viel offener, dadurch auch haltloser. Man sucht Identität über soziale «Performance» und flüchtige Zugehörigkeiten: zur Firma, zum Fanklub, zum Facebook-Freundeskreis. Es gibt nicht «das» Selbst, es gibt Angebote des Selbst-Seins. Es gibt Ich-Rollen, Ich-Futterale, Ich-Surrogate.

Mischexistenz

Sollen wir also, da doch ohnehin alles Fake ist, die Idee eines wahren Lebens aufgeben? Nein. Aber die Gleichung «offline = real» ist grundfalsch. Der eingangs erwähnte Paul Miller entdeckte nach einem Jahr, dass die Abstinenz ihn nicht realer oder wahrer gemacht hatte, als er es ohnehin schon war. Diese Einsicht ist so umwerfend neu nicht, aber dennoch aufschlussreich. Denn sie unterstreicht den fundamentalen Punkt: Es gibt nicht eine Welt des Physischen und eine Welt des Digitalen. Es gibt eine einzige Welt, in der Atome und Bits Platz haben. Das ist nicht erst so, seit wir unsere Alltagswahrnehmung mit Netz-Anschlussgeräten erweitern. Das Virtuelle - Imaginäre oder Fiktive - ist dem Physischen immer schon beigemischt. Der schottische Philosoph David Hume gibt einmal, in etwas anderem Zusammenhang, das Beispiel des Mannes in einem Eisenkäfig, der in luftiger Höhe an einem Turm sicher befestigt ist. Trotz der Sicherheit könne sich dieser Mann des Zitterns nicht erwehren. Warum nicht? Weil er sich durchaus vorstellen kann, hinunterzufallen. Imagination übersteigt stets die Grenzen der gegebenen Situation. Das kann wunderbar sein oder auch angsteinflössend. Sind wir dabei, zu vergessen, dass es die «augmented reality» immer schon gegeben hat, in Gestalt von Kunst, Literatur, Theater, Musik?

Man fühlt sich an das 18. Jahrhundert erinnert, als Rousseau die Vorstellung eines natürlichen Lebens vor dem Kontrasthintergrund des gekünstelten nährte. Damals waren es die verderbten Sitten, die den Wunsch nach dem Natürlichen weckten, heute ist es das Internet, das die Vision eines Lebens «unplugged» wachruft. Nicht, dass die zahlreichen verstörenden, entfremdenden, krank machenden Phänomene im Umgang mit den neuen Medien zu verharmlosen wären. Aber indem man dem Online-Offline-Paar den Dualismus von krank - gesund, anormal - normal, unecht - echt aufprägt, verschärft man eher die Probleme.

Anders gesagt: Wer von «krank», «unecht», «anormal» spricht, führt stets ein Vorverständnis des Gesunden, Echten, Normalen ins Treffen. Und ein solches Vorverständnis bevorzugt den Status quo, verteidigt ihn gegebenenfalls mit dem normativen Knüppel. Hat nicht unlängst ein von pastoraler Sorge um die Normalität getriebener Kirchenmann die Gender-Forschung hirtenbrieflich als wider Natur und Gottesordnung abgekanzelt? Michel Foucault sensibilisierte für das repressive Potenzial, das im Echten, Gesunden und Normalen steckt - und heute erscheint nichts dringender, als mit kritischer Sensibilität der Mischexistenz innezuwerden, die wir im Umgang mit den neuen Medien führen.

Die Mischexistenz ist der Normalzustand. Wer am Morgen zu Kaffee und Gipfeli auf dem Tablet liest, exemplifiziert diesen Normalzustand in seiner vollen Banalität: Er nimmt sowohl Atome als auch Bits zu sich. Makroskopisch gesehen verhält es sich mit Online und Offline so, wie wenn wir in einer Salatsauce lebten, in der sich Öl und Essig nur schwer, falls überhaupt, scheiden lassen. Aber gerade deshalb sollten wir ein kulturelles Trennverfahren pflegen, in Form einer medialen Mikrokompetenz, über die wir alle verfügen. Sie lässt sich mit einem einfachen, unprätentiösen Wort charakterisieren: Unterscheidungsvermögen. Es gilt entscheiden zu lernen, wann ich das Gerät gebrauchen will und wann nicht; wann ich ihm trauen soll und wann nicht. Genau dieses Vermögen überbrückt den vermeintlichen Dualismus.

Augen, Ohren, Nerven verpachten?

«Augmented reality» ist ein Euphemismus für das Suchtpotenzial all der schönen smarten Dinge, die optimiert werden, uns zu sagen, was wir tun und lassen sollen. Dahinter stecken natürlich die Entwickler. Höchste Zeit, deren Menschenbild zu durchleuchten, das sie in ihre Gadgets zum alleinigen Zweck der Wertschöpfung verpacken. Zu vermuten steht, dass der eigenständige, der «echt» unterscheidungsfähige Mensch darin kaum noch Platz findet. Und genau das ist die Katastrophe, die sich still und flächendeckend in Gestalt des entfesselten Elektronikmarktes ereignet. Wie schrieb Marshall McLuhan vor fast fünfzig Jahren: «Unsere Augen, Ohren und Nerven an kommerzielle Interessen zu verpachten, ist fast das gleiche, wie wenn man die menschliche Sprache einem Privatunternehmen übergäbe, oder die Erdatmosphäre zu einem Monopol einer Firma machte.» - Sind wir auf dem besten Weg in diese schlechteste aller möglichen Welten?

Dr. Eduard Kaeser, ehemals Gymnasiallehrer für Physik und Philosophie an der Kantonsschule Olten, ist als freier Publizist tätig. 2012 ist im Basler Schwabe-Verlag «Multikulturalismus revisited. Ein philosophischer Essay über Zivilisiertheit» erschienen.

Montag, 17. Februar 2014

Hirnforschung, Psychiatrie und Ursachen.

aus NZZ, 15. 2. 2014                                        Philippe Pinel at the Salpêtrière, 1795 by Tony Robert-Fleury.
  
Erfasst der Blick ins Hirn die Psyche?
Wie ein Psychiater und ein Neuroinformatiker die Chancen neuer Technologien zur Krankheitserkennung beurteilen
 

Die Invalidenversicherung Luzern setzt Hirntests ein, auch in der Psychiatrie hält die Neurologie Einzug. Der in Zürich forschende Neuroinformatiker Klaas Enno Stephan und Psychiater Michael Rufer warnen vor übertriebenen Erwartungen.

Herr Rufer, mit welchen psychischen Störungen sind Sie in Ihrer Klinik häufig konfrontiert?

Michael Rufer: Da unsere Klinik zum Universitätsspital gehört, ist die Psychosomatik ein Schwerpunkt. Oft geht es also darum, herauszufinden, welche Leiden körperlich und welche psychisch bedingt sind. Daneben haben wir häufig mit Angst- und Zwangsstörungen, mit Depressionen oder Folgen von Traumatisierungen zu tun. Eher selten sind klassische psychiatrische Erkrankungen wie die Schizophrenie.

Wie zeigt sich krankhaftes Verhalten?

Rufer: Depressive Patienten zum Beispiel fühlen sich niedergeschlagen und antriebslos. Auch Menschen mit Angst- oder Zwangsstörungen leiden unter ihrer Krankheit. Ängste und Zwänge schränken ihr Leben ein.

Herr Stephan, Sie analysieren solches Verhalten im Hirn. Wie soll man sich das vorstellen?

Klaas Enno Stephan: Nein, und es ist auch nicht unser Ziel, subjektiv erlebte Gefühlszustände biologisch eins zu eins abzubilden. Unsere Ambitionen sind viel simpler: Wir wollen die wahrscheinlichsten Mechanismen entschlüsseln, die zu bestimmten Symptomen führen. Dazu entwickeln wir Messverfahren, die wir zum Beispiel bei Schizophrenie-Patienten anwenden.

Was meinen Sie mit «Mechanismen»?

Stephan: Uns interessiert die Übertragung von Informationen zwischen Neuronen und wie diese sich bei Interaktionen mit der Umwelt ändert; wir konzentrieren uns also auf die Plastizität. Solche Interaktionen lassen sich biologisch beschreiben, die Plastizität lässt sich messen. Zudem können wir aus Verhaltensmessungen die Algorithmen 'ablesen', die ein Mensch für die Informationsverarbeitung einsetzt. Unser Ziel ist es, den Ärzten präzisere Diagnose- und gezielte Therapiemöglichkeiten zu liefern, indem wir solche Mechanismen messbar machen.

Sind Ihre Methoden vergleichbar mit denjenigen der Invalidenversicherung Luzern, die mit Hirntests die Arbeitsunfähigkeit gewisser Gesuchsteller überprüft?

Stephan: Meines Wissens nicht - wobei ich nur die Berichte aus der Presse kenne. Ich wäre allerdings erstaunt, wenn die IV-Stelle wirklich versuchen würde, mit Hirnstrommessungen ganz allgemein kranke von gesunden Menschen zu unterscheiden.

Weshalb zweifeln Sie?

Stephan: Es gibt dazu keine seriös validierte Grundlage, hingegen gibt es viele Studien zu Veränderungen der Hirnaktivität bei psychischen Krankheiten. Wir wissen, dass sich verschiedene psychische Störungen markant voneinander in den Hirnaktivitäten unterscheiden und dass diese Unterschiede sich bei unterschiedlichen psychischen Prozessen anders darstellen. Es ist abwegig, alle psychischen Erkrankungen über einen Leisten schlagen zu wollen.

Rufer: Die IV Luzern will meines Wissens damit keine Diagnose stellen, benutzt aber sogenannte ereigniskorrelierten Potenziale im EEG, um festzustellen, ob bestimmte Defizite und Beschwerden tatsächlich vorhanden sind.

Die IV will damit beweisen, ob jemand simuliert oder nicht. Ist das möglich?

Rufer: Nein, das ist wissenschaftlich absolut unhaltbar. Im Einzelfall kann man nie sicher sagen, wie das Ergebnis zu bewerten ist. Und ausserdem müsste bei der Interpretation das ganze Setting mit einbezogen werden: Lässt jemand freiwillig seine Hirnströme messen, wie beispielsweise im Rahmen von Forschungsprojekten, funktioniert das Gehirn ganz anders als in einer Stresssituation. Steht jemand unter Druck und ist nervös, verändert das die biologischen Reaktionen des Gehirns.

Beim Traumapatienten sind Lebensereignisse der Grund für die Krankheit. Solche Ereignisse lassen sich doch nicht visualisieren.

Stephan: Nein, natürlich nicht. Aber die Erlebnisse eines Menschen prägen sein Hirn, und umgekehrt bestimmt die sich stetig ändernde Struktur eines Hirns zu einem gewissen Teil, wie ein Mensch soziale Erlebnisse sucht. Die Prinzipien dieses Wechselspiels und dessen Ausprägung auf zellulärer Ebene sind inzwischen gut bekannt. Die Ursache eines Traumas ist uns aber nicht zugänglich, alles, was wir darüber wissen, entnehmen wir dem Bericht des Patienten. Wir können das, was der Patient erlebt hat, nicht rückgängig machen. Aber wir können den Ist-Zustand des Gehirns ändern, entweder durch Psychotherapie oder mit Medikamenten.

Herr Rufer, ist man sich darin auch unter Psychiatern einig?

Rufer: Ja, absolut. Vor etwa zwanzig Jahren zeigten zwei bahnbrechende Studien, dass Menschen mit Zwangsstörungen andere Hirnfunktionen haben als Menschen ohne solche Störungen. Es stellte sich zudem heraus, dass sich dank einer erfolgreichen Psychotherapie die Hirnfunktionen normalisieren. Inzwischen wurden solche Nachweise schon x-mal erbracht.

Eine psychologische Intervention ist also dann erfolgreich, wenn sich dadurch das Hirn verändert.

Rufer: Ja, solche Erkenntnisse der Neurowissenschaften machen klar, dass eine Trennung zwischen der biologischen, psychologischen und sozialen Sichtweise nicht mehr sinnvoll ist. Jede psychische Krankheit hat neben einer psychologischen und sozialen Seite auch eine biologische Komponente. Keine ist per se richtig oder falsch, sondern man muss die unterschiedlichen Sichtweisen des gleichen Phänomens zusammenführen. Noch wissen wir nicht genau, wie die Biologie des Gehirns durch Psychologie veränderbar ist. Aber es wäre ein riesiger Fortschritt, wenn wir Untergruppen bestimmter Krankheiten biologisch identifizieren könnten.

Warum sind psychiatrische Diagnosen so schwierig?

Rufer: Sie sind rein deskriptiv und entsprechend oberflächlich. Wenn ein Patient sagt, er habe eine Depression, sagt mir das noch nicht viel. Ich versuche dann in Gesprächen, unter Einbezug seiner Lebensgeschichte, herauszufinden, wie die Depression entstanden ist und was sie für ihn bedeutet. Das Ziel ist jedoch das gleiche wie jenes der Neurobiologen, nämlich die Depression genauer zu verstehen, um dann eine individualisierte Therapie anzubieten . . .

. . . und je nachdem ein bestimmtes Medikament auszuprobieren.

Rufer: Das ist bei Medikamenten die Crux. Wir haben keine Möglichkeiten, die Wirkung im Einzelfall vorherzusagen. Das wissen wir erst nach einigen Wochen. Allerdings arbeiten wir in unserer Klinik mehrheitlich psychotherapeutisch.

Stephan: Den Psychiatern fehlen auf Prinzipien beruhende Indikatoren. Deshalb sind sie auf Versuch und Irrtum angewiesen. Diesen Kreislauf möchten wir durchbrechen, indem wir den Pfad von der Biologie zum Symptom finden, das je nachdem soziale Ursachen hat. Wir möchten die Ursache eines Symptoms messbar machen, um zielgerichtete Pfade der Behandlung aufzuzeigen.

Rufer: Wobei Sie nicht die eigentliche Ursache aufzeigen, sondern das biologische Korrelat.

Stephan: Einverstanden, Ursache im Sinn einer schweren Kindheit können wir nicht präzis auflösen.

Rufer: Wichtig ist mir, festzuhalten, dass wir über Gespräche individuelle Diagnosen stellen und Therapieplanungen anbieten, die nicht auf Versuch und Irrtum beruhen. Könnten wir auch noch ins Hirn schauen, hätten wir aber eine bessere Diagnostik als heute.

Also spielt das Individuelle, die Persönlichkeit - auch wenn sie neurologisch nicht fassbar ist - eine zentrale Rolle für den Erfolg der Therapie.

Rufer: Ja, wir müssen herausfinden, wie eine Depression individuell zustande gekommen ist und wie es gelingen kann, sie wieder loszuwerden. Das hängt auch von der Persönlichkeit des Patienten ab.

Stephan: Im Unterschied zu anderen Neurowissenschaftern wollen wir nicht grosse Begriffe wie Persönlichkeit oder Bewusstsein erklären. Als Mediziner möchte ich ganz spezifische Probleme im Alltag lösen, immer mit der klinischen Anwendung vor Augen.

Rufer: Eine präzise Diagnose allein nützt allerdings nichts, wenn der Patient die dafür geeignete Behandlung nicht mitmachen kann oder will, weil er beispielsweise Angst davor hat. Der subjektive Aspekt ist genau so entscheidend wie der objektiv-biologische.

Stephan: Dem stimme ich zu. Wobei ein Patient, der weiss, dass sich dank einer Psychotherapie seine Hirnfunktionen verändern wird, motivierter ist. Werden psychische Erkrankungen biologisch verstanden, nimmt zudem die Last der Stigmatisierung ab. Denken Sie nur an die Epilepsie. Früher galten epileptische Menschen als von Dämonen Besessene.

Rufer: Einverstanden. Aber auch wenn man weiss, dass eine psychische Erkrankung mit neurobiologischen Veränderungen einhergeht, ist die Erkrankung nicht wirklich erklärt. Offen bleibt, weshalb gerade diese Person solche Veränderungen hat und andere nicht. Offen bleibt auch, ob die Veränderungen die Ursache oder nur der Spiegel der psychischen Erkrankung sind.

Interview: Dorothee Vögeli

Sonntag, 16. Februar 2014

Roboter wie die Ameisen.


aus scinexx

Schwarm-Roboter als Konstrukteure
Von Termiten inspirierte Konstruktions-Roboter können selbst komplexe Bauten errichten

Sie bauen Türme, Pyramiden und Treppen ganz ohne Bauplan oder zentrale Steuerung: US-Forscher haben autonome Miniroboter entwickelt, die nach dem Termitenprinzip selbst komplexe Bauten errichten können. Eine Handvoll einfacher Regeln reichen, um den Schwarm der Roboter selbstständig und robust agieren zu lassen. Solche Schwärme von Konstruktions-Robotern könnten künftig überall dort eingesetzt werden, wo es gefährlich oder unwegsam ist, erklären die Forscher im Fachmagazin "Science".

Wenn es darum geht, ein Gebäude oder sonstiges komplexes Gebilde zu konstruieren, ist der Ablauf in der Regel bis ins Letzte geplant: "Normalerweise hat man einen Konstruktionsplan und der Vorarbeiter geht hinaus, weist seine Mannschaft an und überwacht, dass sie diesen Plan auch genau ausführen", erklärt Erstautor Justin Werfel vom Wyss Institute for Biologically Inspired Engineering der Harvard University in Cambridge. Das aber läuft im Insektenstaat ganz anders: "Da gibt die Königin keine detaillierten Instruktionen und keine Termite weiß, was die andere tut oder wie der Stand des Gesamtbauwerks ist."

Stattdessen definieren Umweltinformationen, simple Signale zwischen den Mitarbeitern und ein paar Grundregeln, wo die Tiere einen Baumaterial-Klumpen absetzen. Der Fachbegriff für dieses Konzept heißt Stigmergie. Jede Termite bekommt mit, wie sich ihre Umwelt durch die Handlungen ihrer Artgenossen ändert und reagiert auf diese Signale. Einzeltiere tragen beispielsweise Partikel feuchten Erdreichs herbei, versehen es mit Duftstoffen und platzieren es an der Baustelle. Durch diese Pheromone werden wiederum andere Arbeiter angezogen und so bilden sich Hotspots der Bauaktivität. Dies führt allmählich dazu, dass Kamine, Bögen, Tunnel und Kammern entstehen.

Nur eine Handvoll einfacher Regeln

Dieses Prinzip haben sich nun Werfel und seine Kollegen als Vorbild genommen, um eine Schar kleiner Konstruktions-Roboter zu entwickeln, die nicht zentral gesteuert werden, sondern auf Basis der Schwarmintelligenz agieren. „Die Herausforderung war es, Roboter zu bauen, die ähnlich wie diese Tiere arbeiten, aber bauen, was Menschen wollen“, so der Forscher. Die einzelnen Roboter können dabei simpel gestrickt sein – das intelligente Verhalten entsteht aus der Gruppendynamik.


Ihr Bauen beruht nur auf einer Handvoll simpler Algorithmen

Die Forscher entwickelten dazu Algorithmen, die das Verhalten der einzelnen Roboter über eine Handvoll einfacher Regeln steuern: Beachte die Verkehrsregeln, umkreise den Haufen, bis du einen einzelnen Baustein findest, nimm den Baustein, klettere auf die Struktur, befestige den Baustein an einem beliebigen Punkt, der geometrisch passt, klettere wieder hinunter, wiederhole das Ganze. "Es gibt dabei zwei Arten von Regeln", erklärt Werfel. "Die Grundregeln fürs Bauen, die für alle Konstruktionen gleich sind, und die Verkehrsregeln, die bestimmen, was gebaut wird."

Türme, Pyramiden und Treppen

Das Experiment zeigt, dass das Prinzip funktioniert: Die nach dem Termitenprinzip arbeitenden Roboter konstruierten bereits Türme, Burgen und Pyramiden aus Schaumstoff-Bausteinen. Dabei konstruierten sie selbstständig Treppen, um die oberen Bereich der Konstruktionen zu erreichen und ergänzten Stufen, wann immer es nötig war. Dieses Konzept erwies sich zudem als extrem robust: „Einzelne Roboter können ausfallen, aber dann arbeiten die anderen immer noch weiter“, so Werfel. „Es gibt kein kritisches Element, das die Mission zum Scheitern bringt“.

Ihre einfache Konstruktion und Robustheit prädestiniert die Roboter nach dem Termiten-Prinzip für Arbeiten überall da, wo es gefährlich und unwegsam ist. Denn selbst wenn einige von ihnen verloren gehen, arbeiten die anderen dennoch weiter – es dauert dann nur ein bisschen länger. Nach Ansicht der Wissenschaftler könnte solche Schwarm-Roboter beispielsweise bei einer drohenden Überschwemmung helfen, Sandsäcke oder Dämme aufzuhäufen oder sogar einfache Konstruktionsaufgaben auf dem Mars übernehmen. Während die Dämme bauenden Roboter schon bald Realität werden könnten, wird es bis zu den robotischen Mars-Bautrupps allerdings wohl noch ein wenig dauern. (Science, 2014; 10.1126/science.1245842)

(Science / Harvard University, 14.02.2014 - NPO/MVI)

Samstag, 15. Februar 2014

Heute ist Galileos Geburtstag.

aus scinexx

In Galileis Gedankenwerkstatt
Was die "Discorsi" über den Gelehrten verraten

Als der große amerikanische Astrophysiker Subrahmanyan Chandrasekhar beschloss, einen der Gründungstexte der modernen Physik in die Sprache der heutigen Wissenschaft zu übersetzen, entschied er sich für Newtons „Principia“ von 1687. Galileis Hauptwerk, seine 1638 erschienenen „Discorsi“, hätten dieser zweifelhaften Übung wohl ein noch weitaus widerspenstigeres Material geboten. Zu weit entfernt von heutiger Wissenschaft sind ihr Inhalt und ihr Stil.

Ungewöhnliche mathematische Sprache

Ein moderner Leser hat sogar Schwierigkeiten, in den "Discorsi" die Gesetze der modernen Physik überhaupt wiederzufinden, die sich mit Galileis Namen verbinden. Selbst das Fallgesetz und die Behauptung, dass die Kurve, die ein fliegendes Geschoss beschreibt, eine Parabel ist, findet man erst, nachdem man sich in der komplizierten Struktur zurechtgefunden und an eine ungewöhnliche mathematische Sprache gewöhnt hat.


Der Dialog gliedert sich in vier Tage, einer der Dialogpartner liest den anderen aus einem systematischen Traktat über die Bewegung und ihre Gesetze vor. Galileis Bewegungslehre ist eine der beiden neuen Wissenschaften, denen sein Buch gewidmet ist. Sie wird im dritten und vierten Tag des Dialogs vorgestellt. Die andere neue Wissenschaft, im ersten und zweiten Tag diskutiert, handelt von der Stabilität der Materie. Darüber hinaus geht es in den Dialogen um naturphilosophische Fragen und praktische Anwendungen.

Galileis „Discorsi“ wirken bruchstückhaft und unsystematisch, auch in ihren Begründungen wissenschaftlicher Behauptungen. Gerade das aber macht sie für Wissenschaftshistoriker so faszinierend. Sie bieten uns die Momentaufnahme einer Umbruchssituation. Galilei hat keine umfassende Theorie der Mechanik, die die aristotelische Naturphilosophie überwindet. Aber er hat in einem langwierigen Forschungsprozess wesentliche Einsichten errungen, aus denen erst seine Nachfolger die moderne Mechanik konstruieren sollten.

Beweisführung – oder doch Versuch und Irrtum?

Woher stammen Galileis Einsichten? Die traditionelle Antwort ist: aus der Anwendung der von ihm erfundenen wissenschaftlichen Methode, die angeblich in der Kombination von mathematischen Methoden und Experimenten besteht. Diese Antwort aber hält einer genaueren Prüfung nicht stand. Gerade die Dialoge geben Hinweise auf den wirklichen Ursprung von Galileis Einsichten, auch weil er in der Maske seiner Figuren oft über eigene frühere Überzeugungen und Irrtümer spricht.

Zugleich offenbaren die Dialoge, welche Argumente seine Zeitgenossen überzeugend fanden und welches ihr gemeinsamer Wissenshintergrund war. Dabei zeigt sich, dass die aristotelische Naturphilosophie eine Schlüsselrolle für die Formulierung von Grundbegriffen der vorklassischen Mechanik Galileis und seiner Zeitgenossen spielte. Ein Beispiel ist die Unterscheidung zwischen natürlicher und gewaltsamer Bewegung, die die heutige Physik nicht mehr kennt.

Neue Technik – neue Denkweisen

Wie aber konnte Galilei auf dieser Grundlage Einsichten wie jene in die Parabelgestalt der Wurfbewegung erreichen, die nicht mehr in den aristotelischen Rahmen passen? Auch hier legen die „Discorsi“ mit ihrer ungewöhnlichen literarischen Form eine Antwort nahe: die zeitgenössische Technologie stellte eine Herausforderung für die wiederbelebten Theorien der Antike dar, die den Wissenshintergrund von Renaissance-Wissenschaftlern wie Galilei bildete.

Es zeigt sich, dass Galileis langjährige Bemühungen, technische Themen wie Pendelschwingungen, die Flugbahn einer Kanonenkugel oder die Bruchfestigkeit von Schiffen und Gebäuden mit Hilfe dieser Theorien zu verstehen, der Schlüssel für seine Durchbrüche war. Er selbst kannte offenbar die Wurzeln seiner Wissenschaft. Immer wieder geht er in seinen Dialogen auf die Technologie seiner Zeit ein. Die „Discorsi“ beginnen sogar mit einer Hommage an die Hochtechnologie seiner Zeit und eines ihrer Zentren, das venezianische Arsenal:

„Die unerschöpfliche Tätigkeit Eures berühmten Arsenals, Ihr meine Herren Venezianer, scheint mir den Denkern ein weites Feld der Spekulation darzubieten, besonders im Gebiet der Mechanik...” In seinen „Discorsi“ gibt uns Galilei einen Einblick in seine eigene Gedankenwerkstatt. 


Nota.

Vielleicht ist der vierhundertfünfzigste nicht rund genug, um heute die Seiten der Blätter mit Geburtstagsartikeln zu füllen. Aber scinexx widmet Galileo immerhin ein ganzes Dossier. Doch Anlass genug, den Platz Galileos in der Geschichte der Wissenschaft - nicht dieser oder jener, sondern der Wissenschaft zu diskutieren, ist das Datum auch für sie nicht. Der obige Beitrag hätte das sein können, ist es aber nicht geworden. 

In der Tat geht es dabei gar nicht um Experimente und Erfahrungswissen. Sondern es geht um die Auseinandersetzung Galileos mit der zu seiner Zeit herrschenden Naturphilosophie des Aristoteles. Doch nicht "die Technik" war Galileos Streitross. Sie wird ihm wohl die Augen für das Problem geöffnet haben. Aber die grundstürzend neue Auffassung, dass in der Natur nicht, wie bei Aristoteles, jedes Ding seiner ureigensten inneren Bestimmung ("Entelechie") folgt, sondern vielmehr einem allgemein, überall und für jeden gültigen Naturgesetz unterworfen ist, hätte er nicht entwickeln können, hätte er mit Aristoteles nicht energisch gebrochen und wäre er nicht von dessen 'Entelechien' zu Platos allgegenwärtigen "Ideen" zurückgekehrt - nur unter dieser Voraussetzung konnte ein Versuch nämlich irgendetwas beweisen! Und nur unter dieser Voraussetzung war es möglich, die Mathematik zum Maß der Naturbeobachtung zu machen; weil nämlich nur sie die Naturgesetze formulieren kann. 

Meine Gewährsleute: Ernst Cassirer und Alexandre Koyré.

Deren Hauptquelle sind aber nicht die Discorsi, sondern der frühere Sagittario.
JE

Freitag, 14. Februar 2014

E=mc².

aus scinexx

Einsteins Formel in neuem Licht
Physiker simulieren den spontanen Zerfall des Vakuums am Computer

Wer hat sie noch nicht gehört, Einsteins berühmte Formel: E=mc²? Sie beschreibt die Verbindung von Energie und Masse. Energie und Masse sind demnach als äquivalente Größen zu betrachten und können ineinander umgewandelt werden. In der Fachzeitschrift "Physical Review Letters" berichten Physiker, wie sie in Computersimulationen Energie in Masse umgewandelt und dabei mögliche Messgrößen zur genauen Bestimmung der sogenannten "effektiven" Masse identifiziert haben.

Einsteins berühmte Formel E=mc² beschreibt den Zusammenhang von Energie und Masse: Je massereicher ein Objekt oder Teilchen und je schneller es sich bewegt, umso größer seine Energie. „Anders als die Geschwindigkeit ist dabei die Masse eines Körpers eine feststehende Größe, zumindest unserer Alltagserfahrung nach“, macht Holger Gies von der Friedrich-Schiller-Universität Jena und dem Helmholtz-Institut Jena deutlich. Jedoch gilt in der modernen Physik auch die Masse nicht zwangsläufig als feststehend. So hat sich das Konzept einer sogenannten „effektiven“ Masse durchgesetzt. Sie beschreibt die Masse, die ein Teilchen zu haben scheint, wenn diese von außen gemessen wird, während sich das Teilchen in einer bestimmten Umwelt befindet.

Die effektive Masse gibt demnach auch darüber Auskunft, in welcher Weise ein Teilchen durch die Interaktion mit seiner Umwelt beeinflusst wird. Beispielsweise können sich Elektronen innerhalb von Kristallen unter bestimmten Bedingungen so verhalten, als hätten sie vorübergehend eine größere Masse. „Selbst den größten Teil unseres Körpergewichts, welches von den Kernen der Atome getragen wird, können wir als kollektive Effekte von sehr viel leichteren Grundbausteinen – den Quarks – verstehen“, erklärt Reinhard Alkofer von der Universität Graz. Auch die fundamentalen Massen der Elementarteilchen fügen sich in dieses Schema ein, da sie als Wechselwirkung mit dem umgebenden Higgs-Feld verstanden werden können.

Spontaner Zerfall des Vakuums

Doch wie lässt sich die effektive Masse eines Teilchens bestimmen? Hierfür muss eine messbare Größe gefunden werden, die sich mit der effektiven Masse eines Teilchens ändert. Nicht immer gelingt dies den Physikern. So diskutierten sie jahrzehntelang, ob die effektive Masse eines Elektrons im Feld eines starken Lasers tatsächlich gemessen werden kann. Die Wissenschaftler aus Graz und Jena haben nun einen Effekt studiert, der besonders empfindlich von der effektiven Masse abhängt: den spontanen Zerfall des Vakuums. Könnte sich in diesem Prozess vielleicht eine Messgröße verbergen, die sich zur Bestimmung der effektiven Masse eignet?

In einem extrem starken elektrischen Feld, etwa erzeugt durch einen Hochintensitätslaser, komme es zu einem spontanen Zerfall des Vakuums in Paare von Materie und Antimaterie, erläutert das Forscherteam. „Zwar sind heutige Laser noch nicht in der Lage, ein solches Experiment durchzuführen, jedoch können wir diesen Prozess präzise in Computer-Clustern simulieren“, betont Christian Kohlfürst von der Karl-Franzens Universität in Graz. In den Simulationen konnten die Wissenschaftler beobachten, wie Elektronen und Positronen erzeugt wurden – und dies je nach Intensität und Eigenschaften der Laserstrahlen mit unterschiedlichen effektiven Massen.

Ist die effektive Masse messbar?

In dieser Simulation des Vakuumzerfalls ist Einsteins berühmte Formel E=mc² am Werk, denn die Energie des elektrischen Feldes wandelt sich in die Masse der entstehenden Teilchen um. Und dadurch wiederum variiert die Masse der Teilchen: Je stärker das simulierte elektrische Feld, desto schwerer sind die Zwillings-Paare aus Materie und Antimaterie, die das zerfallende Vakuum hervorbringt. Wie die Physiker vorrechnen, lassen sich aus diesen Zusammenhängen Parameter isolieren, die einen direkten Rückschluss auf die effektive Masse der Teilchen erlauben. "Aus pragmatischer Sicht betrachtet denken wir, dass wir damit gerechtfertigt sagen können, dass die effektive Masse messbar ist", so schließen die Forscher in der Publikation.

Allerdings: Bisher handelt es sich dabei nur um eine Simulation. Denn Hochintensitätslaser, die die benötigte Feldstärke von Trillionen Volt pro Meter erzeugen können gibt es bislang noch nicht. Jedoch mit zwei Großforschungsprojekten, dem Röntgenlaser XFEL in Hamburg und der Extreme Light Infrastructure in Tschechien, die bereits 2015 in Betrieb gehen sollen, könnte dieser Wert in greifbare Nähe rücken. Das Forscherteam hofft daher, dass künftige Laborexperimente ihre Simulationen bestätigen.

Der Gedanke, dass sogar die Massen der Elementarteilchen durch Laserlicht beeinflusst werden können, ist für die Wissenschaftler außerordentlich faszinierend. Für praktische Anwendungen im Alltag tauge diese Erkenntnis aber nicht: „Es wäre aussichtslos zu versuchen, auf diese Weise etwa den eigenen Körper zum Wunschgewicht bringen zu wollen“, so die Forscher mit einem Augenzwinkern. (Physical Review Letters, 2014, doi: 10.1103/PhysRevLett.112.050402 )

(Friedrich-Schiller Universität Jena, 14.02.2014 - KEL)

Nota.

Lieber Leser,
das verstehe ich nicht. Vielleicht können Sie es mir erläutern?
JE