Samstag, 28. Februar 2015

Digitale Geisteswissenschaft.


aus Der Standard, Wien, 25. 2. 2015

Wittgensteins Enkel im digitalen Wandel
Bisher wurden informatische Methoden vor allem in den Naturwissenschaften angewendet. In den Digital Humanities kommen sie auch in den Geisteswissenschaften zum Einsatz

von Johannes Lau

Wien/Graz - Die Bibliothek als Biotop: Gemeinhin stellt man sich das natürliche Dasein der Geisteswissenschafter zwischen zwei Buchdeckeln vor. Wenn es aber um den Einsatz von Rechnerkapazitäten und digitale Datenanalysen geht, denkt man landläufig an die Naturwissenschaften. Doch der digitale Kulturwandel macht auch nicht vor den Geisteswissenschaften halt: Verstärkt werden hier Methoden aus dem Bereich der Informatik genutzt und digitale Hervorbringungen des Menschen kulturwissenschaftlich unter die Lupe genommen. Diese Bemühungen waren bisher eher jenseits der Landesgrenzen wahrzunehmen - jedoch regt sich hierzulande langsam etwas: Die Akademie der Wissenschaften gründete etwa im vergangenen Jahr ein "Zentrum für digitale Geisteswissenschaften". Aktuell werden fünf Projekte in diesem Feld gefördert. Auch anderswo rücken die Digital Humanities in den Fokus: In dieser Woche widmet man sich in Graz bei einer Tagung dem Sprung der Geisteswissenschaften in den digitalen Raum.

"Wir stellen uns die Frage, welchen Mehrwert Informationstechnologien für die geisteswissenschaftliche Forschung bringen können", sagt der Tagungsorganisator Johannes Stigler vom Zentrum für Informationsmodellierung an der Uni Graz und verweist dabei auf die besondere Wechselbeziehung von Praxis und Theorie im Bereich der Digital Humanities: Ausgehend vom bloßen wissenschaftlichen Umgang mit Informationstechnologien haben sich diese Techniken in den Geisteswissenschaften selbst zum Forschungsgegenstand entwickelt.

Scheinbarer Widerspruch

Das digitale Forschungsinstrumentarium wird nicht nur als Hilfsmittel eingesetzt, sondern sein Einsatz zugleich auch reflektiert. Dass der Umgang mit diesen neuen Technologien weitaus zaghafter vonstattenging als etwa in den Naturwissenschaften, erklärt Stigler: "Auf den ersten Blick steht dieser digitale Wandel scheinbar im Widerspruch zur geisteswissenschaftlichen Traditionen, die naturwissenschaftliche Wege der Erkenntnis mit Skepsis betrachten." Bei genauerem Hinsehen zeige sich aber, dass der Einsatz von digitalen Methoden auch "neue Forschungsmöglichkeiten für eine in den Geisteswissenschaften übliche hermeneutische Annäherung eröffnen kann".

Ein Beispiel dafür ist etwa das Onlineportal "WiTTFind", das Maximilian Hadersbeck von der Universität München bei der Grazer Konferenz präsentieren wird. In diesem wurde der Nachlass des Philosophen Ludwig Wittgenstein digitalisiert, unterschiedliche Suchfunktionen eröffnen neue Möglichkeiten, Wittgensteins Werk zu analysieren.

Alexander Geyken, Arbeitsstellenleiter des "Digitalen Wörterbuchs der deutschen Sprache" an der Berlin-Brandenburgische Akademie der Wissenschaften, wird bei der Konferenz präsentieren, wie mithilfe elektronischer Textarchive Wort und Wortverbindungen im Zeitraum von 400 Jahren analysiert werden können.

In einzelnen Disziplinen der Geisteswissenschaften - wie etwa der Archäologie - ist der Einsatz von Informationstechnologien inzwischen recht etabliert. Im deutschsprachigen Ausland haben vereinzelte Uni-Standorte wie etwa Heidelberg, Göttingen oder Lausanne bereits Lehrstühle für Digital Humanities eingerichtet. Hierzulande fehlt eine derartige Professur noch, jedoch wurde in Graz eine solche Stelle inzwischen ausgeschrieben.

Dass diese Forschungslandschaft hierzulande aber nicht völlig brachliegt, zeigt sich darin, dass neben zahlreichen Vertretern aus dem Ausland auch einige österreichische Geisteswissenschafter in Graz vortragen. So wird der Soziologe Florian Windhager von der Donau-Universität Krems Methoden zur digitalen Visualisierung von historischen Daten präsentieren - etwa die Darstellung von umfangreichen Archivsammlungen mithilfe von interaktiven Grafiken: "Für meine Begriffe sind die Digital Humanities in erster Linie eine Erweiterung des traditionellen wissenschaftlichen Werkzeugkastens."

Jenseits klassischer Methoden

So sei es möglich, zusätzliche Analysen durchzuführen, die über die klassischen Methoden hinausgehen. "Mit digitalen Methoden kann man in die Quellen noch tiefer hineingehen und gleichzeitig weiter hinauszoomen, um Struktur und Dynamik ganzer Genres oder Diskurse in den Blick zu nehmen", sagt Windhager.

Bei der Tagung wird man nicht nur die neuen Methoden diskutieren, sondern sich auch den neuen Forschungsgegenständen der Digital Humanities widmen. Der Historiker Gernot Hausar von der Uni Wien wird das Beispiel der Videospielreihe Assassin's Creed, die in mehreren historischen Epochen spielt, geschichtswissenschaftlich analysieren: "Spiele sind für uns als Historiker so interessant, weil sich die populäre Rezeption von Geschichte immer häufiger durch Games vollzieht." Vom Bildschirm kommen die Geisteswissenschafter also nicht mehr so schnell weg. 

Link
Die Tagung "Von Daten zu Erkenntnissen: Digitale Geisteswissenschaften als Mittler zwischen Information und Interpretation" läuft noch bis 27. Februar an der Uni Graz, Universitätsplatz 3.


Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Freitag, 27. Februar 2015

Zur Neurobiologie des Perspektivenwechsels.

aus Die Presse, Wien, 27. 2. 2015

Hirnzellen sagen das Verhalten anderer voraus
Im Gehirn gibt es viele Spezialisten für beobachtetes Verhalten. Nun fanden sich auch Prognostiker.

Von Jürgen Langenbach

Wir wissen, dass andere Menschen im Grund so denken und handeln wie wir, und für die Details dieses Wissens haben wir spezialisierte Hirnzellen. Das bemerkte man 1992 an Affen: Man wollte sehen, was im Gehirn vor sich geht, wenn sie nach Futter greifen – aber erst musste das Futter dort platziert werden, von den Forschern. Deren beobachtete Handbewegung aktivierte in den Affenhirnen Zellen, die auch für ihre eigenen entsprechenden Bewegungen zuständig sind, man nannte sie Spiegelneuronen. Später fanden sich andere Spezialisten, sie schauen etwa auf Fehler anderer oder darauf, wie sie auf Belohnung reagieren.

Aber sie alle sind auf beobachtetes Handeln angewiesen, viel lieber wüsste man noch, was der andere zu tun gedenkt. Will er einem wohl oder denkt er nur an sich? Das versucht ein Klassiker der Spieltheorie zu klären, das Gefangenendilemma. Da werden zwei Personen eines gemeinsam begangenen Verbrechens verdächtigt und müssen entscheiden, ob sie kooperieren oder auf Eigennutz setzen: Schweigen beide, bekommt jeder zwei Jahre Haft; wenn einer verrät und der andere schweigt, bekommt der Verräter ein Jahr, der Schweiger sechs; verraten beide einander, bekommt jeder vier.


Nur im Sozialen aktiv 

Die Regeln sind schon für Menschen schwer nachvollziehbar – im gemeinsamen Interesse liegt, dass beide schweigen, mit dem individuellen Interesse ist das anders –, aber Rhesusaffen [Bild] im Labor von Keren Haroush (Harvard) verstanden sie auch. Und sie verstanden, worum es geht: Man muss die kommende Aktion des anderen optimal abschätzen. Eben dafür wurden ganz besondere Hirnzellen aktiv, andere als die, die das eigene künftige Verhalten steuern. Sie sitzen im anterioren cingulären Cortex (ACC), ihre Prognosekraft ist hoch, aber sie werden nur im sozialen Zusammenhang aktiv – und bleiben still, wenn man die Affen gegen Computer spielen lässt (Cell, 26. 2.). Das ist wohl nicht nur bei Affen so: Bei Autismus und anderem gestörten Sozialverhalten spielen Störungen im ACC mit, und wenn er ganz zerstört ist, schwindet das Interesse an Menschen, das an unbelebten Gegenständen steigt.


Nota. - Das wird schon lange vermutet, dass  die spezifisch menschliche Form der Intelligenz, die Reflexion, aus den hochentwickelten Formen unseres Zusammenlebens entstanden sind, die wiederum Folge einer verhältnismäßig geringen Hierarchisierung sind. Als Grundlage der Reflexion gilt wiederum der Perspektivenwechsel: die Fähigkeit des Menschen, sich in den Standpunkt eines Andern hinein zu denken. - Und nun erfahren wir: Diese Fähigkeit wird nicht von jedem Individuum immer wieder neu erworben, sondern ist in unserm Hirnaufbau bereits vorgegeben. 

Freilich auch in dem von Rhesusaffen. Was heißt das? Dass die Differentia specifica der menschlichen Intelligenz: die Reflexion als die Fähigkeit, die Perspektive auf mich selbst als auf einen andern zu richten, erst durch die menschlichen Formen sozialer Interaktion hinzu gekommen ist, während die Fähigkeit zum Perspektivenwechsel überhaupt noch ein Erwerb unserer Stammesgeschichte war.
JE



Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.

Donnerstag, 26. Februar 2015

Indogermanisch

skythisch, 7.-6. Jhdt. v. Chr.

aus Die Presse, Wien, 19.02.2015



Genetik
Als die neue Sprache aus der Steppe nach Europa fuhr
Woher kam die Mutter der indoeuropäischen Sprachen? Und wann? Ursprungsort und Zeit sind umstritten, aber Genanalysen stützen die Steppen-Hypothese.

Von Jürgen Langenbach

Von Isländern hoch im Nordwesten bis zu Indern weit im Südosten haben drei Milliarden Menschen eines gemeinsam: Sie sprechen eine der 400 Sprachen der Familie der indoeuropäischen. Das fiel schon 1647 dem niederländischen Linguisten Marcus Zuerius van Boxhorn auf, er vermutete eine Ursprache, das Skythische. Damit kam er zu früh, 1816 dann verglich der Deutsche Franz Bopp das Sanskrit mit der persischen und europäischen Sprachen, damit begründete er das, was man zunächst Indogermanisch nannte und später zu Indoeuropäisch entschärfte, es hatte Nationalismen Vorschub geleistet, nicht nur deutschen, auch indischen: Jeweils dort sollte der Sprachnabel liegen.

Dort liegt er nicht, so viel ist klar, aber um die exakte Herkunft in Raum und Zeit konkurrieren zwei Ansätze, zunächst die Anatolien-Hypothese. Die geht davon aus, dass sich vor 9500 bis 8000 Jahren die Agrikultur von Anatolien aus – dort wurde sie erfunden – nach West und Ost verbreitet hat. Dabei war, was Europa angeht, lang umstritten, ob ganze Völkerschaften unterwegs waren (demische Diffusion) oder ob nur die Kultur selbst von Nachbarn zu Nachbarn weitergereicht wurde (kulturelle Diffusion).

Viele Wörter haben mit Rädern zu tun

Der Streit dauerte lang, vor fünf Jahren wurde er zugunsten der demischen Diffusion entschieden: Die anatolischen Bauern sind eingewandert, sie haben die ortsansässigen Jäger und Sammler verdrängt bzw. in sich aufgenommen. Aber brachten sie auch die Mutter der indoeuropäischen Sprachen mit? Dem widerspricht die Steppen-Hypothese, sie führt etwa an, dass es im rekonstruierten Proto-Indoeuropäisch viele Wörter gibt, die mit Fahrzeugen mit Rädern zu tun haben. Diese gab es aber noch nicht, als die Anatolier wanderten, sondern erst später, etwa in der Steppe am Nordostrand des Schwarzen Meers, dort, wo heute die Ukraine mit Russland ringt. Von dort seien sie vor 6000 bis 5000 Jahren losgefahren, sowohl mit Streitwagen als auch mit zivilen, beide hätten sie rasch an die Nordränder Europas gebracht.

So weit die Hypothese. Es fehlte bisher nur jeder Beleg, dass es in der fraglichen Zeit eine Massenwanderung gab. Das hat nun eine Gruppe um David Reich (Harvard) nachgeholt, sie hat die Gene von 94 Individuen verglichen, die vor 8000 bis 3000 Jahren in Eurasien lebten. Dabei bestätigte sich zunächst die demische Diffusion, aber dann zeigte sich noch eine zweite, spätere Wanderungswelle, die sehr rasch vorangekommen war: Die Gene der Jamnaja, die vor 5000 Jahren als Steppenhirten im ukrainisch/russischen Raum lebten, fanden sich vor 4500 Jahren in Deutschland, auch in Norwegen, Schottland und Litauen, sie lösten dort die früheren Gene ab: „Es gab eine massive Migration von der östlichen Peripherie ins Herz Europas“, schließen die Forscher (vorpubliziert auf bioRxiv: http://dx.doi.org/10.1101/013433).

Brachten diese Einwanderer auch die Ursprache? „Obwohl alte DNA über die gesprochenen Sprachen schweigt, zeigt sie doch Wanderungen, die zur Steppen-Hypothese passen“, erklärt Reich. Er findet damit weithin Zustimmung, allerdings könnte es auch sein, dass aus der Steppe nur ein Dialekt des Indoeuropäischen mitgebracht wurde, der sich dann zu slawischen, deutschen und nordeuropäischen Sprachen entwickelte. Unklar ist hingegen die andere Richtung: Ob aus der Steppe auch nach Indien gewandert bzw. gefahren wurde, ist unbekannt, im dortigen Klima hält sich fossile DNA nicht lang.

aus scinexx

Kommt unsere Ursprache aus der Steppe?
Nomaden statt Landwirte? Forscher haben neue Hinweise darauf entdeckt, dass die Urversion aller indoeuropäischen Sprachen in der russischen Steppe entstand. Vor rund 6.500 Jahren könnten Reiternomaden diese Ursprache entwickelt und dann über Asien und Europa verbreitet haben. Das allerdings widerspricht einer zweiten Theorie, nach der das Indoeuropäische in Anatolien entstand. Der Streit geht damit erstmal weiter.


Jurten in der kasachischen Steppe - kam von hier das Indoeuropäische?

Woher kommt unsere Sprache? Das Deutsche gehört zur indoeuropäischen Sprachfamilie, einer Sprachengruppe, die rund 400 Sprachen umfasst und die von rund drei Milliarden Menschen gesprochen werden. Wo aber die Urversion – quasi der Stammvater - aller dieser Sprachen entstand, ist heiß umstritten.

Anatolien oder die Steppe?

Erst 2012 präsentierten Forscher Belege dafür, dass das Indoeuropäische vor gut 8.000 Jahren in Anatolien aufkam und sich dann mit der Landwirtschaft über die Welt verbreitete. Eine andere Theorie aber geht von einer Entstehung des Indoeuropäischen in der russischen Steppe aus – bei nomadischen Reiterstämmen, die in den Gebieten nördlich des Schwarzen und Kaspischen Meeres lebten und diese Ursprache verbreiteten.

Neue Indizien für die Steppentheorie präsentieren nun Will Chan von der University of California in Berkeley und seine Kollegen. Sie haben 200 Wörter aus lebenden und ausgestorbenen indoeuropäischen Sprachen verglichen und aus deren Veränderungen im Laufe der Zeit quasi einen Stammbaum der indoeuropäischen Sprachen rekonstruiert. Über diesen zogen sie dann mit Hilfe von statistischen Berechnungen Rückschlüsse auf deren Ursprung.

Ursprung von 6.500 Jahren

Wie die Auswertung ergab, spricht der Stammbaum der indoeuropäischen Sprachen für einen gemeinsamen Ursprung vor erst rund 5.500 bis 6.500 Jahren. Das spreche gegen die Anatolien-Theorie und für die Steppe als Ursprungsort, konstatieren die Forscher. "Unsere statistische phylogenetische Analyse stützt die Entstehung der indoeuropäischen Sprachen in der pontisch-kaspischen Steppe", so Chan und seine Kollegen.

Die Heimat unserer Sprache könnte demnach in dem weiten Steppengebiet Zentralasiens liegen, das sich von Moldavien über die Ukraine und Russland bis nach West-Kasachstan erstreckt. Archäologische Funde zeigen, dass die dort lebenden Nomadenvölker bereits früh wichtige Kulturtechniken entwickelten, darunter Viehzucht, Wagenbau und Metallverarbeitung. Diese gaben sie vermutlich an andere Kulturen, darunter die Europäer, weiter – und damit möglicherweise auch die Sprache. (Language, 2015; in press)

(Linguistic Society of America, 19.02.2015 - NPO)


Nota. - Es gilt die Regel, dass ein jedes wissenschaftliches Fakt bei dem Namen genannt wird, auf den sein Entdecker es getauft hat, und darum enthält Tee Koffein und nicht Tein. Die indo-germanischen Sprachen heißen so, weil der Name die Sprachen in ihrem äußersten Osten - Indien - umfasst, und die Sprache in ihrem äußersten Westen - Island, wo das germanische Nordisch gesprochen wird. An der Geographie hat sich mit der Zeit nichts geändert.
JE


Nota. Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog.


Mittwoch, 25. Februar 2015

Person heißt Maske, II.

aus nzz.ch, 24.2.2015, 05:30 Uhr

«Person»

von Klaus Bartels 

Es ist gar nicht leicht zu sagen, wann der Sprachgebrauch uns statt von «Menschen» von «Personen» sprechen lässt. Eine Liftkabine, zum Beispiel, ist für «max. 4 Personen» zugelassen; stehen die «Personen» da für blosse Achtzig-Kilo-Normalgewichte, und wäre da, «max. 4 Menschen» zu schreiben, schon zu «menschlich», um nicht zu sagen: zu «persönlich»? Auch bei einer Tragödie oder Komödie sprechen wir von darin auftretenden «Personen»; aber empfinden, sprechen und handeln diese Personen wie König Ödipus oder der Dorfrichter Adam denn nicht ausgesprochen «menschlich»?

Die Schauspieler auf der Bühne und die Gestalten, die sie verkörpern, sind die eigentlichen «Personen». Im klassischen Latein bezeichnete die persona zunächst die tragische oder komische «Maske», die der antike Schauspieler trug, und in einer naheliegenden Übertragung dann auch die Rolle oder eben die «Person», die er in dieser Maske spielte. Ein griechisches Sprichwort nennt «die Welt eine Bühne, das Leben einen Auftritt». In diesem Sinne hat sich die persona weiter auf die vielerlei Rollen und «Personen» übertragen, die jedermann in diesem Welttheater nun auch ohne Maske spielt. Wenn einer als Richter über einen Freund richten solle, sagt Cicero einmal, müsse er «die persona des Freundes ablegen und dafür die des Richters anlegen». In einem weiter gefassten Wortgebrauch ist auch schon von Äusserungen «in eigener persona», «im eigenen Namen», oder allgemein etwa von «mächtigen Personen» die Rede; da stellt das Wort sozusagen «mächtige Akteure» vor Augen.


Schon für die alten Römer hat diese persona selbst eine Maske getragen. Abgesehen von zwei Ablegern, einem personatus, «maskiert», und einem personalis, «auf die Person bezogen», hat das Wort im Lateinischen keine Verwandten. Eine antike Erklärung suchte die persona von dem Kompositum personare, «durchdringend ertönen lassen», abzuleiten; aber schon das hier lange, dort kurze «o» schliesst eine Verwandtschaft mit dem Verb sonare aus. Und wie sollte eine Maske auch danach benannt sein, dass der Schauspieler durch sie seine Stimme ertönen lässt? Vielleicht gibt die zweifache Beischrift «phersu» zu zwei Maskenträgern auf einem Wandgemälde in einer etruskischen Grabkammer die Herkunft des Wortes zu erkennen, und vielleicht hat dann doch, als auch in Rom Theatermasken gebräuchlich wurden, eine Volksetymologie dieses etruskische phersu an das lateinische personare angenähert.

Die Grammatik, die Jurisprudenz und die Theologie haben sich das Bild der auf der Theaterbühne agierenden «Person» auf je ihre Weise zu eigen gemacht. Die römischen Grammatiker haben – wie zuvor die Griechen – das sprechende Ich als die erste, das angesprochene Du als die zweite «Person» an der Rampe und das da durchgenommene Er-sie-es als die dritte «Person» im Bühnenhintergrund gezählt. Die römischen Juristen haben das vielfältige Rollenspiel der tragischen und komischen «Personen» im Theater auf das geradeso vielfältige Rollenspiel der natürlichen und juristischen «Personen» im Gerichtssaal übertragen. Und die christlichen Theologen haben das Dogma von dem «einen göttlichen Wesen in drei Personen» aufgestellt; die mittelhochdeutsche persone oder auch schon kurz person galt vornehmlich dieser Dreieinigkeit in den drei «Personen» des Vaters, des Sohnes und des Heiligen Geistes.

Wo einer «die Hauptperson spielt», steht mit ihm das alte Wort wieder mitten auf der Bühne. Hören wir die Wörter flüstern, wenn wir aus der individuellen «persönlichen» Anlageberatung im Private Banking noch einen fernen Bezug auf die besondere Welttheaterrolle des so persönlich Beratenen heraushören? Vielleicht, vielleicht auch nicht; jedenfalls hört der Kunde besser nicht weiter hin, sonst flüstert ihm das «individuell» noch so etwas von unverteilten Dividenden, das «persönlich» etwas von «Vermummung» und das «privat» etwas von «Beraubung» – ja, von «Beraubung»! – ins Ohr.

Zuallerletzt hat das Amtsdeutsch gesichtslose quasi maskierte «Lehrpersonen» hervorgebracht; vor entsprechend unpersönlichen «Lernpersonen» ist der Amtsschimmel noch zurückgescheut. Aber in der Liftkabine, wo die vier für ein paar Stockwerkslängen zusammengewürfelten «Personen» unverwandt aneinander vorbeischauen und vorbeischweigen, liest sich die Inschrift auf der amtlichen Plakette zu ihren Häupten doch recht hübsch, wonach zu dieser stummen Szene «max. 4 Masken» zugelassen sind.


Dienstag, 24. Februar 2015

Die Furcht des Zentralorgans.

Kampf oder Flucht? Die Angst fordert Körper und Gehirn auch schnelle, reflexartige Entscheidungen ab.aus nzz.ch, 24. 2. 2015

Wachsames Zentralorgan
Wie unbewusste Gehirnprozesse uns vor Gefahren schützen
Kampf oder Flucht? Die Angst fordert Körper und Gehirn auch schnelle, reflexartige Entscheidungen ab.

von Gottfried Schatz

«. . . beim Anblick der Rosen [. . .] kauerten sich die Kleinstkinder panisch zusammen, und das Gebrüll nahm prompt wieder an Lautstärke zu. ‹Sehen Sie?›, freute sich der Direktor. ‹Sehen Sie?› Bücher und schrille Töne, Blumen und Stromschläge – schon jetzt waren diese Pole im frühkindlichen Hirn negativ gekoppelt und würden nach zweihundert Wiederholungen dieser und ähnlicher Lektionen eine feste Verbindung eingehen.» In dieser wohl grausamsten Episode seiner düsteren Zukunftsvision «Schöne neue Welt» beschreibt Aldous Huxley, wie ein zynischer Staat die Furcht vor Büchern und freier Natur Kleinkindern einpflanzt, um sie zu gefügigen Untermenschen zu programmieren. Vorbild dafür war Pawlows berühmter Hund, der nach mehrmaligem Training den Klang einer Glocke mit dem Geruch von Futter assoziierte und schon allein beim Klang der Glocke Speichel absonderte.

Ein mächtiges Gefühl

Furcht ist eines unserer mächtigsten Gefühle, für das unser Gehirn besonders viel Energie und Platz bereitstellt. Unsere instinktive Furchtreaktion lässt sich auch besonders leicht wissenschaftlich untersuchen, weil sie der von Tieren sehr ähnlich ist und in primitiver Form sogar das Verhalten von Fliegen, Würmern und Einzellern bestimmt. In Menschen und höheren Tieren erhöht sie den Blutdruck, beschleunigt den Herzschlag und fördert die Durchblutung der Haut, die Absonderung von Schweiss sowie die Ausschüttung der «Stresshormone» Adrenalin und Cortison in das Blut. Sie erhöht damit die Verteidigungsbereitschaft, weshalb viele Biologen sie nicht «Furchtreaktion», sondern «Verteidigungsreaktion» nennen. Sie ist unwillkürlich und stereotyp – und obwohl sie unser Verhalten beeinflusst, erfolgt sie völlig unbewusst. Wir können uns aber später an sie erinnern.

Um sie zu untersuchen, verwenden Forscher als experimentelles Modell häufig die erlernte Abwehrreaktion gegen die Kopplung zwischen einem harmlosen Signal – wie dem von Aldous Huxley beschriebenen Anblick von Blumen und Büchern oder auch einem Ton – und einem schmerzhaften Signal wie einem leichten elektrischen Stromstoss. Diese Signale wandern über getrennte Nervenbahnen ins Gehirn, doch wenn sie gleichzeitig eintreffen, werden zwei kleine mandelförmige Gehirnregionen – die Amygdalae – augenblicklich hellwach. Um uns vor weiteren Schmerzen zu schützen, verstärken sie die chemischen Antennen, mit denen sie das harmlose Signal – die Blumen, die Bücher oder den Ton – wahrnehmen, und erhöhen diese Verstärkung mit jeder weiteren Überlappung der beiden Signale, bis schliesslich das harmlose Signal für sich allein die Verteidigungsreaktion auslöst. Das Erlernen dieser Reaktion geht an unserem Bewusstsein vorbei: Blinde, bei denen nicht die Augen, sondern die Sehzentren in der Gehirnrinde defekt sind, können eine Bedrohung durch Sehreize normal erlernen, ohne die Bedrohung bewusst wahrzunehmen. In Mäusen kann eine erlernte Verteidigungsreaktion sogar an die Nachkommen vererbt werden, selbst wenn diese von Leihmüttern aufgezogen oder durch In-vitro-Befruchtung gezeugt werden. Wie diese Erinnerung ihren Weg in die Ei- oder Samenzelle findet, ist noch rätselhaft.

In uns Menschen führt die unbewusste Verteidigungsreaktion oft zu bewussten Furchtgefühlen, die wir in Worte fassen und mitteilen können. Sollten auch Tiere solche bewusste Furcht empfinden, dann wäre sie wahrscheinlich von der unseren sehr verschieden. Bisher haben wir allerdings noch keinen Weg gefunden, um dies wissenschaftlich zu untersuchen. Wir Menschen speichern die erlernte Verteidigungsreaktion und die bewusst wahrgenommene Furcht in mehreren verschiedenen Gehirnregionen: zunächst in den beiden Amygdalae und dann vor allem im sogenannten Hippocampus. Versuchspersonen mit beschädigtem Hippocampus können eine unbewusste Verteidigungsreaktion erlernen, sich aber nachher nicht mehr an sie erinnern. Umgekehrt verhindert eine Schädigung der Mandelkerne das Erlernen der Reaktion, nicht aber die bewusste Erinnerung daran.

Unsere bewusst empfundenen Furchtgefühle können unser Verhalten mitprägen, bewirken jedoch keine unbewussten Verteidigungsreaktionen. Auch diese beeinflussen unser Verhalten. Es ist, als ob unser Gehirn mit seinen in Jahrmillionen biologischer Evolution erworbenen Erfahrungen uns vor Gefahren schützen will. Für mich als Biologen sind auch diese unbewussten Gehirnprozesse Teil meines Ichs. Würde René Descartes, wenn er heute lebte, diesen Prozessen in seinem berühmten «je pense, donc je suis» Platz gewähren?

Wenn die beiden Amygdalae die Verknüpfung zwischen einem schmerzhaften und einem harmlosen Signal erkennen und ihre Antennen für das harmlose Signal verstärken, vertauschen sie diese Antennen zum Teil gegen andere, die weniger fest in der Nervenmembran verankert sind und leicht wieder ausgetauscht werden können. Deshalb lässt sich eine frisch erlernte Verteidigungsreaktion teilweise oder ganz wieder auslöschen, wenn man das harmlose Signal mehrmals für sich allein präsentiert. Das Zeitfenster dafür schliesst sich allerdings bereits nach Stunden oder Tagen.

Unser Gehirn prüft gewissermassen, ob der erlernte Zusammenhang zwischen harmlosem und schmerzhaftem Signal sich bestätigt, und ist bereit, seine Reaktion auf das harmlose Signal an die neuen Antworten anzupassen. Selbst weit zurückliegende zwanghafte Verteidigungsreaktionen lassen sich wieder labilisieren und durch entsprechendes Training abschwächen, wenn man sie erneut aufruft. Auch hier hält dieser labile Zustand nur einige Stunden an, und auch hier ist er mit dem vorübergehenden Einbau leicht austauschbarer Nervenantennen in die beiden Mandelkerne gekoppelt. Die austauschbaren Antennen verweilen nur für einige Tage und erklären das Zeitfenster für die Auslöschung erworbener Verteidigungsreaktionen. Unsere Erinnerungen sind also nicht in Stein gemeisselt, sondern stets bereit, von neuen Situationen zu «lernen».

Verhindert man in Ratten oder Mäusen den Einbau der leicht austauschbaren Amygdala-Antennen durch Medikamente oder genetische Eingriffe, lässt sich eine erlernte Verteidigungsreaktion durch Wiederaufruf nicht mehr permanent auslöschen. Diese Auslöschung ist spezifisch: Eine Ratte, die einen leichten elektrischen Stromstoss mit zwei verschiedenen Tönen assoziiert, verliert ihre Verteidigungsreaktion gegen nur einen dieser Töne, wenn man ihr diesen Ton mehrmals für sich allein präsentiert. Vielleicht wird es dereinst möglich sein, dieses kurze Zeitfenster für die spezifische Auslöschung zwanghafter und quälender Erinnerungen durch Medikamente zu erweitern, um Kriegsveteranen oder Opfer von Gewaltverbrechen von ihren unkontrollierbaren Panikattacken zu erlösen. Einige wenige Nervenantennen in unseren Amygdalae können also den Unterschied zwischen einem normalen und einem von zwanghafter Furcht überschatteten Leben bedeuten.

Fatale Ängste

In der Umgangssprache bedeutet «Furcht» die Emotion bei einer unmittelbaren, «Angst» hingegen die diffuse Beklemmung angesichts einer möglichen Bedrohung. Auch Angst kann ein Leben überschatten, und da sie Wissen um mögliche Gefahren voraussetzt, lastet sie vor allem auf älteren Menschen. Angst ist die Feindin der Innovation, die im Mut gründet, eigene Wege zu gehen und Dogmen zu hinterfragen. Angst vor möglichen Gefahren äussert sich auch in der Nullrisikomentalität unserer überalternden europäischen Gesellschaft, die bei jeder neuen Entdeckung zunächst fragt, wie sie uns schaden könnte. In Wissenschaft und Kunst ist die Unbekümmertheit der Jugend aber meist klüger als die Erfahrung des Alters.

Eine noch fatalere Erscheinungsform der Angst ist die um sich greifende Political Correctness. Ihr ursprüngliches Ziel war die emotionslose und von gegenseitiger Achtung geprägte Diskussion brisanter Probleme, doch heute ist sie eine Angst, die solche Diskussionen im Keim erstickt. Sie hat selbst unsere Universitäten erobert, obwohl diese rationales und leidenschaftsloses «politisch unkorrektes» Denken nicht nur dulden, sondern nach Kräften fördern sollten. Dies müsste nicht so sein. Anders als unsere unbewusste Verteidigungsreaktion sind bewusste Furcht und Angst nicht genetisch programmiert, sondern Folgen unserer kulturellen Entwicklung. Es liegt in unserer Macht, sie in ihre Grenzen zu verweisen, um unserer Erfindungskraft freie Bahn zu gewähren.

Der Biochemiker Dr. Gottfried Schatz ist emeritierter Professor der Universität Basel. Bei NZZ-Libro sind erschienen: «Jenseits der Gene», «Zaubergarten Biologie» und «Feuersucher. Die Jagd nach den Rätseln der Lebensenergie».


Nota.  Zentralorgan - Gottfried Schatz dürfte den Ausdruck mit Bedacht gewählt haben. Weil sie im Gehirn eine solche Zentrale nicht gefunden hatten, waren die Hirnforscher um Wolf Singer und Gerhard Roth seinerzeit zu dem Ergebnis gekommen, dass es "ein Ich" in der Wirklichkeit nicht gäbe, und dehnten ihr Verdikt unerlaubter Weise gleich auf das 'Ich der Philosophen' aus. Gottfried Schatz spricht das Thema direkt an und lässt ahnen, dass das Ich und sein freier Wille womöglich aus Furcht und Verteidigung entstanden seien. 

Dabei handelt es sich freilich um die realen Personen und das Ich der Psychologen. Das ist aber nicht dieselbe Baustelle wie die der Philosophie.
JE


Montag, 23. Februar 2015

Die Aktien der Roboter steigen.

aus nzz.ch, 23.2.2015, 05:30 Uhr

Aktien von Roboterherstellern
Die Maschinenmenschen kommen

von Michael Schäfer 

Die Aktien von Roboterherstellern zählen an den Börsen zu den Gewinnern. Trotz anspruchsvollen Bewertungen deutet vieles darauf hin, dass das erst einmal so bleiben wird.

Was haben das Weltwirtschaftsforum (WEF) in Davos und die weltgrösste Messe für Unterhaltungselektronik, die Consumer Electronics Show (CES) in Las Vegas, gemeinsam? Nicht nur finden beide regelmässig im Januar statt, in diesem Jahr zählte ein Thema an beiden Anlässen zu denjenigen, über die dort von den Teilnehmern intensiv diskutiert wurde, nämlich Roboter.

China wird aufholen

Die zunehmende Automatisierung zählt zu den grossen Trends unserer Zeit. In immer mehr Bereichen des Lebens übernehmen Maschinen Aufgaben, die ursprünglich von Menschen ausgeführt wurden, und Roboter spielen dabei eine entscheidende Rolle. Ob in der Landwirtschaft, in der Medizin, in den Medien oder im Haushalt: Immer häufiger sind es Roboter, die Tiere melken, Menschen operieren, Artikel verfassen oder Wohnungen saugen und Rasen mähen. Die Liste liesse sich beträchtlich verlängern.

 

Ein besonders grosses Wachstumspotenzial wird Robotern jedoch dort attestiert, wo sie bereits vor rund 40 Jahren Einzug gehalten haben: in den Fabrikationshallen. Gemäss Zahlen des Industrieverbands International Federation of Robotics (IFR) wurden 2013 weltweit rund 180 000 Industrieroboter verkauft, so viele wie in keinem Jahr zuvor. Dahinter steckt ein Umsatzvolumen von 9,5 Mrd. $. Zählt man die Kosten für Software, Anlagentechnik und Peripherie hinzu, beläuft sich der Wert auf rund das Dreifache.

Für die kommenden Jahre erwartet die IFR eine deutliche Steigerung der Stückzahlen. Ausgehend von den Zahlen für 2013 sollen diese bis 2017 jährlich um durchschnittlich 12% auf dann knapp 300 000 wachsen. Beitragen zu diesem Schub dürften nach Ansicht der Experten von Citigroup verschiedene Treiber. Aus regionaler Perspektive sehen sie das grösste Potenzial in China, wo in zwei Jahren mehr als jeder dritte Roboter abgesetzt werden soll. Gegenüber den Zahlen von 2013 würde dies fast eine Verdreifachung bedeuten.

Die erwartete hohe Dynamik erklärt sich teils durch die niedrige Ausgangsbasis. China weist im Vergleich mit den Industrieländern noch immer eine sehr geringe Roboterdichte auf (vgl. Grafik). Diese dürfte sich künftig deutlich erhöhen, u. a., weil dort Roboter aufgrund der seit 2000 ununterbrochen gestiegenen Löhne (und zwar schneller als die Produktivität) im Vergleich zum Menschen immer konkurrenzfähiger werden. Zudem wird es angesichts der alternden Bevölkerung und des steigenden Bildungsniveaus schwieriger, genug Arbeitskräfte zu finden, die relativ schlecht bezahlte Tätigkeiten in der Fertigung übernehmen. Entsprechend wird der Automatisierung auch von Regierungsseite ein hoher Stellenwert eingeräumt, sie zählt zu den strategischen Zielen des zwölften Fünfjahreplans.

Nicht zuletzt dürfte der Roboterabsatz starke Impulse erhalten von der im Reich der Mitte schnell wachsenden Automobilindustrie, die global gesehen mit 40% der verkauften Einheiten den grössten Abnehmer darstellt. China sticht zwar bei den Wachstumsprognosen heraus, aber auch in Industrieländern dürfte die Roboterdichte weiter steigen. In den USA setzen laut einer Erhebung der Robot Industries Association erst 10% derjenigen Firmen Roboter ein, die davon profitieren würden. Auch für Japan wird eine deutliche Zunahme erwartet, wo sich die Autoindustrie – nicht zuletzt wegen des schwachen Yen – erholt.

Grosse Erwartungen setzen die Experten auch in eine beschleunigte Verbreitung von Robotern in anderen Industrien jenseits der Autoherstellung. Nicht nur werden die Maschinen immer günstiger, sie können vor allem immer mehr, und dies mit einer höheren Präzision. Letztere ist beispielsweise in der Elektronikindustrie besonders wichtig, die mit einem Viertel der verkauften Einheiten der zweitgrösste Abnehmer ist. Grosses Potenzial wird einer neuen Generation von Robotern eingeräumt, die zunehmend Daten untereinander austauschen, schneller lernen und dank verbesserten Sensoren in der Lage sind, gemeinsam mit Menschen an einem Produkt zu arbeiten.

Neue Roboter-Generation

Ken Goldberg, Professor für Robotik und Automatisierung an der Universität Berkeley, spricht in diesem Zusammenhang von einem Wendepunkt der Robotik. Bereits auf dem Markt mit einem «intelligenten Assistenten» ist der deutsche Anbieter Kuka, der kürzlich den Schweizer Hersteller für automatisierte Logistiklösungen Swisslog übernommen hat. Im April will ABB einen kollaborierenden Roboter lancieren, Epson einen solchen noch 2015.

Insgesamt ist der Markt für Industrieroboter sehr konzentriert, die vier Firmen Fanuc, Yaskawa (beide Japan), ABB und Kuka beherrschen rund zwei Drittel des Weltmarkts. Zugleich herrschen hohe Eintrittsbarrieren für neue Anbieter, denn Mitarbeiter müssen geschult und die Maschinen in die Produktionsabläufe eingepasst und laufend gewartet werden.

Nicht zuletzt aufgrund der überzeugenden Wachstumsperspektiven halten die Analytiker einer Reihe von Banken – wie Citigroup, JP Morgan oder UBS – die Papiere von Roboterherstellern für aussichtsreich. Bei der UBS betont man aber den langfristigen Charakter der Idee. Die Titel zählten zwar zu den Lichtblicken im Industriesegment, die hohen Erwartungen seien jedoch grossteils in den Kursen reflektiert. Bei Fanuc und Kuka beträgt das Kurs-Gewinn-Verhältnis 23 bzw. 22, und auch bei den anderen Herstellern liegt es meist nicht weit unter 20. Allerdings gelte die Einschätzung, die Valoren seien anspruchsvoll bewertet, schon seit Jahren. Auf einen «günstigeren» Einstiegszeitpunkt zu warten, habe sich in der Regel nicht ausgezahlt, da die Unternehmen die Erwartungen nicht enttäuscht und oftmals sogar positiv überrascht hätten.

Nicht ganz einfach ist es schliesslich, gezielt in Roboterhersteller zu investieren. Dieses Geschäftsfeld stellt oft nur eines von mehreren in einem Konzern dar, so etwa bei ABB (5% Umsatzanteil) oder Yaskawa (34%). Die «reinsten» der grossen Roboterproduzenten sind Fanuc und Kuka.


Industrieautomatisierung


 msf. ⋅ Die Industrieautomatisierung lässt sich in zwei Kategorien aufteilen, die Fabrikautomatisierung und die Prozessautomatisierung. Bei Ersterer handelt es sich um die Automatisierung von Fertigungsabläufen in der verarbeitenden Industrie. Wichtige Komponenten dafür sind unter anderem speicherprogrammierbare Steuerungen (SPS), Sensoren und Roboter. In der Prozessautomatisierung werden Ausgangsstoffe in kontinuierlichen Produktionsprozessen zu Endprodukten verarbeitet. Beispiele sind die Erdöl- und -gasindustrie sowie die chemische Industrie. Den gesamten Markt für Industrieautomatisierungen schätzt die UBS auf 122 Mrd. $ pro Jahr.




Sonntag, 22. Februar 2015

Neues vom Epigenom.

Eine Anlagerung von Methylgruppen blockiert das Ablesen eines Gens - solche Modifikationen bezeichnet man als Epigenom
Eine Anlagerung von Methylgruppen blockiert das Ablesen eines Gens - solche Modifikationen bezeichnet man als Epigenom
aus scinexx

Epigenom: 
"Zweiter Code" des Lebens kartiert
Bestandsaufnahme der Erbgut-Modifikationen in 111 Zellen und Geweben unseres Körpers

Im Epigenom liegt das Geheimnis der Vielfalt: Erst diese Modifikation der DNA lässt die vielen verschiedenen Zelltypen oder Gewebe in unserm Körper entstehen – und macht aus unseren Genbuchstaben sinnvolle Sätze. Diesen "zweiten Code" hat nun erstmals ein internationales Konsortium kartiert. In gleich 20 Veröffentlichungen liefern sie wertvolle neue Erkenntnisse, die die Funktionsweise unseres Erbguts und auch die Entstehung einiger Krankheiten erhellen.

Alle unsere Zellen tragen das gleiche Erbgut, aber je nach Gewebe und Zelltyp ist jeweils ein anderer Teil davon aktiv und wird abgelesen. Reguliert wird dies über das sogenannte Epigenom – Modifikationen der DNA, die an bestimmten Stellen das Ablesen blockieren. Dies kann durch Analgerungen von Methylgruppen geschehen, aber auch durch die Faltung der DNA und die Verpackung des Erbguts mit Hilfe von Hüllproteinen.

Stammbaum der Zelltypen

Was jedoch bisher fehlte, war eine umfassende Kartierung, die zeigt, welche epigenetischen Modifikationen für welche Gewebe und Zelltypen typisch sind. Diese Referenz hat das internationale Roadmap Epigenomics Consortium nun geliefert. Für das Projekt analysierten die Forscher das Epigenom von 111 verschiedenen Zelltypen und Geweben. Darunter waren sowohl Zellen aus dem erwachsenen menschlichen Körper als auch unreifes Gewebe aus Embryonen und Stammzellen aus befruchteten Eizellen.

Diese Bestandsaufnahme zeigt, wie sich die Herkunft und Umgebung der Zellen auf ihr Epigenom auswirkt, aber auch, wie das Epigenom ihre Entwicklung steuert. "Diese 111 Referenzkarten des Epigenoms liefern uns im Prinzip ein Vokabelbuch, das uns hilft, die DNA-Segmente in verschiedenen Zell- und Gewebetypen zu entziffern", erklärt Bing Ren von der University of California in San Diego, der an mehreren Veröffentlichungen beteiligt ist. "Diese Karten sind wie Schnappschüsse, die das menschliche Genom in Aktion zeigen."


Blutzellen: rotes Blutkörperchen, Thrombozyt, weißes Blutkörperchen (Leukozyt)


Die Herkunft entscheidet


Die Kartierung enthüllte unter anderem, dass die Herkunft und der Entwicklungsstand der Zellen eine prägende Rolle für ihr Epigenom spielen. Dies führt dazu, dass selbst Zellen im gleichen Gewebe oder Organ unterschiedliche epigenetische Modifikation an ihrem Erbgut tragen können, wie die Forscher berichten. So ähneln beispielsweise blutbildende Stammzellen im Knochenmark nur wenig den reifen Blutzellen, in deren Umgebung sie liegen, dafür aber sehr stark den embryonalen Stammzellen.
Epithelzellen aus dem Drüsengewebe der weiblichen Brust haben wiederum mehr epigenetische Parallelen zu Hautzellen als zum restlichen Brustgewebe. Anhand dieser Ähnlichkeiten konnte die Forscher einen ganzen Stammbaum der Zelllinien in unserem Körper zusammenstellen – und so quasi die epigenetische Verwandtschaft der Gewebe offenlegen.

Krebs: Hilfe bei Fahndung nach dem Primärtumor

Die Kartierung des Epigenoms erbrachte zudem wertvolle Erkenntnisse zur Entwicklung von Krebstumoren. Denn wie Shamil Sunyaev vom Brigham and Women’s Hospital in Boston und seine Kollegen herausfanden, verrät die "Verpackung" der DNA in Tumorzellen, aus welchem normalen Gewebe diese entarteten Zellen einst entstanden sind.


Das könnte vor allem den Patienten helfen, bei denen zwar Metastasen entdeckt werden, der Primärtumor, von dem sie ausgingen, aber nicht gefunden werden kann. Das ist bei immerhin zwei bis fünf Prozent der Krebsfälle der Fall, wie die Forscher berichten. Kennt man die Herkunft der Metastasen, dann lässt sich auch die jeweils wirkungsvollste Therapie besser bestimmen.

Chromosomen des Menschen
Chromosomen des Menschen

Mitspieler der Vererbung

Das Projekt gibt zudem Einblick darin, wie das Epigenom aus den Erbgutkopien der Eltern die individuelle Merkmalsmischung eines Kindes entstehen lässt. "Etwa 30 Prozent des Gensatzes, den wir tragen, wird in den Geweben unterschiedlich ausgelesen, je nachdem, von welchem Elternteil wir diese Variante geerbt haben", erklärt Ren. Das Epigenom spielt demnach eine wesentliche Rolle auch für die Vererbung.

Zusammen mit weiteren neuen Erkenntnissen liefert diese Kartierung des Epigenoms einzigartige und wichtige Erkenntnisse in die Funktionsweise unseres Erbguts. "Wir erwarten, dass unsere Ergebnisse die Forschung in allen Zweigen der Säugetierbiologie beflügeln werden und zudem wertvolle Informationen für die Erforschung der meisten menschlichen Krankheiten liefern, nicht zuletzt auch von Krebs", konstatiert Ren. Wegen der großen Bedeutung dieses Meilensteins wurden die 20 Publikationen frei zugänglich auf einer eigenen Plattform ins Internet gestellt. (Nature und weitere Journals)
(Nature, 19.02.2015 - NPO)

Freitag, 20. Februar 2015

Die cyborganische Ära, II.

aus Der Standard, Wien, 18. Februar 2015, 14:34

Blödmaschinen und Intelligenzverstärker: Wie Hightech die Gesellschaft verändert
Die gesellschaftlichen Auswirkungen der zunehmenden Technisierung werden diese Woche beim Symposion Dürnstein diskutiert

von Tanja Traxler

Dresden/Dürnstein - Wie ist das Verhältnis von Wirklichkeit und Utopie in der globalen Welt? Wie verändert die zunehmende Technisierung unsere Gesellschaft? Und macht sie uns glücklicher oder nicht? Fragen wie diese werden von 19. bis 21. Februar beim Symposion Dürnstein diskutiert. Es geht dabei um politische, religiöse und philosophische "Glücksbilder" und die Wirklichkeit der Utopien.

Neben dem deutschen Soziologen Oskar Negt und der britischen Extremismusforscherin Katherine Brown, trägt dort am Freitagnachmittag auch Bernhard Irrgang vor, der an der TU Dresden die Professur für Technikphilosophie innehat. Unter dem Titel "Roboter überall - der neue Glaube an die Maschinen" wird er die Auswirkungen der zunehmenden Technisierung thematisieren.

Besondere Aufmerksamkeit wird Irrgang dabei auf die "gerade im Gang befindliche Umwandlung unserer Technologie von einer menschengesteuerten Technologie zu einer sich selbst steuernden Technologie" legen. Denn während die ersten Computer ausschließlich Befehle des Menschen aufnahmen und ausführten, gibt es immer mehr Systeme, in denen sich die technischen Objekte untereinander gewissermaßen selbst Befehle erteilen.

Internet der Dinge

Als Beispiel dafür nennt Irrgang Verkehrs- und Flugleitsysteme, aber auch das sogenannte "Internet der Dinge", in dem Objekte über das Internet miteinander vernetzt sind. In Smart Homes wird durch untereinander vernetzte Gegenstände eine technisierte Wohnumgebung geschaffen, die von außen gesteuert werden kann - oder sich selbst steuert: Bewegungssensoren kommunizieren mit dem Beleuchtungssystem, der Wecker mit der Kaffeemaschine.

"Wir können Roboter bereits für alles Mögliche einsetzen", sagt Irrgang: als Erntehelfer, Fensterputzer, Bergungshelfer, Raumfahrer, Altenbetreuer. "Wenn wir aber glauben, dass man mit dem Roboter den Menschen ersetzen kann, dass er Gefühle erzeugen kann wie der Mensch, müssen wir uns bewusst sein, dass er die Gefühle nur vortäuscht und sie mit Programmen antrainiert wurden", meint Irrgang. Allerdings konnten Maschinen schon immer Emotionen bei Menschen hervorrufen, wie das der Umgang mit Autos gerade bei Männern zeige. Doch sollten wir uns nicht täuschen lassen. Anders gesagt: "Biologische Evolution ist etwas anders als technisches Design." Denn während sich die Evolution selbst konstruiert, ist die Technik letztlich immer vom Menschen designt.

Kontrollverlust  

Irrgang sieht eine weitere Gefahr in der Technisierung, vor allem, wenn sie nicht länger vom Menschen, sondern von der Technik selbst gesteuert wird: Viele unserer technischen Fähigkeiten werden immer weniger gebraucht, weil Maschinen den Job erledigen, und "dadurch verkümmern unsere Fähigkeiten". Die Autoren Markus Metz und Georg Seeßlen prägten vor wenigen Jahren für das Phänomen, dass technische Systeme den Menschen mitunter verdummen lassen, den Begriff "Blödmaschinen".

Für Irrgang liegt die größte Gefahr der Technisierung darin, dass sich "die Menschen zu sehr auf die Maschinen verlassen". Als Beispiel, an dem sich diese Gefahr jetzt schon abzeichnet, nennt er Kontrollverlust in Flugleitsystemen: "Es kommt immer öfter zu Unfällen oder Beinaheunfällen in der Luftfahrt, weil sich die Piloten zu sehr auf die automatischen Piloten verlassen." Wenn sich die derzeitige Entwicklung fortsetzt, zeichnet Irrgang ein pessimistisches Szenario: "In zwanzig Jahren werden dann lauter Nichtkönner Auto fahren, weil man keinen Führerschein mehr braucht, wenn die Autos selbst fahren. Die Insassen sind dem System dann aber hilflos ausgeliefert."

Allerdings sieht der Philosoph auch die Möglichkeit, dass wir im Umgang mit Maschinen, die immer intelligenter werden, auch selbst dazulernen. "Wenn man damit umzugehen lernt, wirkt technischer Fortschritt als Intelligenzverstärker." Ähnlich verhält es sich mit der Beziehung zwischen Technik und Glück - dem Leitthema beim Symposion Dürnstein. "Die Technik ist als solche ambivalent - sie kann glücksverstärkend wirken, das kann aber auch ganz anders sein, wenn wir etwa an Kriegstechnologie denken", sagt Irrgang. "Wir sollten die Zukunft nicht fürchten, aber technikgläubig zu sein - dafür gibt es auch keinen Grund." 

Informationen zu Programm und Anreise auf:www.symposionduernstein.at

Donnerstag, 19. Februar 2015

Die cyborganische Ära hat schon begonnen.

Bevor der Appetit befriedigt werden darf, will der Bildhunger des Smartphones gestillt sein – Martin Parr: «Art of Dining – Say Cheese!», 2014.Bevor der Appetit befriedigt werden darf, will der Bildhunger des Smartphones gestillt sein – Martin Parr: «Art of Dining – Say Cheese!»

aus nzz.ch, 19. 2. 2015

Die Verschmelzung von Mensch und Maschine
Unter die Haut 
Unsere Geräte zur Kommunikation werden immer kleiner: Nach dem Smartphone kommt die Apple iWatch, die ganz nah an unseren Körper heranrücken wird. Implantate unter der Haut sind der nächste Schritt. Was wird das für einen Einfluss auf unser Menschenbild haben?

von Tomasz Kurianowicz

Das Internet ist die einflussreichste Erfindung des 20. Jahrhunderts. Es hat nicht nur die Beziehung zu unseren Mitmenschen durch Facebook, Online-Dating, Twitter und andere soziale Netzwerke verändert. Nein, es hat auch die Beziehung zu unserem Körper revolutioniert: Durch Smartphones und intelligente Hardware rücken uns technische Geräte immer näher auf den Leib. Sie informieren uns, speichern unsere Daten und verfolgen uns. Im Gegenzug streicheln wir sie, sprechen mit ihnen und tragen sie wie Freunde durch die Welt. Dieser Trend wird sich fortsetzen: Sogenannte «wearables» wie die Apple iWatch werden dazu beitragen, dass wir noch stärker physisch mit unseren Geräten verschmelzen werden. Schleichend sind wir im Begriff, uns zu Cyborgs zu verwandeln.

Wie der Berliner Technikexperten Stefan Greiner glaubt, ist die Cyborg-Gesellschaft gar kein Zukunftsszenario mehr, sondern längst Realität. Denn jeder, so Greiner, der ein Smartphone besitze, verfüge über eine Art technische Handverlängerung, die im Alltag wie ein Stück des Körpers funktioniere. «Auch die Benutzung eines Smartphone impliziert Aspekte des Transhumanen.» Stefan Greiner muss es wissen. Er ist Gründer und Mitglied des Berliner Cyborg-Vereins, des ersten Vereins dieser Art in Deutschland. Hier treffen sich Technikbegeisterte, Hacker und selbsternannte Cyborgs, die sich für das Thema interessieren, Grenzen des Menschlichen sprengen und auf die Thematik aufmerksam machen wollen. «Wir diskutieren über aktuelle Dinge, aber auch über grundlegende philosophische und anthropologische Fragen: In welche Richtung soll die Mensch-Maschinen-Konstellation gehen, gesellschaftlich und politisch?» Aber auch die praktische Anwendung kommt nicht zu kurz. «Wir entwickeln Geräte oder hacken bestehende Implantate, um sie für unsere Zwecke zu modifizieren. Wir implantieren uns diese Geräte unter die Haut.»

Nur eine Frage der Zeit

Ein ethisches Problem sieht Greiner dabei nicht. «Die Entwicklung des Menschen ist ein evolutionärer Fakt. Der Mensch will sich mit seinen Werkzeugen weiterentwickeln. Das ist nichts Neues. Das wird immer so sein.» Greiner möchte mit seinem Verein technische Lösungen vorschlagen und Ideen anstossen, bevor es Unternehmen stellvertretend für die Gesellschaft tun. «Wir wollen den Cyborg-Diskurs kritisch begleiten und verhindern, dass Google und andere Unternehmen in Zukunft entscheiden, wie wir mit der Mensch-Maschinen-Thematik umgehen müssen.»

Auch Angelo Wyszengrad ist Mitglied im Verein. Der Cyborg, der Mechatronik an der Beuth-Hochschule für Technik in Berlin studiert, hat sich einen Magneten unter die Haut implantiert, mit dem er elektromagnetische Wellen senden und empfangen kann. Ausserdem hat er sich in einem Piercing-Studio einen millimetergrossen Chip in seine Hand einpflanzen lassen. Noch könne dieser Chip nicht viel, sagt der Student. Aber rein theoretisch sei er vielfach einsetzbar. «In der Zukunft wird vieles möglich sein, wovor man sich heute noch scheut. Wenn es rechtlich möglich wäre, könnte man so einen Chip als Mensa-Karte benutzen. Dann müsste man in der Mensa beim Bezahlen nur die Hand ausstrecken. Aber noch ist die Gesellschaft nicht reif dafür.»

Das merkt der Student bei Diskussionen immer wieder. Denn die ethischen Bedenken seien gross: Was ist, wenn eine fremde Gewalt Zugriff auf die Elektronik in unserem Körper bekommt? Wie lassen sich Manipulationen ausschliessen? Angelo wiegelt ab. «Hier können Programmierer Lösungen finden. Fakt ist: Die Verschmelzung zwischen Mensch und Maschine ist gar nicht mehr aufzuhalten.» Schon heute würden Prothesen hergestellt, die Sportler leistungsfähiger machten als ihre implantatfreie Konkurrenz. «Es ist nur eine Frage der Zeit, bis sich die Meinung der Menschen ändert und so eine Technik für alle zur Anwendung kommt. Bis dahin geht es uns darum, das Thema in die Gesellschaft zu bringen, damit wir ein gemeinsames Bild entwerfen können. Eine Cyborg-Gesellschaft wird es ohnehin geben.»

Intim mit den Geräten

Und wie könnte so eine Gesellschaft aussehen? Für Stefan Greiner liegt das Szenario sprichwörtlich auf der Hand: «Computer waren früher riesige Kisten. Die werden heute immer kleiner und kommen immer näher zum Menschen und erweitern dessen Vermögen.» Das passiert momentan durch «wearables» wie Smartphones. Nun sei der nächste Schritt zu beobachten: Chips wie etwa Elektro-Tattoos, die am Körper angebracht werden, erreichen den Markt. «Ursprünglich waren diese Tattoos für Sportler gedacht. Über die Tattoos konnte man die Lactat-Werte konstant überwachen. Dann haben Wissenschafter zufällig herausgefunden, dass diese Tattoos über den Schweiss Strom erzeugen können. Jetzt sollen sie auf ganz unterschiedliche Arten und Weisen weiterentwickelt werden. Sie könnten als Biosensoren genutzt werden. Motorola hat bereits ein Tattoo entwickelt, das Stimmen modellieren kann.» Insofern sei es eine Frage der gesellschaftlichen Akzeptanz, bis der nächste Schritt komme und die Haut als Grenze des Körpers durchbrochen werde. «Das wird bald passieren. Da bin ich mir sicher. Dann wird man keine Google-Glass mehr brauchen, sondern Informationen tauschen und über Implantate direkt im Auge abrufen können.»

Und welchen Einfluss könnte diese Entwicklung auf die Gesellschaft haben – etwa auf die Art und Weise, wie wir Menschen miteinander in Beziehung treten? Schon heute zeigt sich, dass wir zum Teil intensiver und intimer mit unseren elektronischen Geräten kommunizieren als mit unseren Mitmenschen. Erst wenige Psychologen kümmern sich um die Frage, was das für Auswirkungen hat. Was heisst es etwa, wenn wir einen Grossteil unserer Sozialbeziehungen über Smartphones abwickeln? Könnte es zum Problem werden, wenn wir lustvoller in einen Bildschirm oder einen Google-Apparat als in zwei Menschenaugen schauen?

Sollte die Cyborg-Gesellschaft in den nächsten Jahrzehnten Realität werden – und vieles spricht dafür –, dann könnte es sein, dass die Missverständnisse und zwischenmenschlichen Abkapselungen zunehmen werden. Es ist an der Zeit, über die Risiken der Verschmelzung zwischen Mensch und Maschine zu diskutieren. Wie wollen wir leben? Welche Beziehungen wollen wir führen? Und wie wollen wir unsere Kinder erziehen? Auf dem Spiel steht nichts Geringeres als unsere Fähigkeit zur Empathie.

Empathie mag für eine Generation, die ohne Smartphones aufgewachsen ist, kein Problem darstellen. Doch für die Digital Natives, die also Ende der neunziger und in den nuller Jahren geboren sind, ist die Interaktion von Mensch zu Mensch eine Kompetenz, die hart erlernt und neu erprobt werden muss. Besonders Lehrer und Universitätsdozenten können davon ein Lied singen: Der Griff zum Smartphone ist die schützende Mauer, zu der viele junge Schüler greifen, um sich vor dem Blick der anderen in Sicherheit zu bringen. Momentan kann man Smartphones noch weglegen und sich bewusst für eine Internet-freie Zone entscheiden. Die Apple iWatch und implantierbare Chips werden es hingegen noch schwieriger machen, einen analogen Schutzraum zu finden.

Den Umgang mit Menschen verlernt

Das stellt ein Problem besonders bei der Kindererziehung dar. Natürlich, es kostet Zeit und Mühe, ein Kind zu beschäftigen, sich mit ihm auszutauschen und reale Konversation zu betreiben. Viel einfacher ist es da, ihm ein iPad in die Hand zu drücken und sich der Verantwortung zu entziehen. Ja manche Eltern glauben sogar, dass die pädagogischen Vorteile bei einem grenzenlosen Multimedia-Gebrauch überwiegen. Immerhin gibt es viele nützliche Apps, die für Lernzwecke verwendet werden können. – Aber man darf auch die Nebenwirkungen nicht unterschätzen – etwa das autistische Verhalten, das durch die digitale Selbstbeschäftigung angetrieben wird.

Die Psychologin Nancy Darling vom amerikanischen Oberlin College in Ohio macht darauf aufmerksam, dass Kinder durch einen übermässigen iPad-Konsum eine wesentliche Eigenschaft nicht vollständig beherrschen: den Umgang mit Menschen. Denn Menschen agieren nicht berechenbar, nicht nach einem Falsch-oder-richtig-Prinzip, sondern überraschend, unkalkulierbar und hochgradig komplex.

Nehmen wir ein Memory-Spiel: Ein Kind kann es auf einem iPad spielen und dadurch seine kognitiven Fähigkeiten verbessern. Aber wenn es das gleiche Spiel auf analogem Wege spielt, lernt es gleichzeitig, mit einem anderen Kind zu interagieren, die Regeln der Fairness zu ermessen, die Emotionen beim anderen zu beobachten. All diese mehrdimensionalen Eigenschaften, die ein Kind erlernt, um sich später in der Gesellschaft zu integrieren, fehlen beim iPad-Spiel völlig. Ausserdem beklagen viele Eltern, dass sich Kinder nach hohem Tablet-Konsum distanziert und gereizt verhalten. In diesem Fall dienen die Geräte zur Abkapselung und nicht zur Verständigung oder Leistungssteigerung.

Zudem belegen Studien, dass Kinder, die viel Zeit mit Tablets und Smartphones verbringen, später Probleme haben, sich eloquent auszudrücken – da mögen die Apps, die sie verwenden, noch so nützlich sein. Deswegen raten führende Psychologen dazu, bei der Erziehung ein Gleichgewicht zu finden zwischen dem frühen Training von multimedialen Kompetenzen und der Entwicklung von empathischen Eigenschaften durch zwischenmenschliche Interaktion. Analoge Schutzräume sind essenziell. Sonst droht eine Generation heranzuwachsen, die nur noch imstande sein wird, Gefühle, Begehren und Leidenschaften über das Smartphone und Emoticons auszudrücken.

Tomasz Kurianowicz ist Autor, Journalist und Literaturwissenschafter an der Columbia University. Er lebt in New York City und Berlin. www.kurianowicz.com.




Dienstag, 17. Februar 2015

Das Besondere am Menschen.

Wer gewinnt wohl diese Partie, der Affe oder Jerry Lewis? Und falls es der Affe ist, versteht er dann, wie er zu seinem Sieg kam? aus nzz.ch, 17.2.2015, 05:30 Uhr

Was macht den Menschen zum Menschen?
Der Unterschied

von Christoph Lüthy 

Wie tierisch ist der Mensch, wie menschlich sind die Tiere? Gibt es ein Merkmal, das allein dem Menschen vorbehalten ist? Und wäre dies die Vernunft oder das Lachen oder die Sprache? Aus biblischer Sicht ist die Antwort deutlich: Alle Lebewesen sind von Gott geschaffen, doch nach dessen Bilde ist es bloss der Mensch – wobei diese Bildhaftigkeit als Beseeltheit oder Geistigkeit gedeutet werden kann. Eine dermassen kategorische Trennung zwischen Mensch und Tier wird wiederum von der Evolutionstheorie unterlaufen, die fliessende Übergänge annimmt. Die rigide Stufenleiter der Daseinsformen ersetzt sie durch eine Rolltreppe, auf welcher das Leben in Richtung stets komplexerer Formen und Fähigkeiten getragen werden kann.

Kein Konsens

Interessanterweise hat jedoch die Evolutionstheorie zum Thema der Stellung des Menschen keinen Konsens finden können. Der radikalste der Schüler Darwins, Thomas Henry Huxley, folgerte beispielsweise, das menschliche Bewusstsein sei bloss ein folgenloses Abfallprodukt der Hirnaktivität, unser vermeintliches Denken und Planen eine reine Illusion. Zum gegenteiligen Schluss kam der Mitbegründer der Evolutionstheorie, Alfred Russel Wallace. Nach dessen Ansicht war es nämlich genau das menschliche Bewusstsein («mind»), dank welchem unsere Spezies die Spielregeln der natürlichen Selektion umgehen und die kulturelle Evolution in Gang setzen konnte. Interessanterweise haben sich diese gegensätzlichen Auffassungen zur Rolle von Bewusstsein und Geist trotz allen wissenschaftlichen Erkenntnisgewinnen in den vergangenen hundertfünfzig Jahren erhalten können.

Weshalb hat sich aber bisher kein Konsens zur Frage des Unterschieds zwischen Mensch und Tier herausbilden können? Wohl vor allem deshalb, weil wir einerseits zu wenig über uns selbst wissen und andererseits zu wenig über die Tiere, die wir beobachten. Welche Schlüsse dürfen wir ziehen, wenn wir beobachten, dass ein Hund oder ein Affe einen neuen Trick lernt? Hat das Tier etwas «verstanden» – oder wurde es bloss auf ein neues Reaktionsmuster abgerichtet? Da wir uns selbst in unserem Tun oft genug nicht zureichend erklären oder verstehen können, sind unsere Interpretationen von tierischem Verhalten häufig nichts anderes als Übertragungen unbegriffener Ausdrücke von «uns» auf «sie».

Die vergleichende Verhaltensforschung (oder Ethologie) hat seit ihrem Entstehen im späten 19. Jahrhundert aus diesem Grunde auch stets zwei gegenläufige methodologische Tendenzen aufgewiesen. Die eine Strategie besteht darin, menschliches Handlungsbewusstsein bis auf die unterste Stufe tierischen Verhaltens zu projizieren. In den Worten von George Romanes (1863): «Es besteht kein genereller Unterschied zwischen dem Vernunftakt eines Krebses und dem eines Menschen.» Die gegenteilige Strategie besteht darin, rein physiologische Input-Output-Muster, tierischen Instinkt und Konditionierung, bis hinauf zur komplexesten menschlichen Verhaltensebene als Erklärungsmodell anzuwenden und dabei das Bewusstsein als mögliches Handlungszentrum zu ignorieren. Ausgehend von ihren Studien zu Gänsen, Ameisen oder Affen haben beispielsweise Konrad Lorenz, E. O. Wilson oder Frans de Waal versucht, den Menschen als biologisch und sozial durch und durch determiniertes Wesen zu deuten.

Mit seinem unlängst ins Deutsche übersetzten Buch «Der Unterschied – Was den Menschen zum Menschen macht» wagt sich Thomas Suddendorf in dieses von zahlreichen alten und neuen Laufgräben durchfurchte Terrain. Suddendorf, ein aus dem Münsterland stammender und nunmehr an der australischen University of Queensland in Brisbane tätiger Entwicklungspsychologe, untersucht die Entwicklung von kognitiven Fähigkeiten bei Menschen- und Affenkindern. Dieses Forschungsfeld ermöglicht ihm, den Fehler vieler seiner Kollegen zu vermeiden, die vom erwachsenen menschlichen Bewusstsein Rückschlüsse auf Tiere ziehen beziehungsweise aus Tierbeobachtungen gewonnene Erkenntnisse auf unsere Gattung projizieren. Suddendorf vergleicht die Entwicklung von Menschen und Menschenaffen im Frühstadium ihres Lebens, die während der ersten zwei Jahre weitgehend parallel verläuft, um sich danach deutlich zu unterscheiden.

Der Autor besitzt die bewundernswerte Fähigkeit, schwierige Theorien und komplexe Experimente der Verhaltensforschung, der Primatologie und der Entwicklungspsychologie auf zugängliche Weise zu beschreiben. Nach Suddendorf gab es eine Zeit, in der sich verschiedene Menschenarten auf der Welt tummelten, deren Fähigkeiten sich noch nicht radikal von denen der Vorgänger der heutigen Menschenaffen abhoben. Im Laufe der letzten sechs Millionen Jahre hat sich jedoch einerseits der Homo sapiens herausgebildet, haben andererseits die verschiedenen Affenarten ihre jeweiligen spezifischen Entwicklungen durchlaufen; zudem sind rivalisierende Menschenarten ausgestorben, möglicherweise durch das Zutun unserer eigenen Vorfahren. Das Resultat ist, dass wir heute von einer «enormen Kluft» sprechen müssen, die uns von unseren engsten Verwandten im Tierreich trennt. Da sämtliche Menschenaffen vom Aussterben bedroht sind, könnte diese Kluft zwischen uns und dem restlichen Tierreich übrigens bald noch grösser werden.

Zeitreisen und die Sprache

Es sind vor allem zwei menschliche Fähigkeiten, die Suddendorf bei unseren engsten Verwandten vermisst. Die erste ist die Befähigung zu mentalen Zeitreisen. Wir sind in Gedanken fortdauernd damit beschäftigt, Zukunftsszenarien auszuprobieren, wobei wir Parameter verschieben, die zu unterschiedlichen Resultaten führen. Ähnliches tun wir auch mit der erinnerten Vergangenheit. Auch wenn das Verhalten von Menschenaffen Aspekte der Zukunftsplanung enthält, lassen die von Suddendorf analysierten Experimente auf eine vergleichsweise beschränkte Befähigung zu mentalen Zukunftsspielereien schliessen. Die zweite spezifisch menschliche Fähigkeit ist der Gebrauch einer konzeptuellen Sprache. Gewissen Affen konnten zwar (im Extremfall) mehr als tausend Wörter beigebracht werden, die sie auf Piktogrammen oder via Gebärdensprache erkannten und erfolgreich an Gegenstände zu koppeln wussten. Selbst einfache syntaktische Strukturen («Leg den Schlüssel in die Kiste») konnten einige von ihnen erlernen. Doch wurde die angelernte Sprache von den abgerichteten Affen nie an andere weitergegeben oder dazu benutzt, dem Forscher etwas Neues mitzuteilen.

Welche Schlüsse man daraus in Bezug auf das mentale Leben der Menschenaffen ziehen kann, ist unter Primatenforschern umstritten. Suddendorf wirbt für eine «schlanke» Interpretation, die dem Affen spezifische Fähigkeiten abspricht, wie beispielsweise die «Meta-Repräsentation», das Vermögen, sich in Gedanken von aussen zu sehen, und die Rekursion, das Verschachteln von sprachlichen Versatzstücken in einem Satz. Für Suddendorf steht es ausser Frage, dass eine Erklärung dafür gefunden werden muss, weshalb «unser Geist Zivilisationen und Technologien hervorgebracht hat, die das Antlitz der Erde veränderten, während unsere engsten Verwandten aus dem Tierreich unauffällig in den ihnen verbliebenen Wäldern leben».

Thomas Suddendorf: Der Unterschied – Was den Menschen zum Menschen macht. Aus dem Englischen von Gabriele Gockel, Bernhard Jendricke und Barbara Steckhan. Berlin-Verlag, Berlin 2014. 384 S., Fr. 34.90.

Nota.

Die Conditio humana beruht auf diesem einen: Der Mensch muss urteilen. Urteilen heißt, über die Bedeutungen befinden. Einem Ding eine Bedeutung zuerkennen ist: urteilen, dass eines, das erscheint, einem unterliegt, das gilt. Geltung ist dasjenige 'an' den Erscheinungen, das zum Bestimmungsgrund für mein Handeln wird. Handeln und Urteilen sind Wechselbegriffe. Handeln heißt nicht bloß; etwas tun - das tut das Tier auch; sondern: einen Grund dafür haben. Der Mensch muss handeln und Der Mensch muss urteilen bedeuten dasselbe.

J. E., aus e. Notizbuch, 9. 9. 2003