Montag, 24. August 2015

Künstliche Intelligenz oder doch?

Myon 

aus nzz.ch, 23.8.2015, 05:30 Uhr                                                             

Maschinen und Menschen
Kann ein Smartphone Bewusstsein haben?
Ist alles nur eine Frage des Organisationsgrades und der Komplexität? Werden Maschinen in nicht ferner Zukunft Bewusstsein, gar Selbstbewusstsein besitzen? – Einige Visionen und ihre Grenzen.

von Eduard Kaeser

Das amerikanische Web-Magazin «Edge» hat als Frage des Jahres an zahlreiche Wissenschafter und Philosophen diese gestellt: Was denken Sie über Maschinen, die denken? Die Frage ist symptomatisch. Die «machina sapiens», die zum Bewusstsein erwachte Maschine, wird in einschlägigen Kreisen als real möglich betrachtet. Bereits einer der Pioniere der Artificial Intelligence, John McCarthy, meinte einmal, sein Thermostat habe drei Überzeugungen: zu warm, zu kalt und gerade richtig. Das war damals, in den Anfängen, ein Witz, aber ein ernst gemeinter. Man betrachtete es nur als eine Frage der Zeit, meist in disziplinüblichen Dekaden gerechnet, bis die ersten Computer mit Bewusstsein unter uns weilen würden. Wir warten zwar immer noch darauf, aber inzwischen brüsten sich Vertreter der Hirn- und Computerforschung bereits damit, einer Lösung des Problems auf der Spur zu sein, wie Bewusstsein in die Materie kommt – der Lösung des sogenannten «harten Problems».

Das Algorithmus-Paradigma

Christof Koch, Kybernetiker und leitender Forscher am amerikanischen Allen Institute for Brain Science, ist überzeugt, dass die Komplexität eines künstlichen Systems es auch befähige, als Trägermedium für eine Art von künstlichem Bewusstsein zu fungieren. Das entscheidende Kriterium sei die Organisation des Systems, die Vernetztheit der Elemente. Der Psychiater Giulio Tononi, ein bekannter Schlafforscher und nunmehr Mitarbeiter von Koch, hat eine sogenannte integrierte Informationstheorie entwickelt. Deren Grundidee ist einfach: bewusste Zustände differenzieren und integrieren. Als bewusste Wesen sind wir fähig, eine Vielzahl von Eindrücken zu unterscheiden, und doch nehmen wir in ihnen etwas als gestalthaftes Ganzes wahr. – Ein Smartphone kann eine gewaltige Pixelmenge speichern und in der darin enthaltenen Information Unterscheidungen vornehmen. Das aber genügt nicht, die Pixel müssen auch miteinander verknüpft sein, zu Gestalten «integriert». Bewusstseinszustände entstehen, so die These, bei einer gewissen Dichte an differenzierter und integrierter Information.

Tononis Theorie definiert eine Masszahl für diese Dichte, in Bits. Sie wird als Phi (Φ) bezeichnet. Phi misst, wie integriert – und damit bewusst – ein System ist, sei es nun organisch oder anorganisch. Nun mag die Grundidee – wie so oft – einfach sein, die praktische Berechnung von Phi erweist sich jedoch für die meisten Systeme als enorm kompliziert. Allerdings gilt Komplexität heute nicht als grundsätzliches Hindernis, sondern als Herausforderung für immer leistungsfähigere Computer. Man muss, um die Fraglichkeit des Ansatzes hervortreten zu lassen, den Blick auf das implizite Axiom richten, Bewusstsein komme einem physikalischen System zu wie etwa seine Masse, sein Schmelzpunkt, seine Speicherkapazität, sein Blutdruck – oder eben: sein Organisationsgrad. Indem die Neuroinformatik von dieser Grundvoraussetzung ausgeht, trifft sie eine Vorentscheidung, deren Signatur dann alle unsere Fragen prägt: nämlich mentales Leben «im Prinzip» als eine Art von Rechenprozess oder Algorithmus in irgendeinem komplexen physikalischen System zu studieren. Das ist, wie man es nennen könnte, das Algorithmus-Paradigma des Bewusstseins. Es verzeichnet durchaus seine Forschungserfolge. Die Frage bleibt indes: Genügt es für ein System, die nötige komplexe Struktur zu haben, um als «bewusst» zu gelten?

Tononi spielt mit der Idee eines «Phi-Meters», der für jede beliebige Entität einen spezifischen Wert berechnet: Menschen, Katzen, Google-Autos, Smartphones. Was sagt uns dieser Wert? Nun, eben genau dies: Die Entitäten haben einen bestimmten Phi-Wert. Wenn uns darunter solche mit Bewusstsein bekannt sind – Menschen oder Katzen –, dann folgt daraus einfach, dass gewisse uns bekannte bewusste Systeme einen bestimmten Phi-Wert haben. Es mag ein Kontinuum von steigenden Phi-Werten geben, angefangen bei Protonen, bis hinauf zum Homo sapiens, aber das ist bestenfalls ein Kontinuum von Zuständen, die womöglich mit Bewusstsein korreliert sind. Wo beginnt Bewusstsein? Man verstrickt sich hier leicht in das altbekannte Haufen-Paradoxon: Wie viele Sandkörner sind nötig, damit ihre Ansammlung ein Sandhaufen ist? Wie viele Neuronen muss man einem gerade noch nicht «bewussten» Hirn zufügen, um es «bewusst» werden zu lassen?

Turings Test

Zielt ein solcher Bottom-up-Ansatz womöglich am Problem vorbei? Wenn es tatsächlich eine Eigenschaft gäbe, von der sich sagen lässt, dass sie uns zu bewussten Wesen macht; und wenn wir diese Eigenschaft in einem künstlichen System implementieren würden, wäre dieses System dann ein bewusstes? Ist Bewusstsein so etwas wie das Erleben integrierter Information «von innen»? Was aber heisst nun wiederum «von innen erleben»? Wie können wir je sicher sein, dass es nicht auch Artefakte und Wesen gibt, die den gleichen Phi-Wert wie Menschen aufweisen und dennoch kein Innenleben haben – Zombies zum Beispiel?

Wer solcher Fragen überdrüssig ist, mag sie in die philosophische Rumpelkammer werfen. Genau das tat Alan Turing mit seinem berühmten Imitationsspiel. Vorlage dazu war ein bekanntes Gesellschaftsspiel, in dem ein Teilnehmer das Geschlecht zweier verborgener Gesprächspartner durch einfache Fragen herausfinden muss. Da es sich um Menschen handelt, besteht der Reiz des Spiels darin, einander auszutricksen, den Fragesteller auf die falsche Fährte zu führen. Turings listiger Vorschlag lautete, einen menschlichen Partner durch einen künstlichen zu ersetzen und zu prüfen, ob dieser mit seinem Verhalten intelligentes menschliches Verhalten imitieren könne. Eine Person, die über eine Tastatur einer anderen Person und einem Computer Fragen zu stellen hatte, musste herausfinden, von wo die menschlichen und von wo die maschinellen Antworten kamen. Damit hatte Turing listigerweise das Problem verschoben von Systemen mit Bewusstsein zu Systemen, die Bewusstsein vorzutäuschen vermögen. Aber damit gerät man vom Regen in die Traufe.

Unser Zeitalter ist geradezu verschossen in die maschinelle Vortäuschung menschlicher Kompetenzen. Was aber ist eigentlich eine Maschine? Dem ursprünglichen Wortsinn gemäss ein «Trick», eine physikalische Vorrichtung, die überlistet. Eine Machination. Bewusste Maschinen sind Machinationen von Bewusstsein. In der Zeit seit Turing haben Programme ja erstaunliche «Intelligenz» demonstriert, vor allem in Spielen wie Schach oder Jeopardy. Aber diese Stärken beruhen auf ihrem spezifischen Aufgabenbereich, sie sind Insel-Begabungen. Wir haben es im Grunde mit künstlichen Autisten zu tun.

Die wesentliche Frage ist die, ob sich die intelligente Alltagskompetenz, die Menschen in unzähligen Situationen demonstrieren, überhaupt algorithmisch übersetzen und damit in eine Maschine einbauen lässt, wie «lernfähig» sie auch sein mag. Zudem ist selbst unter Menschen bekanntlich umstritten, was als Intelligenz gelten soll. Jedenfalls beurteilen wir sie normalerweise nicht anhand von behavioristischen Kriterien, die auf relativ beschränktes Sprachverhalten à la Turing-Test eingeschränkt sind. Das bringt die Softwaredesigner kaum von ihrem geradezu unbarmherzigen Optimismus ab. Wartet nur, rufen sie uns zu, unsere Gesprächsprogramme befinden sich erst in den Kinderschuhen. – Vielleicht ist das so, aber wir sollten mit einem entscheidenden Faktor rechnen: der Hinterlist der Programme. Denn die schleichende Anpassung unseres sozialen und kommunikativen Verhaltens an die Geräte ist unübersehbar.

Angenommen, wir hätten für jedes beliebige System – natürlich oder künstlich – Phi, also den Bewusstseinsgrad, berechnet. Weiter angenommen, es stellte sich heraus, dass eine neue äusserst raffinierte Version meines Smartphones den gleichen Phi-Wert wie meine Katzen aufwiese. Zudem hätte es den neuesten Turing-Test bestanden (Koch und Tononi haben in der Tat eine eigene Version ausgeheckt). Was wäre dann? Nähme ich das Gerät jetzt auf in die Gemeinschaft der bewussten Wesen? Behandelte ich es gleich wie meine Katzen? Bestünde in Analogie zum Tierschutz nun etwa auch Anlass zu einem Smartphoneschutz? Würde ich Empathie entwickeln, die mich die Frage stellen liesse: Wie fühlt sich mein Smartphone heute morgen? Würde ich ihm, wenn sein Phi humane Werte erreichte, womöglich auch Bürgerrechte zugestehen müssen? Was, wenn wir das von Nerds erträumte Stadium eines Smartphones mit einem «transhumanen» Phi-Wert erreichen? Eric Schwitzgebel, kalifornischer Philosoph, denkt in seinem Blog «The Splintered Mind» – «Der zersplitterte Geist» – schon über moralische Pflichten gegenüber smarten Artefakten nach.

Hase und Igel

Spätestens hier erheben sich weitere Fragen: Was soll denn dieses Gerede von einem Bewusstsein der Maschinen, wenn wir unser eigenes Bewusstsein noch kaum verstehen? Und hat nicht die Evolution Millionen von Jahren gebraucht, um ein solches Bewusstsein hervorzubringen? Spricht nicht allein eine solche Zeitspanne dem Projekt Hohn, dasselbe nun für Maschinen in ein paar Jahrzehnten nachzuholen? Wir mögen zwar ein Stück Materie sein, das irgendwie Bewusstsein erzeugt, aber womöglich ist dieses Irgendwie einige Nummern zu gross für dieses Stück Materie, aber auch für das hervorgebrachte Bewusstsein selbst. Das ist kein Erkenntnis-Defaitismus, bestenfalls ein kleines Memento im Zeitalter der ruhmredigen Neuro Big Science. Womöglich handelt es sich um die Hase-Igel-Situation: Der Hase Neurokybernetik dreht seine Runden, und der Igel Bewusstsein ruft ihm zu: Renn du nur, ich bin schon da!

Dr. Eduard Kaeser, ehemals Gymnasiallehrer für Physik und Philosophie, ist als freier Publizist tätig. Kürzlich ist im Rüegger-Verlag sein Essayband «Trost der Langeweile. Die Entdeckung menschlicher Lebensformen in digitalen Welten» erschienen.


Nota. - Bei der Rekonstruktion des menschlichen Bewusstseins durch die Transzendentalphilosophie fand sich am "Grunde" - als die Bedingung alles Weiteren - das Wollen; eine intellektive Fähigkeit, die nicht psychologisch misszuverstehen ist. Es ist das Vermögen, die eigne Aufmerksamkeit zu richten und über Qualitäten zu urteilen; nämlich aus eignem Antrieb und nicht als Ausführung eines Programms. Denn nur so ist es möglich, aufs eigene Wollen zu reflektieren und die 'richtige Wahl' zu treffen. Das alles zusammen macht das aus, was man landläufig Vernunft nennt und worüber sich heute nicht einmal mehr die Philoso- phen zu reden trauen.

Weil nämlich die Vernunft scheinbar noch ungreifbarer ist als die 'Intelligenz'. Darum sind die intelligenten Maschinen eine eigenes Erkenntnisinstrument: Vernunft ist das, was die Maschinen nicht können.
JE



Keine Kommentare:

Kommentar veröffentlichen