Aus den «Metadaten» der Internetnutzer gewinnen
nicht nur Geheimdienste Erkenntnisse. Digitale Verhaltensmuster sind
längt schon Grundlage für ein immer weiter um sich greifendes
«Monitoring», das unser Selbstverständnis berührt.
Von Eduard Kaeser
Was hat der amerikanische Geheimdienst NSA mit der Konsumgüterindustrie gemein? Das Interesse an einem elementaren Faktum: Menschliches Verhalten ist umso besser prognostizierbar und kontrollierbar, je mehr es sich in den Bahnen von Gewohnheiten bewegt. Gewohnheiten sind deshalb das bevorzugte Objekt der Verhaltensforschung in der Konsumgüterindustrie - deren Goldgruben. Man muss die Verhaltensspezialisten heute nicht mehr sosehr unter Psychologen und Soziologen suchen als eher unter Statistikern und Informatikern. Schon 2008 schwadronierte Chris Anderson, damals Chefredaktor des Techno-Magazins «Wired», vom «Ende der Theorie»: «Dies ist die Welt, in der Big Data und angewandte Mathematik jedes andere Erkenntniswerkzeug ersetzen. Weg mit jeder Theorie menschlichen Verhaltens [. . .] Wer weiss schon, warum sich Menschen so und nicht anders verhalten? Der Punkt ist, dass sie es tun und wir dies mit beispielloser Genauigkeit messen und erfassen können. Wenn wir nur genug Daten haben, sprechen sie für sich selbst.»
Unheimlich und unbehaglich
Das klingt nach der üblichen Chuzpe der «Digerati», einen neuralgischen Punkt trifft Anderson aber durchaus: Das Grundelement der neuen Menschenkunde im Zeitalter von Big Data ist der Mensch als Kunde, das heisst das personalisierte Datenpaket. Und man will eigentlich nicht herausfinden, was dieses Paket denkt, sondern wie sich sein Verhalten steuern und voraussagen lässt. Hier übernehmen Algorithmen die Hauptrolle. Sie ermöglichen Anbietern das Paradoxe, nämlich eine Klientel unpersönlich-persönlich zu bedienen. Das führt gelegentlich zu wirklich erstaunlichen Resultaten. Dazu eine fast schon unheimlich anmutende Anekdote: Der Statistiker Andrew Pole entwickelt Algorithmen zur Kundenanalyse für den amerikanischen Detailhandelsriesen Target. Die Marketingabteilung stellte ihm die Frage: Können wir herausfinden, ob eine Kundin schwanger ist, selbst wenn sie nicht will, dass wir das wissen? Pole schrieb aus den Gewohnheiten der Kundinnen - aus dem Datenmaterial ihres Kaufverhaltens - einen Algorithmus, mit dem sich Werbung für Windeln, Babynahrung, Krippen usw. an Mütter in spe adressieren liess. Eines Tages tauchte der Vater eines Teenagers in einer Target-Filiale auf und beschwerte sich über die Werbesendung an seine Tochter, die doch noch die Highschool besuche; was man sich eigentlich erlaube, sie zur Schwangerschaft zu animieren. Der perplexe Filialleiter entschuldigte sich. Ein paar Tage später meldete der Vater sich erneut, nun seinerseits sich entschuldigend: Seine Tochter sei wirklich schwanger. - Der Algorithmus «wusste» es vor ihm.
Gehört solch automatisiertes Augurentum zu unserer Zukunft? Längst befasst es sich nicht bloss mit Kaufverhalten, sondern zum Beispiel auch mit dem Strafvollzug. Richard Berk, Kriminologe und Statistiker an der University of Pennsylvania in Philadelphia, tüftelt an einer Software, die berechnet, mit welcher Wahrscheinlichkeit ein auf Bewährung Entlassener wieder straffällig wird. Der Algorithmus, aufgebaut aus einer Datenbank von über 60 000 Verbrechen, analysiert das Datenmaterial anhand von über zwei Dutzend Kriterien. Das Grundmotiv ist das gleiche wie bei der Durchleuchtung des Kaufverhaltens: Man möchte wissen, was eine Person tut, bevor sie es selber weiss. Philadelphia hat eine der höchsten Verbrechensraten, und vor diesem Hintergrund mag man eine solche Software für das oft überforderte Aufsichts- und Betreuungspersonal in Gefängnissen begrüssen.
Der Algorithmus sagt selbstverständlich nicht voraus, ob jemand ein Verbrechen begehen wird. Er hilft als Instrument bei der präventiven Profilierung von Personen. Dennoch bleibt ein Unbehagen, aus mindestens vier Gründen. Erstens ist das Urteil des Prognostikers oder Bewährungshelfers, der sich auf die Datenanalyse stützt, folgenreich, also ethisch relevant, betrifft es doch das - in der offenen Gesellschaft - höchste Gut des Individuums: seine Freiheit. Die unentwegt voranschreitende Verfeinerung der Algorithmen bestärkt nun aber ein dubioses Vertrauen darauf, dass man dereinst vielleicht sogar ein moralisches Urteil an die Maschinen delegieren könnte. Die Idee ist in Kreisen der künstlichen Intelligenz schon seit langem endemisch. Kann man aber einem Algorithmus Verantwortung übertragen?
Die Frage sticht ins Nervenzentrum des heutigen Zusammenlebens von Mensch und Maschine. Wir delegieren immer mehr menschliche Kenntnisse und Kompetenzen an Maschinen. Darin steckt eine schleichende Heimtücke. Menschen und Computer sind sehr verschiedene Wesen, schreibt der Software-Designer Charles Petzold, und «dummerweise ist es leichter, die Leute an die Eigenheiten des Computers anzupassen, als umgekehrt». Die Maschine kennt beispielsweise den Unterschied zwischen Original und Kopie nicht. Wie die Plagiatsfälle der letzten Zeit zeigen, scheint sich der Mensch durchaus daran zu gewöhnen . . .
Symbiose von Mensch und Gerät
Das ist der zweite Grund des Unbehagens in der Netzkultur. Algorithmen sind längst nicht mehr blosse Hilfsmittel. Sie sinken ein in unsere Entscheidungen, Wertungen, Urteile. «Feedreader» lesen für uns, wählen für uns Texte aus, paraphrasieren, kopieren sie, schneiden Stücke aus ihnen aus und rekombinieren sie zum «persönlichen» Gebrauch (etwa zum Schreiben von Masterarbeiten). Ein Algorithmus namens «Eureqa» findet in einer gegebenen Datenmenge Korrelationen, die er zu Formeln - «Gesetzen» - zusammenfasst; quasi eine Entdeckungsmaschine. Sogenannte «Massive Open Online Courses» werden angeboten, frei zugängliche Video-Vorlesungen für die «Massen» im Netz. Tutor-Software korrigiert und lektoriert Arbeiten von Kursteilnehmern; Prüfungssoftware beurteilt Multiple-Choice-Tests. Algorithmen sind heiss umkämpfte Ware. Und meist sind sie streng gehütetes Firmengeheimnis. Wir stützen uns auf «Entscheidungen» von Maschinen, kennen aber ihre Kriterien nicht. Das ist der dritte Grund des Unbehagens.
Technik bedeutet immer eine Symbiose von Mensch und Gerät. Sie wird zusehends intimer. Schon jetzt begleiten uns «persönliche» Gadgets und Apps auf Schritt und Tritt, als wären sie Stücke von uns. Der Trend ist nicht Schicksal, sondern selbstgemacht. Augenfällig genug arbeiten wir ihm zu im Selbst-Monitoring, in der ambulanten Armatur, die ihren Träger überallhin begleitet und laufend Auskunft gibt nicht nur über den Ort, an dem er sich befindet, sondern über sein Befinden selbst: über Puls, Blutdruck, Energiehaushalt usw. Letzter Schrei ist ein von Microsoft entwickeltes Handy - «Moodscope» - , das aus Metadaten wie Anzahl der Anrufe oder Art der angeklickten Websites mit über sechzigprozentiger Wahrscheinlichkeit die Laune des Benutzers erschliessen soll.
Kommt hinzu, dass nicht wenige Zeitgenossen offensichtlich dem Drang nicht widerstehen können, ihre vermessene Befindlichkeit permanent in den «social media» aller Welt kundzutun. Sie treiben so selber die «Datifizierung» ihrer selbst voran - sie produzieren Daten, auf deren Ausschlachtung die Algorithmen der Netzgiganten warten. Sie wiegen sich in der Illusion, souveräne Subjekte ihrer Erfahrungen zu sein, während sie tatsächlich zu fügsamen Anhängseln ihrer technischen «wearware» mutieren. Die schöne neue Welt kommt einem angesichts solcher Entwicklungen wie eine Drohvision vor. Sergey Brin spielte schon 2005 mit der Idee, eine Miniaturversion von Google direkt ins Hirn zu implantieren. Die Erde wird in einer Geodaten-, das gesamte Schrifttum dieser Welt in einer Bibliodaten-, der Mensch in einer Gendaten-, schliesslich der menschliche Geist in einer Neurodatenbank gespeichert, ergo abrufbar. Und wer besitzt diese Banken? - Das ist der vierte Grund des Unbehagens.
Eine abgrundtiefe Ironie blickt uns aus dieser Entwicklung entgegen. Der Mensch erfand eine überaus mächtige Metapher: jene der Maschine. Sie begann sein Bild von der Natur zu prägen, sein Bild vom Leben, schliesslich das Bild seiner selbst. Sie führte dazu, dass er nun sagt: Hab dich nicht so, du bist selber nichts als ein Algorithmus auf zwei Beinen. Die Metapher hat sich sozusagen von ihrem Schöpfer emanzipiert. Sie frisst ihn auf.
Erweitertes Selbst-Monitoring
Das Problem sind nicht Algorithmen, sondern unser «algorithmisches» Verhalten, auf das uns die Netzgiganten abrichten. Wir müssen es in einem weiteren, anthropologischen Horizont begreifen. Denn die Gleichsetzung von personalisiertem Datenpaket und Person spiegelt ja im Grunde nichts anderes als die Usurpation unseres Selbstverständnisses durch die Informationstechnologie.
Ein Blick zurück ins 18. Jahrhundert mit seiner aufkommenden Publikationsschwemme mag hier einen Fingerzeig geben. Johann Gottfried Herder klagte, dass mit der «Buchdruckerei [alles] an den Tag [kam]; die Gedanken aller Nationen, alter und neuer, flossen in einander. Wer die Stimmen zu sondern [. . .] wusste, für den war dieses grosse Odeon sehr lehrreich, andere [wurden] verwirrte Buchenstabenmänner und selbst zuletzt in Person gedruckte Buchstaben.» Man muss in der letzten Wendung nur ein Wort austauschen und liest sodann: in Person gedruckte Daten. Wenn die Netzgiganten «freundlich» unsere Eigeninitiative übernehmen, dann tun wir gut daran, solche Übernahmeversuche an uns selbst kritisch zu verfolgen. Auch das gehört zum Selbst-Monitoring. Seine Gewohnheiten zu «sondern» wissen - das liesse sich als Gebot der Stunde lesen. Was ganz banal bedeutet, dass wir uns zweimal überlegen, ob wir eine Gewohnheit an die Maschine delegieren. Das ist heutzutage schon ein kleiner subversiver Akt. Multipliziert könnte er sich zu einem Spin-off-Effekt auswachsen, der früher einmal «Ausgang aus selbstverschuldeter Unmündigkeit» hiess.
Dr. Eduard Kaeser, ehemals Gymnasiallehrer für Physik und Philosophie an der Kantonsschule Olten, ist als freier Publizist tätig. Unlängst ist im Basler Schwabe-Verlag «Multikulturalismus revisited. Ein philosophischer Essay über Zivilisiertheit» erschienen.
Keine Kommentare:
Kommentar veröffentlichen