Regierungeberater Gerd Gigerenzer
"Künstliche Intelligenz wird überschätzt"
Bildungsforscher und Psychologe Gerd Gigerenzer spricht im
Tagesspiegel-Interview über die Risiken, die von großen Datensammlungen
bei Staaten und Unternehmen ausgehen
Professor Gigerenzer, wie bemisst sich der Wert eines Menschen?
Die Antwort auf diese Frage verändert sich zunehmend. Wir leben in einer Welt, in der wir immer mehr Urteilskraft durch Zahlen ersetzen – durch Scores, die den Wert eines Menschen mithilfe von Algorithmen berechnen.
In China soll es bis zum Jahr 2020 einen Scorewert für jeden Menschen geben, der nicht nur die Finanzkraft, sondern auch das Medienverhalten und die Frage, welche Freundschaften jemand pflegt, einbezieht. Welche Konsequenzen drohen Menschen, die aus Sicht der Regierung die falschen Freunde haben?
Noch befindet sich dieses Soziale-Kredit-System im Experimentalstadium, aber die chinesische Regierung hat bereits mögliche Konsequenzen in einem Papier skizziert. Wenn Sie sich nicht sozial konform verhalten, wenn Sie die falschen Webseiten aufsuchen, zu viele Videospiele kaufen, bei Rot über die Ampel gehen oder gar Freunde mit niedrigem Score haben, dann sinkt Ihr Score. Wenn der Score zu niedrig ist, dürfen Sie nicht mehr fliegen, Ihr Haus nicht renovieren, Ihre Kinder dürfen nicht mehr auf die besten Schulen gehen, und viele andere Einschränkungen. Ein solches Programm führt zur Selbstkontrolle innerhalb der Familie. Es wird dadurch zum Selbstläufer.
Wie verkauft die Regierung das den Bürgern?
Die Regierung stellt das Programm als Mittel gegen Korruption, Kriminalität und das mangelnde Vertrauen in öffentliche Institutionen dar. Einen Scorewert bekommen übrigens nicht nur Individuen, sondern auch Unternehmen und Institutionen. Jeder soll sofort erkennen können, wie vertrauenswürdig und ehrlich andere Menschen und Unternehmen sind.
Das klingt aber doch alles ziemlich nach George Orwells Buch „1984“, in dem der Staat alles und alle überwacht und sich jeder wohlverhalten muss.
Ja, so sehen wir das im Westen. Das Ende der Freiheit. Die totale Überwachung ermöglicht heute Big Data statt Orwells Big Brother. Dabei sind wir sind längst auch schon auf diesem Weg.
Inwiefern?
Bei uns werden doch auch in einer Tour Daten gesammelt und Menschen bewertet. Und das sehen viele positiv. Das geht bei der Schufa los, die Ihnen einen Wert für Ihre finanzielle Bonität verpasst und geht bei den Versicherungen weiter, die Ihnen günstigere Tarife anbietet, wenn Sie den Gesellschaften Ihre Daten zur Verfügung stellen. Telematik-Tarife in der Autoversicherung sollen Unfälle verringern. Krankenversicherer finanzierten Fitbits und erhalten im Gegenzug die Daten über die Anzahl der Schritte die Sie gehen und Sie erhalten einen Bonus. Verbraucher beurteilen andere auf Ebay, Amazon oder Airbnb – und werden bewertet. Das Ganze läuft bereits an. Wir sind jetzt in einer wichtigen Phase, in der wir eine Wertediskussion führen sollten. Wollen wir das so weiter laufen lassen? Wenn wir nichts tun, wird eines Tages ein Unternehmen oder eine staatliche Institution die verschiedenen Datenbanken zu einem einzigen Sozialen-Kredit-Score zusammenführen, und am Ende haben wir chinesische Verhältnisse.
Wenn ich in einer schlechten Nachbarschaft wohne, senkt das meinen Schufa-Wert, selbst wenn ich meine Rechnungen immer pünktlich zahle. Wie gerecht ist das?
Das nennt man Geoscoring. Wenn Sie in einem Mietshaus wohnen und Ihre Nachbarn finanziell unsolide sind, bekommen Sie bei vielen Unternehmen ein schlechteres Rating ihrer Kreditwürdigkeit – oder auch wenn Ihr Haus in einer Straße liegt, deren Anwohner gelegentlich ihre Rechnung nicht bezahlen. Sie müssen dann zum Beispiel für Kredite höhere Zinsen zahlen oder bekommen eine Wohnung nicht, auch wenn gegen Sie persönlich nichts vorliegt.
Wie zuverlässig sind derartige Bewertungssysteme?
Das ist eine gute Frage. Aber selbst wenn die Werte unzuverlässig sind, beeinflussen sie unser Leben. Wir stehen vor einem radikalen technischen Eingriff in unserer Psyche. Das Leben dreht sich irgendwann nur noch darum, den Scorewert zu behalten oder zu verbessern.
Man könnte sich dem System entziehen. Was ist, wenn man nicht mitmacht? Kann es sein, dass das Bemühen um Datenschutz negative Konsequenzen hat, weil unterstellt wird, dass man etwas zu verbergen hat?
Ja, klar. Ein guter Freund von mir ist Hochschullehrer und wollte in Berlin eine Wohnung kaufen. Der Verkäufer verlangte eine Schufa-Auskunft. Hätte mein Freund sie nicht eingeholt, hätte er die Wohnung wahrscheinlich nicht bekommen. Wer seinen Wert nicht kennt oder nicht zeigt, macht sich verdächtig.
Kann es sein, dass es einem zum Nachteil ausgelegt wird, wenn man nicht auf Facebook oder beruflichen Netzwerken ist?
Ja, das ist gut möglich. Ich selbst benutze Facebook nicht und vermisse es auch nicht. Ich habe so mehr Zeit zum persönlichen Kontakt und zum Nachdenken.
Was müsste jetzt geschehen, um Leitplanken einzuziehen?
Das wäre ein wichtiges Thema für die Koalitionsverhandlungen gewesen, aber die Politik beschäftigt sich vorrangig nur mit der – auch wichtigen – Frage, wie man die Digitalisierung fördert und die technischen Voraussetzungen schafft. Die gesellschaftliche und psychologische Dimension bleibt außen vor. Wir reden von Technik und nicht davon, was die Technik mit uns macht. Es ist hier ein großer blinder Fleck entstanden. Wir brauchen jetzt eine Wertedebatte. Wenn wir nichts tun, wird uns die Technik treiben.
Ganz konkret: Wer müsste was tun?
Der Sachverständigenrat für Verbraucherfragen arbeitet derzeit an dem Projekt Verbraucher-Scoring. Wir werden Ende des Jahres ein Gutachten vorlegen und möchten damit größeres Bewusstsein und Aufmerksamkeit erzeugen. In China ist es so, dass die meisten Menschen von dem Programm noch gar nichts gehört haben. Und diejenigen, die davon gehört haben, finden es eher gut. Sie begrüßen es, dass sie über jeden, der an die Tür klopft, oder jeden neuen Kollegen mithilfe des Scorewertes Bescheid wissen. Auch Frauen, die auf Partnersuche sind, können gleich sehen, wie vertrauenswürdig ein Mann ist. Die Scores sollen in China öffentlich sein, nicht verdeckt wie bei unserer Schufa. Ich glaube, dass es auch in Deutschland eine Gruppe geben wird, die für den digital gläsernen Menschen und ein solches Programm der Überwachung sein wird.
Wer wird das sein?
Dazu gehören einige große Internetunternehmen. Eric Schmidt, Ex-Chef von Google, predigt die Vision der voller Transparenz und meint, wenn jemand etwas zu verbergen hat, dann soll er es besser gar nicht erst tun. Ich sehe da eine erstaunliche Übereinstimmung zwischen Schmidt und der chinesischen Regierung – und auch in China arbeitet Baidu, das Äquivalent von Google, am Sozialen-Kredit-Score Programm mit. In Deutschland stehen wir vor zwei Fragen: Soll man das Scoring im Bereich Finanzen, Gesundheit, Kriminalität, Vermietung, Versandhandel und so weiter einfach so weiter laufen lassen? Und falls man das mit ja beantwortet, ist die nächste Frage: Soll man es zulassen, dass diese verschiedenen Datenbanken zusammengeführt werden um einen Gesamt-Score für jeden Bürger zu ermitteln?
Was meinen Sie: Sind Sie dafür, schon bei der Datensammlung einzuschreiten? Etwa mit gesetzlichen Verboten?
Ja. Viele dieser Datensammlungen sind nutzlos und die Behauptung, dass sie das Verhalten von Menschen zuverlässig vorhersagen können, ist oft irreführende Werbung.
Die Algorithmen stimmen nicht?
So ist es. In den USA wird etwa seit Anfang dieses Jahrhunderts ein Algorithmus namens COMPAS eingesetzt, mit dem bereits mehr als eine Million Angeklagte bewertet worden sind. COMPAS soll die Frage beantworten, wie hoch die Wahrscheinlichkeit ist, dass ein Angeklagter innerhalb der nächsten zwei Jahre eine Straftat begeht. Der Algorithmus analysiert dazu die Antworten jedes Angeklagten auf 137 Fragen und dessen kriminelle Vorgeschichte. Wie der Wert berechnet wird, versteht weder der Angeklagte noch der Richter. Der Algorithmus ist ein Geschäftsgeheimnis. Doch wird der Wert von Richtern benutzt.
Und wie gut ist der Algorithmus?
Eine Studie von 2018 hat gezeigt, dass COMPAS nicht besser ist als ganz normale Menschen, die keinerlei Erfahrung mit der Vorhersage von Straftaten haben. Diese Menschen wurden zufällig im Internet rekrutiert und erhielten lediglich einen Dollar Bezahlung für insgesamt 50 Vorhersagen und fünf Dollar Bonus falls mehr als 65 Prozent der Vorhersagen richtig waren. Es ist schon erstaunlich, wie naiv staatliche Organisationen und Teile unserer Gesellschaft auf Big Data vertrauen und teures Geld für nutzlose Algorithmen ausgeben, die sie noch dazu nicht verstehen. Wir finden das in unserer Forschung immer wieder: Weniger ist oft mehr.
Wie oft lag das Programm falsch?
In 35 Prozent der Fälle. Es ist tragisch, wenn jemandes Leben zerstört wird, nur weil andere blind in einen kommerziellen Algorithmus vertrauen.
Dabei investieren Staaten und Unternehmen Milliarden in die Entwicklung derartiger Computerprogramme. Ist das rausgeschmissenes Geld?
Die künstliche Intelligenz wird überschätzt. Sie funktioniert bei Spielen wie Schach oder Go, oder anderen wohldefinierten Situationen. Aber bei Vorhersagen in der wirklichen Welt, in der es Ungewissheiten gibt, sieht das anders aus. Ich erinnere an „Google Flu Trends“, ein Programm, mit dem Google die Verbreitung von Grippe vorhersagen wollte. Das Programm wurde 2009 mit Fanfaren angekündigt, die Vorhersagen sind jedoch gescheitert, und das Programm wurde schließlich still beerdigt. Wir sind dabei, Milliarden in digitale Technik zu investieren. Wir sollten jedoch ebenso viel in digitale Bildung investieren, damit Menschen verstehen, was Algorithmen wirklich können und nicht können. Wir sollten nicht einfach zusehen, wie sie dazu verwendet werden, unsere Psyche und unser soziales Leben zu verändern. Wir sollten die Fernsteuerung für unser Leben wieder selbst in die Hand nehmen.
Keine Kommentare:
Kommentar veröffentlichen