aus Der Standard, Wien, 29. Oktober 2014
"Wir sind noch nicht am Ende des Zufalls"
Big
Data bringe nicht das allmächtige Wissen, das es verspricht, sagt der
Medientheoretiker Ramón Reichert - Während wenige große Player über die
Daten wachen, bleibe die Forschung auf der Strecke
Interview |
STANDARD: Zwei Beispiele für jüngste Meldungen zum Stichwort Big Data: "Neue Vorhersagemethode warnt vor extremen Fluten" und "Finanz will auf Strafregister zugreifen". Bringt Big Data nun die lückenlose Berechnung der Welt? Oder noch mehr Überwachung?
Reichert: Der Medienhype um Big Data hat der datenbasierten Wissenschaft ein allmächtiges Wissen zugeschrieben, im negativen wie im positiven Sinn. Man muss aber unterscheiden, auf welche Daten zurückgegriffen wird. Es gibt transaktionale Daten, die entstehen, wenn man sich in Netzwerke einloggt, Cookies herunterlädt, Bankdaten und Kundennummern hinterlässt. Diese digitalen Spuren kann man auf gewisse Weise schon objektivieren. Nutzergenerierte Inhalte wie Social-Media-Profile hingegen verhalten sich widerspenstiger. Das Objektivitätspostulat von Big Data trifft hier nicht zu. Wir sind noch nicht am "Ende des Zufalls" angelangt, von dem etwa Rudolf Klausnitzer in seinem Buch zu Big Data spricht.
Warum eignen sich nutzergenerierte Daten nicht für Big-Data-Analysen?
Sie lassen sich nicht so vereinheitlichen wie transaktionale Daten. Ein Beispiel: Bei Flickr lagern Millionen von Fotografien. Jetzt wird versucht, diese riesigen Datenbestände zu katalogisieren, nach bestimmten Kriterien zu ordnen. Doch diese Daten folgen chaotischen Strukturen des Taggings, des Beschlagwortens von Bildern. Das nennt man "Folksonomies" - ein Mischwort aus Folk und Taxonomie. Das heißt, es gibt keine taxonomisch eindeutige Klassifizierung.
Soziale Plattformen dienen heute dennoch als riesige Datenquellen für Trendanalysen. Inwiefern sind die Ergebnisse valide?
Die großen Plattformen im Web 2.0 sind heute im Grunde soziologische Beobachtungsanordnungen, wo es darum geht, über große Usercluster Verhaltensprognosen zu erstellen. Im US-Wahlkampf wurden zum Beispiel Big-Data-Analysen auf Twitter und Facebook durchgeführt. Zunächst sucht ein automatisches Texterkennungsverfahren nach Keywords wie Obama. Darauf kann eine Sentiment-Analyse aufbauen, die automatisiert untersucht, wie die User ihr Verhältnis zu den Spitzenkandidaten bewerten. Dazu werden beispielsweise Emoticons wie Smileys ausgewertet. Mit derartigen Forschungsmethoden werden Kontexte sehr vereinfacht - was zu Unschärfen in der automatischen Datenerhebung führt.
In dem von Ihnen herausgegebenen Buch "Big Data" haben Sie sich mit Stimmungsanalysen unter Facebook-Usern auseinandergesetzt. Was ist Ihre Schlussfolgerung?
Wenn es um Trendanalysen und Prognosemodelle geht, dann ist Facebook eine der wichtigsten Adressen geworden. Facebook wertet in seinem "Happiness Index" kollektive Glücksfaktoren aus und macht Aussagen über gesellschaftliche Wandlungsprozesse. Ich schließe daraus, dass Facebook das Erbe der analogen Meinungsforschung angetreten hat. Im Unterschied zu früher gibt es hier keinen Face-to-Face-Kontakt, keine Einwilligung mehr. Dazu kommt, dass das kein Wissen ist, das man verlässlich modellieren kann. Ein bekanntes Beispiel ist das Projekt Google Flu Trends, das angetreten ist, aufgrund der Suchanfragen die geografische Ausbreitung von Grippeepidemien vorhersagen zu können. Das ist fehlgeschlagen, die Prognosen waren stark überhöht. Wir sind noch nicht auf dem Stand zu sagen: Der Zufall ist aufgelöst, wir sind restlos berechenbar.
Also ist Big Data nicht mehr als ein großer Hype?
Big Data stößt auf mehreren Ebenen an seine Grenzen, bei der Software wie bei der Hardware. Studien zeigen, dass im Bereich der Social-Media-Research erst ein Prozent aller Daten bearbeitet werden kann. Es fehlt an Datenspeichern und Personal.
Aber die NSA ist ja offenbar in der Lage dazu, flächendeckend Daten abzugrasen.
Die NSA hat die Ressourcen. Im Bereich der Hardware gibt es ein enormes Machtgefälle. Geheimdienste und wenige Unternehmen haben heute ein Monopol auf die Datenauswertung. Es stehen auf der Welt ganz wenige Supercomputer, die in der Lage sind, die Handygespräche von einem Jahr zu speichern. Im Sinne der Netzwerkanalyse wird dann untersucht, wer mit wem kommuniziert und bestimmte Keywords wie "Jihad" nutzt. Eine Rasterfahndung mit simplen Keywords zu betreiben setzt voraus, dass Terror und Kriminalität Teil der Alltagskommunikation sind. Diese Sichtweise führt dazu, dass die Datenkontrolle auf die gesamte Zivilgesellschaft ausstrahlt.
Gibt es nicht auch ein Potenzial für die Wissenschaft, sich dieser Daten zu bedienen?
Nur bedingt. Man muss wissen, wie man zu diesen Daten kommt. Die Plattformen können ihre Schnittstellen auf- und abdrehen wie einen Wasserhahn. Dann kann man sich andocken an den Big-Data-Strom. Twitter bietet eine kostenlose Schnittstelle an. Man kann aber nur ein Prozent der Tweets alle 15 Minuten abschöpfen. Nur wenn man die kostenpflichtige Schnittstelle nutzt, hat man unbegrenzten Zugang, das können sich aber nur kapitalintensive Unternehmen leisten.
Wie können Forscher dann die sozialen Medien für sich nutzen?
Eine wichtige Dimension ist, dass die Wissenschaft selbst in die Social Media geht, um sich kollaborativ zu vernetzen und Wissen zirkulieren zu lassen. So kann sie die kollektive Energie der Community und des Laienpublikums nutzen, auch um die eigene wissenschaftliche Arbeit effektiver zu hinterfragen. Das passiert schon jetzt in Ansätzen.
Könnte die Wissenschaft in solchen Spielräumen einen Gegenpol zu den großen Playern bilden?
Die Frage ist, ob es die Wissenschaft schafft, sich von kommerziellen Netzwerkbetreibern loszulösen und eigene, lokale oder kommunale Alternativen zu etablieren.
Sollte Programmieren als neue Kulturtechnik gelten bzw. als Fremdsprache gelehrt werden, wie das der deutsche Wirtschaftsminister Sigmar Gabriel vorgeschlagen hat?
Absolut. Das wäre eine große Ermächtigung der User und würde die Datensensibilität wesentlich stärken.
Ramón Reichert, geb. 1966 in Graz, war von 2009 bis 2013 Professor für Neue Medien am Institut für Theater-, Film- und Medienwissenschaften der Uni Wien. Seit 2014 ist er Leiter der postgradualen Masterstudiengänge "Data Studies" und "Cross Media" an der Donau-Uni Krems. Kürzlich hat er "Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie" (Transcript) herausgegeben. Reichert diskutiert heute, Mittwoch, beim Ernst-Mach-Forum der ÖAW zum Thema "Big Data. Wie kommt Sinn in die großen Zahlen?"
Link
Ernst-Mach-Forum
Keine Kommentare:
Kommentar veröffentlichen