lesender Roboter Hubo
aus derStandard.at, 13. April 2017, 20:31
Auch künstliche Intelligenz kann Vorurteile entwickeln
Rassistische und sexistische Anwandlungen: Ein komplexes Sprachsystem "lernt" von seinen menschlichen Schöpfern
Princeton/Wien – Computersysteme werden künftig in immer größerem Ausmaß dafür herangezogen, wichtige Entscheidungen zu treffen. Wer soll wieviel für seine Krankenversicherung zahlen? Welchem Bankkunden sollte man einen Kredit lieber verweigern? Welcher Kriminelle könnte am ehesten wieder straffällig werden? Die Idee dahinter ist unter anderem, dass Computer im Unterschied zu Menschen ihr Urteil nicht auf Basis von vorgefassten Meinungen fällen – zumindest hoffte man das früher.
Überraschenderweise machen sich künstliche Intelligenzen (KI) aber durchaus dieselben Ressentiments zu eigen wie ihre Schöpfer. Ein Forscherteam um Aylin Caliskan von der Princeton University hat nun in einem KI-System nicht nur Voreingenommenheit gegenüber bestimmten Hautfarben oder Geschlechtern festgestellt, sondern auch die möglichen Wurzeln dafür identifiziert.
GloVe kennt 2,2 Millionen Worte
Eine verbreitete Methode, Vorurteile zu messen, ist der Implizite Assoziationstest (IAT). Dabei sollen die Teilnehmer am Computer Worte anderen Begriffen zuordnen. "Blumen" werden dabei etwa in der Regel mit "erfreulich" kombiniert, den "Insekten" wird meist der Begriff "unangenehm" zugewiesen. Unter anderem anhand der Reaktionszeit der Probanden lassen sich Aussagen über das Vorhandensein unterschwelliger Vorurteile treffen.
Caliskan und ihre Kollegen modifizierten diesen Test und setzten ihn einem hochentwickelten KI-System vor. Dieser GloVe-Algorithmus (Global Vectors for Word Representation) kennt nicht nur 2,2 Millionen englische Wörter, sondern auch ihre semantischen Beziehungen untereinander. Seine Erkenntnisse hat GloVe gewonnen, indem er für jedes einzelne Wort in Texten aus dem Internet nachgesehen hat, welche anderen Begriffe im näheren Umkreis vorkommen. Das System "las" dafür im Web rund 840 Milliarden Worte. Das Ergebnis ist ein komplexes System aus semantischen Vektoren.
Vom Menschen gelernt
Der adaptierte Test mit der Bezeichnung WEAT (Word-Embedding Association Test) konnte nun nachweisen, dass GloVe bei seiner Lektüre menschliche Vorurteile in einem hohen Ausmaß übernommen hat. Als Quelle dieser Maschinen-Ressentiments identifizierten die Forscher im Fachjournal "Science" die gleichsam in die menschliche Sprache eingewobenen historischen Vorurteile und kulturellen Stereotypen.
So assoziierte die KI beispielsweise Begriffe aus der Kunst eher mit Synonymen für das Wort "Frau", während Mathematik großteils männlich konnotiert wurde. Außerdem war GloVe statistisch gesehen geneigt, Namen europäischer Herkunft eher mit positiven Eigenschaften zu verbinden als afroamerikanische Namen. Die Forscher überlegen nun, der KI ihre rassistischen und sexistischen Tendenzen auszutreiben, ohne dass dabei auch wichtige semantische Informationen verloren gehen. Bleibt nur zu hoffen, dass GloVe bei der Beseitigung seiner Vorurteile lernfähiger ist als der Mensch. (tberg)
Abstract
Science: "Semantics derived automatically from language corpora contain human-like biases."
Link
Wired: Was passiert, wenn KIs unsere schlechten Eigenschaften übernehmen? – Interview mit KI-Forscherin Aylin Caliskan
Nota. - Das ist die Grenze maschineller Intelligenz und wird es immer bleiben: Ein Computer kann immer nur das, was ihm ein Mensch oder ein anderer von Menschen konstruierter Computer beigebracht hat. Das kann er vielfältig kombinieren, sicher schneller und gründlicher als sein Erbauer, der dann verblüfft glaubt, der Computer habe 'sich selber was ausgedacht'.
In Bereichen, wo es ohnehin nur aufs Kombinieren und nicht aufs Erfinden ankommt - also überall, wo mathematische Symbole anwendbar sind -, bleibt dieses Missverständnis folgenlos. Doch wo immer der Computer im semantischen Bereich tätig wird, ist es ein gefährlicher Irrtum, dass er selber denken könne! Semantik - das Reich der Bedeutungen - ist eine spezifisch und exklusiv menschliche, die spezifisch und exklusiv menschliche Dimension.
Denn für wen kann irgendwas irgendwas bedeuten? Nur für den, der Zwecke verfolgt, und zwar in letzter Instanz selbstgewählte Zwecke: für einen, der etwas will. Und nur Menschen können etwas wollen, weil sie etwas wollen müssen. Weil ihnen nämlich in die offenen Welt, in die sie einmal aufgebrochen sind, die Evolution keinen angestammten Weg mitgegeben hat. Weil sie ihr Leben führen müssen.
Aber natürlich kann einem semantischen Computer genausogut wie einem bloßer Rechner ein Schaltfehler unterlaufen: Er spielt dann verrückt. Wer falsche Erwartungen an den Computer mitbringt, wird dann womöglich Wahnsinn mit Genie verwecheln, und das könnte böse Folgen haben.
JE
Keine Kommentare:
Kommentar veröffentlichen