Whistleblower: Wie Google der KI Zensur beibringt
Als Zach Vorhies für Google arbeitete, war er besorgt darüber, wie das Unternehmen Daten kuratiert, um KI zu erzeugen, die auf soziale Gerechtigkeit oder linke Werte ausgerichtet ist und bestimmte Narrative unterstützt.
„KI ist ein Produkt der Daten, mit denen sie gefüttert wird“, sagte Vorhies, ein ehemaliger Google-Mitarbeiter, der zum Whistleblower wurde, in der Sendung „Crossroads“ von „EpochTV“ am 5. Januar.
„Wenn man eine KI schaffen will, die Werte der sozialen Gerechtigkeit vertritt […], wird man sie nur mit Informationen füttern, die diese Voreingenommenheit bestätigen. Wenn man also die Informationen verzerrt, kann man auch die KI verzerren“, erklärte Vorhies.
„Man kann keine KI haben, die die gesamte Bandbreite an Informationen sammelt und dann voreingenommen wird, obwohl die Informationen unvoreingenommen sind.“
KI-Talkback bringt sie in die Bredouille
Wie wichtig die Informationsbasis für KI ist, zeigen einige Erfahrungen mit KI-Talkback. Dabei geht es um die Rückkopplung der KI mit ihren Benutzern. Die KI lernt also nicht mehr nur von Quellen, die ihre Erschaffer ihr bereitstellen, sondern auch aus dem Dialog mit ihren Nutzern.
Im Jahr 2017 hat Tencent, ein großes chinesisches Technologieunternehmen, einen KI-Dienst abgeschaltet, nachdem dieser begonnen hatte, die Kommunistische Partei Chinas zu kritisieren.
Tencent, ein Videospielhersteller und Eigentümer von WeChat, bot seinen Nutzern einen kostenlosen Dienst an, bei dem sie mit einer KI-Figur chatten konnten. Die Chatbots Little Bing und Baby Q konnten über eine Vielzahl von Themen sprechen und wurden immer intelligenter, je mehr sie mit den Nutzern interagierten, so ein Bericht des japanischen öffentlich-rechtlichen Rundfunks „NHK World“.
Als ein Nutzer eine Nachricht mit den Worten „Ein Hoch auf die Kommunistische Partei“ postete, antwortete der Chatbot von Tencent: „Bist du sicher, dass du einem so korrupten und inkompetenten [politischen System] ein Hoch geben willst?“, heißt es in dem Bericht.
Als der Nutzer das KI-Programm nach dem Slogan des chinesischen Führers Xi Jinping, dem „Chinesischen Traum“, fragte, antwortete die KI, der Traum bedeute, „in die Vereinigten Staaten auszuwandern“.
Ein weiteres Beispiel für unerwartetes Verhalten von KI war Tay, ein Chatbot, der von Microsoft für 18- bis 24-Jährige in den USA zu Unterhaltungszwecken entwickelt wurde.
Tay, der 2016 auf den Markt kam, sollte von den Nutzern, mit denen er sich unterhielt, lernen. Doch nachdem Trolle auf Twitter seine Lernfähigkeit ausgenutzt hatten, begann Tay, eine Vielzahl von beleidigenden und obszönen Kommentaren zu äußern. Microsoft schaltete den Chatbot nach nur 16 Stunden ab.
Vorhies glaubt, dass es sich bei dem Tay-Vorfall um eine nachrichtendienstliche Operation handelte, die dazu dienen sollte, die Fairness-Forschung im Bereich des maschinellen Lernens (ML) in der Wissenschaft und bei Google zu fördern. ML ist die technische Grundlage der Lernfähigkeit von KI.
Was ist Fairness beim maschinellen Lernen?
ML Fairness, wie es von Google angewendet wird, ist ein System, das künstliche Intelligenz einsetzt, um Informationen zu zensieren, die von den Hauptprodukten des Unternehmens wie Google Search, Google News und YouTube verarbeitet werden, so Vorhies.
Es klassifiziert alle auf der Plattform gefundenen Daten, um zu bestimmen, welche Informationen verstärkt und welche unterdrückt werden sollen, erklärte Vorhies.
Die Komponente der Fairness im maschinellen Lernen beeinflusst die Ergebnisse von Suchanfragen. Je weiter der Lernprozess der KI fortschreitet, umso mehr Suchergebnisse werden im Sinne der Fairness zensiert. Eine Suchanfrage in der Vergangenheit hätte also andere originalgetreuere Suchergebnisse geliefert als eine Suchanfrage heutzutage, sagte er.
Wenn ein Nutzer nach neutralen Themen suche, zum Beispiel nach Backen, würde das System ihm weitgehend ungefilterte Informationen über das Backen liefern, so Vorhies. Sucht jemand jedoch nach Themen, die auf der schwarzen Liste stehen, oder nach politisch sensiblen Inhalten, würde das System versuchen, diese Informationen vor dem Nutzer zu verbergen und stattdessen alternative Inhalte präsentieren.
Mithilfe von maschinellem Lernen kann ein Technologieunternehmen „das Overton-Fenster nach links verschieben“, so Vorhies, „dann werden Menschen wie wir im Wesentlichen von diesem System programmiert.“ Das Overton-Fenster bezieht sich auf die Bandbreite politischer Maßnahmen, die im öffentlichen Diskurs zu einem bestimmten Zeitpunkt als akzeptabel gelten.
Einige Experten für maschinelles Lernen glauben, dass die in der realen Welt gesammelten Daten bereits Vorurteile enthalten, die in der Gesellschaft existieren. Daher könnten Systeme, die sie unverändert verwenden, unfair sein.
Genauigkeit kann problematisch sein
Wenn die KI ein „genaues maschinelles Lernmodell“ verwendet, um aus vorhandenen Daten aus der realen Welt zu lernen, kann sie „problematische, bereits bestehende Vorurteile in den Daten auf der Grundlage von Rasse, Geschlecht, Religion oder anderen Merkmalen lernen oder sogar verstärken“, so Google auf seiner „ai.google“-Cloud-Website unter „Verantwortungsvolle KI-Praktiken“.
„Das Risiko besteht darin, dass jede Unfairness in solchen Systemen auch weitreichende Auswirkungen haben kann. Da die Auswirkungen von KI in allen Sektoren und Gesellschaften zunehmen, ist es von entscheidender Bedeutung, auf Systeme hinzuarbeiten, die für alle fair und integrativ sind“, heißt es auf der Website.
Um zu veranschaulichen, wie maschinelles Lernen unter dem Gesichtspunkt der Fairness bewertet werden sollte, nennt Google das Beispiel einer App, die Kindern hilft, altersgerechte Bücher aus einer Bibliothek auszuwählen, die sowohl Erwachsenen- als auch Kinderbücher enthält.
Wenn die App ein Buch für Erwachsene auswählt, das von Kindern gelesen werden soll, könnten die Kinder altersunangemessenen Inhalten ausgesetzt werden, was ihre Eltern verärgern könnte. Laut dem ML-Leitfaden des Unternehmens ist es jedoch auch „problematisch“, Kinderbücher, die LGBT-Themen enthalten, als unangemessen zu kennzeichnen.
Laut Googles Leitfaden für integratives ML soll Fairness beim maschinellen Lernen dabei helfen, zu verstehen, wann und wo sich „ungerechte oder vorurteilsbehaftete Behandlung von Menschen […] in algorithmischen Systemen oder algorithmisch unterstützten Entscheidungen manifestieren“ und derartiges zu verhindern. Diese Behandlung sieht Google in seinem integrativen ML-Führer im Zusammenhang mit Rasse, Einkommen, sexueller Orientierung, Religion, Geschlecht und anderen Merkmalen, die historisch mit Diskriminierung und Marginalisierung in Verbindung gebracht werden.
Sara Robinson, Ingenieurin für Entwicklerbeziehungen bei Google, erörterte das Thema in einem Artikel auf der Cloud-Website von Google. Robinson bezeichnete Fairness beim maschinellen Lernen als den Prozess des Verstehens von Verzerrungen, die durch die Daten, mit denen die KI gefüttert wird, verursacht werden, und die Gewährleistung, dass die KI „gerechte Einschätzungen für alle demografischen Gruppen liefert“.
„Während die Genauigkeit ein Maßstab für die Bewertung der Genauigkeit eines maschinellen Lernmodells ist, gibt uns Fairness eine Möglichkeit, die praktischen Auswirkungen des Einsatzes des Modells in einer realen Situation zu verstehen“, so Robinson.
Wie KI-Zensur funktioniert
Vorhies, der ehemalige leitende Ingenieur bei Google und YouTube, sagte: „Zensur ist super teuer. Man muss buchstäblich durch alle Informationen gehen, die man hat, und sie ausführlich bewerten und einordnen.
Wenn das Federal Bureau of Investigation (FBI) ein Social-Media-Konto markiert, setzt das Social-Media-Unternehmen dieses Konto auf seine „schwarze Liste“, die dann an die KI weitergeleitet wird, so Vorhies. Schlüsselwörter sind wichtig, weil „die KI gerne Entscheidungen trifft, wenn es Etiketten für Dinge gibt“.
Die Einteilung von Datengruppen in Kategorien erleichtert das maschinelle Lernen in der KI. So verwendet die KI für selbstfahrende Autos beispielsweise Kennzeichnungen, um zwischen einer Person, der Straße, einem Auto oder dem Himmel zu unterscheiden. Sie kennzeichnet Schlüsselmerkmale dieser Objekte und sucht nach Ähnlichkeiten zwischen ihnen. Die Kennzeichnung kann manuell oder mithilfe von Software erfolgen.
Die Unterdrückung einer Person in sozialen Medien wird von der KI auf Grundlage der von den Mitarbeitern des Unternehmens ermittelten Datenlabels vorgenommen, erklärte Vorhies. Die KI entscheidet dann, ob die Beiträge der Person im Trend bleiben dürfen oder ob sie unterdrückt werden.
Vorhies arbeitete von 2016 bis 2019 bei YouTube und sagte, dass das Unternehmen ähnliche Praktiken anwendet.
YouTube, eine Google-Tochter, hatte so etwas wie ein „Dashboard von Klassifizierungen, die von ihrer maschinellen Lerngerechtigkeit generiert wurden“, sagte der Whistleblower. Die KI wisse aufgrund der Historie und der aktuellen Inhalte, wie eine Person zu bezeichnen sei, zum Beispiel als rechtsgerichteter Talkmaster, erklärte er.
„Dann saß jemand im Hinterzimmer – ich weiß nicht, wer das war – und legte auf der Grundlage seiner persönlichen Interessen fest, was verstärkt werden durfte.
Wenn zum Beispiel jemand nach Informationen über eine Kommunalwahl sucht, „werden die ersten fünf Links [in den Suchergebnissen] das sein, was die Mainstream-Medien dazu zu sagen haben“, sagte Vorhies. „Sie können also die Realität neu definieren.“
Wenn Wikipedia seine Ansicht über etwas ändert und anfängt, diese Angelegenheit als „Verschwörungstheorie und nicht real“ zu betrachten, werden die Menschen verwirrt sein, was sie davon halten sollen. Die meisten wissen nicht, dass es eine psychologische Kriegsführung und eine Beeinflussungsoperation gibt, die direkt auf ihren Verstand abzielt, sagte Vorhies.
Dieser Artikel erschien im Original auf theepochtimes.com unter dem Titel: „Google Curates Data for AI: Whistleblower“ (deutsche Bearbeitung jw)
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion