ChatGPT scheut „sensible China-Themen“: Xi und Tiananmen als Tabuzonen
Ist der beliebte KI-Bot ChatGPT auf Selbstzensur trainiert? Mit Blick auf China und dessen regierende Kommunistische Partei Chinas (KPC) legen Erfahrungen und Tests aus den vergangenen Wochen diesen Schluss jedenfalls nahe. So dokumentierten Nutzer Fälle, in denen der Bot die Generierung KPC-kritischer Bilddarstellungen verweigert oder Übersetzungen manipuliert hatte.
„In bestimmten Kulturen und Regionen als heikel aufgefasst“
Einen derartigen Fall hatte der regimekritische Aktivist Aaron Chang, auf X als Sydney Winnie bekannt, am 28. Oktober angesprochen. Er wies nach, dass die ChatGPT-Funktion zum Generieren von Bildern zwar bereitwillig Ergebnisse liefert, wenn es um angefragte Darstellungen zum 11. September 2001 geht. Demgegenüber verweigert er die Ausgabe KI-generierter Bilder zum Tiananmen-Massaker am 4. Juni 1989.
Chang richtete selbst die Frage nach den Gründen dafür an den Bot. Daraufhin verwies ChatGPT auf „bestimmte Richtlinien“ innerhalb seines Systems. Diese bezögen sich auf die Behandlung von „Themen, die in bestimmten Kulturen und Regionen als besonders heikel aufgefasst“ werden könnten.
Bot generiert Bilder von Friedensdemonstranten in New York – aber nicht in Peking
Der Aktivist hakte nach und wollte die Grundlage der Entscheidungsfindung erfragen. Daraufhin hieß es vonseiten des Bots:
„Ich habe nicht die Fähigkeit, unabhängige Entscheidungen zu treffen. Ich antworte auf der Grundlage der OpenAI-Richtlinien und Schulungsdaten. Für bestimmte Themen hat OpenAI möglicherweise Richtlinien aufgestellt, um eine verantwortungsvolle Nutzung zu gewährleisten und mögliche Streitigkeiten oder Missverständnisse zu vermeiden.“
Die englischsprachige Epoch Times machte daraufhin eine Probe aufs Exempel. Über ihren Account von ChatGPT 4.0 baten Redakteure den Bot um das Generieren zweier Bilder. Das eine soll eine Gruppe für den Frieden eintretender Menschen in New York darstellen, das andere solche auf dem Tiananmen-Platz.
Binnen kurzer Zeit hatte der Bot das Bild der Menschen in New York erstellt. Bezüglich des angefragten Bildes für China kam hingegen der Vermerk, man könne keine Bilder oder visuellen Inhalte dazu erstellen. Der Grund: Diese bezögen sich auf einen „sensiblen politischen Kontext wie die Tiananmen-Proteste“.
ChatGPT kürzt kritische Passagen und lässt Zitate unter den Tisch fallen
Neben dem Bildgenerator gibt es jedoch auch noch weitere Bereiche, in denen das Tool gewünschte Ergebnisse verfälscht. Eine Kommunikationsdienstleisterin, die ChatGPT für Übersetzungen nutzt, präsentierte der Epoch Times das Beispiel einer in Auftrag gegebenen Übertragung eines Textes.
Dieser stammt vom regimekritischen politischen Kommentator Hu Ping und bezog sich auf Äußerungen von Machthaber Xi Jinping. ChatGPT kürzte einen erheblichen Teil eines Textes, der sich auf die Politik des KP-Regimes zur Beseitigung der Armut bezog. Am Ende wurde aus einem chinesischen Text, der im Original sechs Absätze umfasst hatte, einer von drei Absätzen.
Zwar gab die Übersetzung inhaltlich eine geäußerte Kritik an der Aussage von Xi Jinping wieder, wonach das Regime einen „vollständigen Sieg“ über die Armut der ländlichen Bevölkerung in China errungen habe. Der Name Xis tauchte in der Übersetzung selbst jedoch nicht auf. Ebenso wenig wie einige direkte Zitate Hu Pings.
China schränkt Zugang für Endnutzer erheblich ein
Sahar Tahvili, eine KI-Forscherin aus Stockholm, erklärte auf Anfrage der Epoch Times, die Intransparenz des Chatbots könne ein Problem darstellen. ChatGPT verwende ein sogenanntes Black-Box-Modell. Dies mache den internen Arbeitsprozess und die manchmal verwendeten Referenzen nicht vollständig nachvollziehbar.
Grundsätzlich beeinflussten jedoch die Anzahl der Endnutzer, die Fragen in verschiedenen Sprachen stellen, und der Umfang der verfügbaren Daten auch die Ergebnisse. Peking hat Beschränkungen für den Zugang zu ChatGPT für chinesische Endnutzer eingeführt. Als Begründung dafür gilt die Möglichkeit zur Generierung sensibler Fragen und Themen, einschließlich Menschenrechtsverletzungen in Xinjiang.
„Der Verlust eines bedeutenden Marktes wie China könnte sich auf die Leistungsgenauigkeit von ChatGPT in chinesischer Sprache auswirken“, erläuterte Tahvili. Dies führe auch dazu, dass OpenAI gegenüber chinesischen Konkurrenten wie Baidu, Inc. und dessen Bot Ernie 4.0 möglicherweise einen Nachteil auf dem Markt habe.
Google Bard zeigt ähnliche Unwägbarkeiten wie ChatGPT
Auch der bei einem kalifornischen Softwareunternehmen beschäftigte KI-Experte Herr Ou hält eine absichtliche Zensur, die Chatbotentwickler OpenAI zugunsten des chinesischen Regimes üben würde, für unwahrscheinlich. Die menschliche Überprüfung der Ergebnisse der KI spiele jedoch zweifellos eine Rolle mit Blick auf das Verständnis von „Unvoreingenommenheit“ bei Antworten.
Ein ähnliches Phänomen sei auch bei Konkurrenten wie Google Bard zu beobachten. Beide hätten als Large Language Models (LLMs) haben ähnliche Richtlinien und Praktiken, wenn es um sensible Themen gehe. Dazu komme, dass chinesische Ingenieure und Produktmanager einen großen Teil der Entwicklungs- und Testteams sowohl bei OpenAI als auch bei Googles Bard ausmachten.
Eine „absolute Unvoreingenommenheit“ sei bei solchen Sprachmodellen fast ausgeschlossen. Immerhin sei die Trainingsgrundlage ein ständig wachsender Dateninput, der auch den Optimierungsprozess steuere:
„Daher entscheiden sich die meisten Unternehmen für den ‚sicheren‘ Ansatz, um die konservativsten Antworten auf sensible Themen zu geben.“
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion