Elon Musk zieht Twitter aus „Desinformations“-Abkommen – EU spricht Warnung aus
Der EU-Kommissar für den Binnenmarkt, Thierry Breton, schrieb, dass Twitter sich aus dem EU-Verhaltenskodex zurückgezogen habe. Breton warnte Twitter vor rechtlichen Konsequenzen.
„Twitter verlässt den freiwilligen EU-Verhaltenskodex gegen Desinformation. Aber die Verpflichtungen bleiben. Man kann weglaufen, aber man kann sich nicht verstecken“, schrieb Breton. „Zusätzlich zu den freiwilligen Verpflichtungen wird der Kampf gegen Desinformation ab dem 25. August eine gesetzliche Verpflichtung im Rahmen des DSA sein. Unsere Teams werden bereit sein, dies durchzusetzen.“
Ein EU-Beamter sagte „Euractiv“, dass der EU-Block „darauf gewartet“ habe und dass es „nur eine Frage der Zeit“ gewesen sei, bis Berichte auftauchten, dass Musk sich zurückziehen würde.
Die Richtlinien, die als Digital Services Act (DSA) bekannt sind, verlangen von den Unternehmen ein Risikomanagement, externe und unabhängige Audits, den Austausch von Daten mit Behörden und Forschern und die Verabschiedung eines Verhaltenskodex bis August.
Zu den 19 Unternehmen, die den Richtlinien unterliegen, gehören Alphabets, Google Maps, Google Play, Google Search, Google Shopping und YouTube, Metas Facebook und Instagram, Amazons Marketplace, Apples App Store und Twitter. Des weiteren Microsofts LinkedIn und Bing sowie Booking.com, Pinterest, Snapchat, TikTok, Wikipedia, Zalando und Alibabas Aliexpress.
„Wir sind der Ansicht, dass diese 19 Online-Plattformen und Suchmaschinen systemrelevant geworden sind und eine besondere Verantwortung haben, das Internet sicherer zu machen“, sagte Breton Anfang des Jahres zu Journalisten und fügte hinzu, dass diese Unternehmen gegen sogenannte Desinformationen vorgehen müssten.
Breton sagte, er prüfe, ob vier oder fünf weitere Unternehmen unter den DSA fallen sollten – eine Entscheidung werde in den nächsten Wochen erwartet. Breton kritisierte vor allem das Moderationssystem von Facebook, das eine Rolle bei der Meinungsbildung zu wichtigen Themen spiele.
Richtlinien müssen eingehalten werden
„Jetzt, da Facebook als eine sehr große Online-Plattform eingestuft wurde, muss Meta das System sorgfältig untersuchen und es, wo nötig, so schnell wie möglich korrigieren“, sagte er und fügte hinzu: „Wir sind auch zu einem Stresstest mit TikTok entschlossen, das ebenfalls Interesse bekundet hat. Ich freue mich daher auf eine Einladung in die Zentrale von Bytedance, um den Ursprung von TikTok besser zu verstehen.“
Twitter hatte zuvor einem Stresstest zugestimmt, und Breton sagte, er und sein Team würden Ende Juni dieses Jahres zum Hauptsitz des Unternehmens in San Francisco reisen, um die freiwillige Übung durchzuführen. Breton machte keine näheren Angaben zum Inhalt des Tests.
Es gebe Richtlinien für von künstlicher Intelligenz generierte Inhalte wie gefälschte Videos und synthetische Bilder, die klar gekennzeichnet werden müssten, wenn sie in Suchergebnissen auftauchten, sagte Breton. Er fügte hinzu, dass Verstöße gegen den Digital Services Act mit hohen Geldstrafen von bis zu sechs Prozent des Jahresumsatzes eines Unternehmens geahndet werden könnten.
Die Plattformen werden ihre Systeme „komplett umgestalten“ müssen, um ein hohes Maß an Datenschutz und Sicherheit für Kinder zu gewährleisten, einschließlich der Überprüfung des Alters der Nutzer, so Breton.
Auch die großen Technologieunternehmen werden ihre Systeme überarbeiten müssen, um „die algorithmische Verstärkung von Desinformation zu verhindern“, so Breton, der sich vor den Wahlen in der Slowakei im September besonders besorgt über die Moderationssysteme von Facebook zeigte.
Der Mutterkonzern von Facebook hat seine Unterstützung für das neue EU-Gesetz über digitale Dienste erklärt. „Wir unternehmen wichtige Schritte, um die Verbreitung schädlicher Inhalte auf Facebook und Instagram in der EU zu bekämpfen“, sagte Meta vor einigen Wochen. „Während wir dies das ganze Jahr über tun, erkennen wir, dass es während Wahlen und Krisenzeiten wie dem anhaltenden Krieg in der Ukraine besonders wichtig ist.“
Kritik
Jacob Mchangama, ein dänischer Historiker, schlug Ende 2022 Alarm wegen des Digital Services Act und schrieb in einem Meinungsartikel, der Plan sei ein Fall, in dem das „Heilmittel schlimmer als die Krankheit“ sei.
„Aber wenn es um die Regulierung von Sprache geht, führen gute Absichten nicht unbedingt zu wünschenswerten Ergebnissen“, schrieb er in der „Los Angeles Times“. „In der Tat gibt es gute Gründe für die Annahme, dass das Gesetz ein Heilmittel ist, das schlimmer ist als die Krankheit und wahrscheinlich zu schweren Kollateralschäden für die freie Meinungsäußerung in der gesamten EU und überall dort führen wird, wo der Gesetzgeber versucht, es umzusetzen.“
Obwohl „das Entfernen illegaler Inhalte harmlos klingt“, schreibt er, „ist es das nicht“. Der Begriff „illegale Inhalte“ werde in Europa sehr unterschiedlich definiert. „In Frankreich wurden Demonstranten zu Geldstrafen verurteilt, weil sie Präsident Macron als Hitler dargestellt hatten. Illegale Hassreden können auch beleidigenden Humor umfassen, während Österreich und Finnland Blasphemie unter Strafe stellen.“
Eine E-Mail von The Epoch Times an Twitter mit der Bitte um eine Stellungnahme wurde automatisch mit Kack-Emoji beantwortet. Musk hatte Anfang des Jahres angekündigt, dass das Emoji automatisch verschickt werde, wenn Journalisten um einen Kommentar bitten würden.
Dieser Artikel erschien im Original auf theepochtimes.com unter dem Titel: „EU Issues Warning After Elon Musk Pulls Twitter Out of Anti-‘Disinformation’ Agreement“ (deutsche Bearbeitung jw)
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion