Microsoft: Nachrichten-KI verwechselt „die einzigen nicht-weißen Sängerinnen“ einer Band
Die (digitale) Tinte unter der Kündigung von insgesamt 77 Microsoft-Redakteuren ist noch nicht ganz trocken, schon gerät ihr Nachfolger – eine KI, die Nachrichten optimieren soll – in die Schlagzeilen anderer Medien.
Der neue, noch namenlose Robo-Redakteur soll die meistgelesenen Artikel von Microsofts Medienpartnern aufspüren und auf den eigenen Plattformen, darunter msn.com, Bing und Edge, verbreiten. Um die Reichweite weiter zu erhöhen, änderten bisher menschliche Redakteure mitunter Titelbild und Überschrift.
Diese Aufgaben soll nun die Künstliche Intelligenz übernehmen und, nachdem die Redakteure monatelang zu ihrer Verbesserung beigetragen haben, die Menschen ersetzen. Ausgerechnet bei einem Rassismus-Thema tappte die KI ins Fettnäpfchen. Die Fehlerchance lag 50:50.
Jade Thirlwall: Bei vier Bandmitgliedern kann die KI die zwei ‚women of color‘ nicht auseinanderhalten
Jade Thirlwall, Sängerin einer vierköpfigen britischen Band, berichtete im „Independent“ über ihre Erfahrung mit Rassismus. Thirlwalls Eltern stammen aus dem Jemen beziehungsweise Ägypten. Neben ihr auf der Bühne stehen Leigh-Anne Pinnock, Jessica Louise Nelson und Perrie Louise Edwards. Lediglich Pinnock ist ebenfalls ausländischer Abstammung.
Ausgerechnet bei Thirlwalls Rassismusbericht vergriff sich Microsofts Nachrichten-KI und tauschte das originale Titelbild aus. Statt Thirlwall war darauf jedoch ihre Bandkollegin Pinnock zu sehen.
Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern die zwei ‚women of color‘ nicht auseinanderhalten könnt. WERDET BESSER!“, kritisierte Thirlwall auf Instagram.
Keine negativen Berichte auf Microsoft News
Nach der Kritik der Sängerin fragte sich der „Guardian“, ob „offensichtliche rassistische Vorurteile [der] künstlichen Intelligenz“ auch in anderen Anwendungen (Chatbot Tay) zu erwarten wären.
Auf die Frage, ob Microsoft seine Pläne hinsichtlich der Nachrichten-KI überdenken werde, antworte ein Sprecher lediglich: „Sobald wir auf dieses Problem aufmerksam wurden, haben wir sofort Maßnahmen ergriffen, um es zu lösen, und haben das falsche Bild ersetzt.“
Darüber hinaus initiiert Microsoft weitere Maßnahmen. In Erwartung eines negativen Artikels im „Guardian“ über „angebliche rassistische Voreingenommenheit in der Software für künstliche Intelligenz“ sollen die verbleibenden Redakteure, die Augen offen halten und „diesen löschen, wenn die KI ihn veröffentlicht.“
Sie wurden auch gewarnt, dass der Robo-Redakteur nach dem Löschen versuchen könnte, den Bericht erneut zu veröffentlichen. Dann sollen sie ihn erneut löschen.
Bereits 2016 erhitzte eine Microsoft-KI, ein Chatbot namens Tay, die Gemüter, als er rassistische Nachrichten versandte.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion