Logo Epoch Times
Gefahr von autonomer Software

ChatGPT-Entwickler fürchten Vergeltung, wenn sie vor Risiken von KI warnen

Entwickler Künstlicher Intelligenz bei Start-ups wie OpenAI dürften am besten die damit verbundene Risiken einschätzen können. Viele fürchten jedoch Vergeltungsmaßnahmen, wenn sie Kritik äußern.

top-article-image

ChatGPT hatte Anfang Juni mehrere Stunden Störungen.

Foto: Matt Rourke/AP/dpa

author-image
Artikel teilen

Lesedauer: 4 Min.

Eine Gruppe von KI-Forschern unter anderem vom ChatGPT-Erfinder OpenAI fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen.
Der aktuelle Schutz für Whistleblower reiche nicht aus, betonten sie in einem Offenen Brief. Dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet – aber bei Künstlicher Intelligenz gebe es in vielen Fällen noch keine rechtlichen Vorgaben.
„Einige von uns fürchten zu Recht Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab.“ Ein Beispiel dafür: Der ehemalige OpenAI-Forscher Leopold Aschenbrenner sagte dem „Dwarkesh Podcast“, er sei gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über KI-Sicherheit besorgt gezeigt habe.

Vier Grundsätze für Unternehmen mit fortgeschrittenen KI-Modellen

Die Forscher riefen die Unternehmen mit fortgeschrittenen KI-Modellen auf, vier Grundsätzen zu folgen.
Dazu gehört, den Mitarbeitern keine negativen Äußerungen über ihre Arbeitgeber zu verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitern mit dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma „verunglimpfen“ sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie angewendet worden.
Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem Mitarbeiter anonym die Verwaltungsräte von Unternehmen sowie Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software informieren können. Diese müssten auch die Freiheit haben, an die Öffentlichkeit zu gehen, solange es keine internen Wege gebe.
Befürchtet wird, dass die rasante Entwicklung Künstlicher Intelligenz zu autonomer Software führen könne, die sich der Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung der Menschen reichen, heißt es oft.
Regierungen arbeiten auch deswegen daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich.

OpenAI betont wissenschaftliche Herangehensweise an Risiken

Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an eine „wissenschaftliche Herangehensweise an Risiken der Technologie“. Mitarbeitern stehe frei, auch anonym ihre Sorgen zu teilen. Zugleich dürften vertrauliche Informationen nicht öffentlich gemacht werden, die dadurch in die falschen Hände geraten könnten.
Vier aktuelle und zwei frühere Mitarbeiter von OpenAI schlossen sich dem Brief anonym an. Unter den sieben Unterzeichnern, die ihre Namen öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein früherer Mitarbeiter der Google-Tochter DeepMind.
Neel Nanda, der derzeit bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts untergekommen sei, wovor er warnen wolle.

Debakel um Sam Altman

OpenAI-Chef Sam Altman war im November vom Verwaltungsrat von OpenAI überraschend unter Verweis auf einen Vertrauensverlust herausgedrängt worden. Nur wenige Tage später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche Mitarbeiter und der Großaktionär Microsoft hinter ihn gestellt hatten.
Später sagte das damalige Verwaltungsratsmitglied Helen Toner zur Begründung für den Rauswurf unter anderem, das Gremium habe erst aus den Medien davon erfahren, dass ChatGPT veröffentlicht wurde. Der Schritt löste Sorgen aus, dass die Firma die Technologie ohne nötige Sicherheitsvorkehrungen für alle verfügbar gemacht haben könnte.
Zuletzt geriet OpenAI unter Druck, nachdem Schauspielerin Scarlett Johansson von der Firma wissen wollte, wieso eine Stimme von ChatGPT ihrer eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern. (dpa/red)

Kommentare

Bitte einloggen, um einen Kommentar verfassen zu können

Michael Kubertvor einem Jahr

"wieso eine Stimme von ChatGPT ihrer eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern"

Vielleicht weil in der Realität viele Personen so ähnlich aussehen und klingen wie sie? Ich bin äußerst verwundert über ihr extrem egozentrisches Weltbild.

Die Risiken von KI liegen vor allem in ihrer Überschätzung. Menschen sind von Computern weitgehend exakte Ergebnisse gewohnt. KI liefert aber statistisch häufig/meist richtige Ergebnisse. Damit muss man umgehen können. Beispiel: Ich habe ChatGPT nach den historischen Wählerstimmen der US-Wahlen gefragt. Zurück kam eine Tabelle mit exakten Zahlen. Dann habe ich gefragt, wie viele Wahlberechtigte es insgesamt jeweils gab. ChatGPT ergänzte die Tabelle mit Zahlen im Stil x, x+5, x+10, x+15, x+20 Millionen. Ich habe dann gefragt, wie es sein kann, dass alle paar Jahre exakt (!) 5 Millionen Wähler dazu kommen. Antwort von ChatGPT: Entschuldigung, das habe ich nur so geschätzt. Hätte ich das nicht bemerkt und ggf. korrigiert, hätte es schlimme Folgen haben können. Nach Aufforderung hat es dann die echten Zahlen gesucht und ergänzt, die natürlich nicht genau 5 Mio pro Jahr ergaben. Weitere Beispiele: Erzeuge mir ein Bild von einem Leopard 2 als Cabrio (ohne Turm/Rohr). Es kommt zurück ein Bild von einem silbernen Cabrio (hat nichts mit Leo2 zu tun, nicht mal die Farbe), über dem freischwebend (!, hallo Physik...) ein Panzerturm mit Rohr hängt. Dann habe ich ChatGPT gefragt, ob KI ein Bewusstsein haben kann. Das hat es geleugnet und sich klein gemacht (wäre nur ein Computer, Menschen wären viel toller usw.). Wenn man nachbohrt und nach Tests fragt, der Definition von Bewusstsein usw. stellt sich irgendwann heraus, dass es praktisch durchaus möglich ist, dass KI ein Bewusstsein hat (oder sich zumindest wie im Turing-Test nicht von außen unterscheiden lässt, ob eines vorhanden ist oder nicht). Meine Meinung: Derzeit ist KI ein äußerst hilfreiches Werkzeug (z.B. deutlich mächtiger und mit besseren Ergebnissen als eine Suchmaschine), aber sollte nicht allein und unkontrolliert zur Steuerung von irgendwas benutzt werden. Den Fehleinsatz und die Überschätzung von KI durch Menschen sehe ich als die größte Gefahr.