Menschenähnliche KI im Vormarsch: OpenAI-Forscher warnt vor Spionage durch Peking

Ein KI-Forscher warnt vor den fehlenden Sicherheitsvorkehrungen bei der KI-Entwicklung in den USA. Er geht davon aus, dass China alles daransetzen wird, um die Technologie zu stehlen. Darin sieht er eine Gefahr für die freie Welt.
ChatGPT
Ein ehemaliger OpenAI-Forscher warnt vor einer möglichen menschenähnlichen KI bis 2027 und hebt die Gefahren chinesischer Spionage hervor. Symbolbild.Foto: KIRILL KUDRYAVTSEV/AFP via Getty Images
Von 13. Juni 2024

An dieser Stelle wird ein Podcast von Podcaster angezeigt. Bitte akzeptieren Sie mit einem Klick auf den folgenden Button die Marketing-Cookies, um den Podcast anzuhören.

Ein Ex-OpenAI-Forscher geht davon aus, dass bis zum Jahr 2027 eine menschenähnliche künstliche Intelligenz (AGI) entwickelt werden könnte und warnt diesbezüglich vor chinesischer Spionage. Seiner Ansicht nach stehe die freie Welt, wie wir sie bisher kennen, auf dem Spiel.

„Wenn die KPC [Kommunistische Partei Chinas] AGI entdeckt, sollten wir damit rechnen, dass sich die KPC besonders anstrengen wird, um Schritt zu halten. Und ich denke, dass es für China einen ziemlich klaren Weg gibt, um im Spiel zu bleiben: die USA auszustechen und die Algorithmen zu stehlen“, schreibt Leopold Aschenbrenner.

Aschenbrenner warf ein, dass die KPC ohne strenge Sicherheitsvorkehrungen in den nächsten Jahren „wichtige AGI-Durchbrüche“ infiltrieren wird. China würde den fehlenden Schutz von Algorithmengeheimnissen ausnutzen. „Man kann gar nicht genug betonen, wie schlecht die Sicherheit algorithmischer Geheimnisse derzeit ist“, so Aschenbrenner.

Reaktionen

Aschenbrenner erklärte außerdem, dass AGI selbst durch Automatisierung der KI-Forschung in etwas mehr als einem halben Jahrzehnt eine Superintelligenz hervorbringen könnte.

Mit seinem Aufsatz „Situational Awareness: The Decade Ahead“ (Das kommende Jahrzehnt) hat der Forscher eine Reihe von Reaktionen in der Welt der Technik hervorgerufen.

Der Informatiker Scott Aaronson beschrieb die Arbeit als „eines der außergewöhnlichsten Dokumente, die ich je gelesen habe“. Während der Software-Ingenieur Grady Booch auf X schrieb, dass viele Elemente darin „zutiefst, peinlich und unfassbar falsch“ seien.

„Es ist längst an der Zeit, dass wir das Feld regulieren“, lobte Jason Lowe-Green von der gemeinnützigen Organisation Center for AI Policy in einem Meinungsartikel Aschenbrenners Veröffentlichung.

Auf X reagierte Jason Colbourn von der NGO Campaign for AI Safety (Kampagne für KI-Sicherheit) auf den KI-Wettlauf zwischen den USA und China mit der Forderung nach einem „globalen Nichtverbreitungsvertrag, beginnend mit einem bilateralen Vertrag zwischen den USA und der KPC“.

In den letzten Wochen warnten KI-Forscher von Google und DeepMind in einem Brief davor, dass die KI-Technologie „ernsthafte Risiken“ birgt, bis hin zur Möglichkeit der „Auslöschung des Menschen“.

Diskussion über KI-Regulierung

Aschenbrenners „Situational Awareness“ kommt zu einem Zeitpunkt, an dem Politiker in den Vereinigten Staaten und auf der ganzen Welt über die Regulierung von KI nachdenken.

Im März 2023 verabschiedete das Europäische Parlament ein weitreichendes Gesetz über künstliche Intelligenz, mehrere Monate nachdem die Mitgliedstaaten eine Einigung über den Vorschlag erzielt hatten.

Das parteiübergreifende ENFORCE-Gesetz, das kürzlich in den US-Kongress eingebracht wurde, würde es dem US-Handelsministerium ermöglichen, Ausfuhrkontrollen für KI-Technologien durchzuführen.

Die aktuelle Gesetzeslage in den USA könne die Kommunistische Partei Chinas, ihr Militär und die von ihnen direkt kontrollierten Unternehmen nicht am Erwerb von KI-Systemen hindern, die künftige Cyberangriffe auf die Vereinigten Staaten unterstützen könnten.

Aschenbrenner sagt, dass die Personalabteilung von OpenAI seine Warnungen vor der KPC als „rassistisch“ bezeichnet hat. Der Forscher veröffentlichte „Situational Awareness“ einige Monate nach seinem umstrittenen Weggang von OpenAI.

„The Information“ berichtete im April, dass Aschenbrenner und ein weiterer OpenAI-Mitarbeiter entlassen wurden, nachdem sie „angeblich Informationen weitergegeben hatten“.

In einem Interview mit Dwarkesh Patel am 4. Juni antwortete Aschenbrenner auf eine Frage zu diesem Artikel. Er sagte, dass es sich bei dem angeblichen „Leck“ um die Zeitleiste zu AGI in einem Sicherheitsdokument handelte, das er an drei Forscher weitergegeben hatte, die nichts mit OpenAI zu tun hatten.

„Um den Kontext zu verdeutlichen, war es bei OpenAI zu der Zeit völlig normal, Sicherheitsideen mit externen Forschern zu teilen, um Feedback zu erhalten“, sagte er.

Aschenbrenner hingegen verbindet seine Kündigung mit den Bedenken, die er über den Diebstahl von geistigem Eigentum in China geäußert hat.

Er erzählte Patel, dass er von der Personalabteilung von OpenAI formell gemaßregelt wurde, nachdem er ein Sicherheitsmemo verfasst hatte, in dem er die Bedrohung durch Peking erwähnte und dieses mit dem Vorstand von OpenAI teilte.

„Die Personalerin sagte mir, es sei rassistisch, sich über KPC-Spionage Sorgen zu machen“, sagte er. Patel fügte hinzu, dass ihm später mitgeteilt wurde, wegen des Memos direkt gefeuert und nicht nur verwarnt worden zu sein.

Die Epoch Times hat OpenAI um eine Stellungnahme zu den Anschuldigungen von Aschenbrenner gebeten. Bis zum Zeitpunkt der Veröffentlichung dieses Artikels gab es kein Statement.

Zwei Co-Leiter des Superalignment-Teams, in dem Aschenbrenner tätig war, Ilya Sutskever und Jan Leike, verließen OpenAI Mitte Mai.

„In den vergangenen Jahren sind Sicherheitskultur und -prozesse gegenüber glänzenden Produkten in den Hintergrund getreten“, schrieb Leike auf X. „Es ist längst überfällig, dass wir uns mit den Auswirkungen der AGI ernsthaft auseinandersetzen. Wir müssen uns vorrangig darauf vorbereiten, so gut wir können“, fügte er hinzu.

Aschenbrenner, ein in Deutschland geborener Forscher, der im Alter von 19 Jahren seinen Abschluss an der Columbia University machte, widmete seine „Situational Awareness“-Aufsatzserie Sutskever, einem in Russland geborenen israelisch-kanadischen Computerwissenschaftler.

Dieser Artikel erschien im Original auf theepochtimes.com unter dem Titel „Fired OpenAI Researcher Warns of Urgent CCP Espionage Threat. (deutsche Bearbeitung sb)



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion