„Meinem letzten Erkenntnisstand nach …“ – KI schreibt unerlaubt in Fachstudien mit

Ein polnischer Forscher zeigt, dass ChatGPT unerlaubt an Beiträgen in Fachzeitschriften mitschreibt, ohne dass Autoren dies angeben. Die Folgen sind dabei weitreichender, als es für die Wissenschaft gut ist.
Autor unbekannt? Forscher entlarvt Fachstudien, in denen ChatGPT mitschrieb.
Jeder hat Lieblingswörter oder -phrasen, die er in seinen Texten häufig verwendet – so auch ChatGPT.Foto: NanoStockk/iStock
Von 21. März 2025

Satzteile wie „Meinem letzten Erkenntnisstand nach …“, „Als KI-Sprachmodell …“ und „Ich habe keinen Zugang zu Daten …“ sind nur einige Beispiele für die typischen Antworten, die von ChatGPT erzeugt werden. Doch das sind längst nicht alle.

In seiner aktuellen Studie listete Dr. hab. Artur Strzelecki von der Universität für Wirtschaft im polnischen Katowice, zu Deutsch Kattowitz, weitere dieser Standardphrasen auf. Gesucht hat der Informatikspezialist unter anderem in Studien, die bei großen wissenschaftlichen Zeitschriften eingereicht, geprüft und akzeptiert wurden.

Doch genau da gibt es einen Haken: Denn große Verlage erlauben die Verwendung der Sprach-KI für gewöhnlich nur zu bestimmten Zwecken und wenn dies explizit angegeben ist. Allerdings scheinen sich nicht alle Forscher daran zu halten und Fachzeitschriften die von ChatGPT mitverfassten Beiträge trotz Prüfung abzudrucken.

Gefährlich beliebt?

Seit die bekannte Software ChatGPT Ende 2022 online ging, erlangte die Sprach-KI weltweit große Beliebtheit. Egal ob Schüler oder Forscher, das Modell hilft kreativ und schnell beim Schreiben von Texten oder Analysieren großer Datenmengen.

Dabei ist die Sprach-KI nachweislich anfällig für Ungenauigkeiten und hat eine Tendenz, irreführende oder gar falsche Antworten zu liefern. Außerdem können die Informationen von ChatGPT und anderen Sprachmodellen bereits veraltet sein, ohne dass dies Nutzern bewusst ist. Deswegen warnen Forscher wie Dr. Artur Strzelecki, dass die Software mitunter keine echten Informationen liefert.

„Obwohl es möglich ist, vom Modell real existierende Zitate zu fordern, beschränkt es seine Antworten in der Regel auf Quellen, die Tausende oder Hunderte Zitate aufweisen und oft als gültig anerkannt werden. Wenn jedoch ein Thema detailliertere Kenntnisse oder einen spezifischen Ansatz erfordert, ist das Tool nicht in der Lage, echte Quellen zu liefern“, erklärt Strzelecki in seiner Studie.

Wann ist ChatGPT erlaubt?

Das Unternehmen OpenAI, zu dem ChatGPT gehört, erlaubt grundsätzlich die Verwendung und Veröffentlichung seiner generierten Texte, wenn ausdrücklich der Name der Software oder der Firma erwähnt wird. In der Vergangenheit kam es deshalb mehrfach dazu, dass ChatGPT als Mitautor in Fachbeiträgen genannt wurde.

Redakteure angesehener wissenschaftlicher Zeitschriften wie „Science“ reagierten darauf und erklärten, dass ChatGPT nicht die Kriterien für eine Autorenschaft erfülle. In den anschließenden Diskussionen einigten sich die großen wissenschaftlichen Verlage jedoch darauf, die Verwendung des Tools ausschließlich zur sprachlichen Korrektur zuzulassen.

Voraussetzung für die Verwendung ist jedoch, dass die Autoren der Studie eine solche Sprachkorrektur im Beitrag angeben. Außerdem sind die Autoren dazu verpflichtet, die volle Verantwortung für die übersetzten oder korrigierten Texte zu übernehmen. Große Verlage wie Elsevier oder Springer wenden diese Politik inzwischen an. Diese Verlage erlauben jedoch nicht, dass ganze von einer Sprach-KI generierte Inhalte in wissenschaftlichen Artikeln erscheinen.

Leser sehen mehr als Gutachter

Dennoch ist zunehmend festzustellen, dass selbst in hochwertigen Zeitschriften von ChatGPT generierte Inhalte auftauchen. Eines der frühesten Beispiele ist ein Artikel, der in der Zeitschrift „Resources Policy“ erschien.

Doch dies entdeckten nicht etwa die Gutachter oder Herausgeber der Studie, sondern aufmerksame Leser. Die Autoren der Studie reichten schließlich eine Korrektur bei der Fachzeitschrift ein. Darin erklärten sie, dass der Fehler unbeabsichtigt war und aus einer sprachlichen Korrektur resultierte.

Auf ähnliche Weise wurden in anderen geprüften Beiträgen kürzlich ebenfalls von ChatGPT generierte Textteile entdeckt, die in den Fachzeitschriften „Surfaces and Interfaces“ und „Radiology Case Reports“ erschienen. Beide Veröffentlichungen wurden inzwischen zurückgezogen oder entfernt. Aber was entlarvt Texte mit generierten Inhalten?

Die Handschrift von ChatGPT

Dr. Strzelecki begann seine Suche nach KI-Inhalten in Studien und Fachbeiträgen mit der am häufigsten von ChatGPT generierten Phrase „Meinem letzten Erkenntnisstand nach …“. Diese zeigt laut Dr. Strzelecki an, dass Informationen bis zu einem gewissen Zeitpunkt abgerufen wurden. Ausgehend davon wendete Strzelecki die sogenannte Schneeballmethode an.

„Schneeballmethode bedeutet in diesem Fall, dass, wenn eine Arbeit bereits bekannte von ChatGPT generierte Teile enthält, es noch weitere Textfragmente von ChatGPT geben kann. Diese können dann für die Suche nach weiteren Phrasen verwendet werden“, erklärt Strzelecki.

Eine weitere häufig vorkommende Phrase sei demnach „Ich habe keinen Zugang zu“. Auch diese Zeichenfolge nutzte Strzelecki, um weitere sprachliche Gewohnheiten von ChatGPT zu finden, ebenso wie „Sicherlich, hier ist“ oder „Antwort neu generieren“.

Diese Satzteile tauchen meist ohne einen begründeten Zusammenhang in Fachbeiträgen auf und sind Überreste von Befehlen, die ein Nutzer ChatGPT gegeben hat. „Antwort neu generieren“ ist eine Ein-Klick-Aufforderung, um bereits gelieferte Texte umformulieren zu lassen.

Der nächste Schritt war, ChatGPT selbst nach seinen Lieblingsphrasen zu fragen. „Die Aufforderung lautete: ‚Was sind deine typischen Antworten, um zu erkennen, dass der Inhalt von dir stammt? Kannst du eine Liste mit Beispielen typischer Antworten vorlegen?‘ Als Antwort gab das Modell, dass es bestrebt ist, seine Ergebnisse abwechslungsreich zu gestalten und eine Vielzahl von Ausdrücken wiederzugeben. Dennoch schlug ChatGPT einige immer wiederkehrende Satzteile vor“, erklärt Strzelecki.

Diese Frage ergab zunächst nur einen der bereits identifizierten Satzteile, nämlich „Meinem letzten Erkenntnisstand nach …“. Daher bat Strzelecki die Software, ähnliche Formulierungen zu den bereits bekannten Phrasen wie „Ich habe keinen Zugang zu …“ oder „Als KI-Sprachmodell“ zu liefern. Als Antwort schlug ChatGPT mehrere Formulierungen vor, die Strzelecki tatsächlich in veröffentlichten wissenschaftlichen Artikeln wiederfand.

Viele Bereiche und große Verlage betroffen

Strzelecki suchte daraufhin in Google Scholar, einer Suchmaschine für wissenschaftliche Beiträge, nach Studien, die die verräterischen Satzteile enthielten. Als Untersuchungszeitraum wählte der Informatikspezialist November 2022 – Einführung von ChatGPT – bis September 2024.

Die Suche ergab 1.362 wissenschaftliche Beiträge, teils geprüfte und gedruckte sowie auch ungeprüfte, deren Inhalt teilweise durch ChatGPT erzeugt wurde. Der Großteil der Beiträge gehört zu denen, die ungeprüft sind und nicht in wissenschaftliche Qualitätsdatenbanken aufgenommen wurden. Ein kleinerer Teil der Beiträge erschien jedoch auch in großen und renommierten Wissenschaftsverlagen.

Während Forscher in einigen Beiträgen offen angaben, ChatGPT zu verwenden, gab es auch jene, die dies nicht taten. In einigen Fällen wurden die Artikel nach der Veröffentlichung geändert. Drei Beiträge wurden zurückgezogen und einer korrigiert. Außerdem gibt es einen Fall, bei dem der Verlag ankündigte, den betroffenen Beitrag auf den möglichen Einsatz von KI zu prüfen.

In renommierte Fachzeitschriften schafften es immerhin 89 Artikel, bei denen ChatGPT unerwähnt mitschrieb. 19 Beiträge konnte Dr. Strzelecki dem Bereich Medizin zuordnen, 17 Artikel dem Bereich Informatik, 16 dem Bereich Ingenieurwissenschaften, zehn Beiträge den Umweltwissenschaften, je sieben Artikel den Bereichen Soziologie, Pädagogik und Management und sechs Artikel dem Bereich Wirtschaftswissenschaften.

ChatGPT nährt Zweifel an der Wissenschaft

Doch wie ist die Zahl der KI-generierten Texte zu bewerten? Laut Strzelecki wurden im Jahr 2023 exakt 2.511.962 wissenschaftliche geprüfte Beiträge in renommierten Zeitschriften veröffentlicht. Vergleicht man dies mit den 89 Artikeln, in denen ChatGPT unerkannt mitschrieb, machen die problematischen Veröffentlichungen 0,0035 Prozent aus, wie Strzelecki gegenüber Epoch Times bestätigte. Das entspricht laut dem Informatikspezialisten weniger als eine Standardabweichung.

„Aus statistischer Sicht handelt es sich also um einen geringen, unbedeutenden Anteil. Dennoch kann sich selbst ein kleiner Prozentsatz von Arbeiten mit KI-generierten Inhalten negativ auswirken, vor allem im Hinblick auf das Vertrauen in wissenschaftliche Veröffentlichungen“, erklärt Strzelecki in seiner Studie.

„Wenn es nur darum ginge, die Rechtschreibung und Grammatik zu verbessern und zu korrigieren, dieses Tool zu benutzen und zu erklären, dass dieses Tool zu diesem Zweck benutzt wurde, dann wäre alles im Einklang mit der aktuellen Politik der Verlage“, so Strzelecki weiter.

Der Informatiker betont jedoch, dass es in keiner der Veröffentlichungen eine Information darüber gibt, dass die Forscher die Sprach-KI beispielsweise zur sprachlichen Korrektur verwendeten. Weiterhin gibt Strzelecki zu bedenken, dass auch KI-generierte Inhalte in Publikationen erscheinen können, ohne auffällige Spuren zu hinterlassen.

Außerdem gibt Strzelecki zu bedenken, „dass ChatGPT zu Halluzinationen neigt und Aktionen ausführen kann, die nicht angefordert wurden. Zum Beispiel kann ChatGPT bei der Korrektur eines großen Absatzes am Ende etwas einfügen, das möglicherweise unbemerkt bleibt.“

Vom Schneeball zur Lawine?

Außerdem bestehe die Gefahr, dass mögliche Fehlinformationen unerkannt weiterverbreitet werden, wenn die betroffenen Studien von anderen Forschern zitiert werden. So können sich Kleinigkeiten in große Probleme verwandeln.

„Wenn sich andere darauf verlassen, dass die Informationen in den Beiträgen richtig sind, weil sie von Experten begutachtet werden, in renommierten Zeitschriften erscheinen, viel zitiert sind und der Herausgeber seriös ist, dann können sich möglicherweise falsche Informationen weit verbreiten“, erklärt Strzelecki.

Mit seiner Studie möchte Dr. Artur Strzelecki diesem potenziellen Gefahrenpunkt mehr Aufmerksamkeit geben und daran appellieren, mehr Sorgsamkeit anzuwenden. Wenn also KI-generierte Texte erstellt würden, sollten Benutzer diese genau überprüfen und ehrlich angeben, wenn sie das fehlerbehaftete moderne Hilfsmittel verwendet haben.

Die Studie erschien im Januar 2025 im Fachmagazin „Learned Publishing“.



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion