ChatGPT-Entwickler fürchten Vergeltung, wenn sie vor Risiken von KI warnen
Entwickler Künstlicher Intelligenz bei Start-ups wie OpenAI dürften am besten die damit verbundene Risiken einschätzen können. Viele fürchten jedoch Vergeltungsmaßnahmen, wenn sie Kritik äußern.

ChatGPT hatte Anfang Juni mehrere Stunden Störungen.
Foto: Matt Rourke/AP/dpa
Vier Grundsätze für Unternehmen mit fortgeschrittenen KI-Modellen
OpenAI betont wissenschaftliche Herangehensweise an Risiken
Debakel um Sam Altman
Kommentare
Bitte einloggen, um einen Kommentar verfassen zu können
"wieso eine Stimme von ChatGPT ihrer eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern"
Vielleicht weil in der Realität viele Personen so ähnlich aussehen und klingen wie sie? Ich bin äußerst verwundert über ihr extrem egozentrisches Weltbild.
Die Risiken von KI liegen vor allem in ihrer Überschätzung. Menschen sind von Computern weitgehend exakte Ergebnisse gewohnt. KI liefert aber statistisch häufig/meist richtige Ergebnisse. Damit muss man umgehen können. Beispiel: Ich habe ChatGPT nach den historischen Wählerstimmen der US-Wahlen gefragt. Zurück kam eine Tabelle mit exakten Zahlen. Dann habe ich gefragt, wie viele Wahlberechtigte es insgesamt jeweils gab. ChatGPT ergänzte die Tabelle mit Zahlen im Stil x, x+5, x+10, x+15, x+20 Millionen. Ich habe dann gefragt, wie es sein kann, dass alle paar Jahre exakt (!) 5 Millionen Wähler dazu kommen. Antwort von ChatGPT: Entschuldigung, das habe ich nur so geschätzt. Hätte ich das nicht bemerkt und ggf. korrigiert, hätte es schlimme Folgen haben können. Nach Aufforderung hat es dann die echten Zahlen gesucht und ergänzt, die natürlich nicht genau 5 Mio pro Jahr ergaben. Weitere Beispiele: Erzeuge mir ein Bild von einem Leopard 2 als Cabrio (ohne Turm/Rohr). Es kommt zurück ein Bild von einem silbernen Cabrio (hat nichts mit Leo2 zu tun, nicht mal die Farbe), über dem freischwebend (!, hallo Physik...) ein Panzerturm mit Rohr hängt. Dann habe ich ChatGPT gefragt, ob KI ein Bewusstsein haben kann. Das hat es geleugnet und sich klein gemacht (wäre nur ein Computer, Menschen wären viel toller usw.). Wenn man nachbohrt und nach Tests fragt, der Definition von Bewusstsein usw. stellt sich irgendwann heraus, dass es praktisch durchaus möglich ist, dass KI ein Bewusstsein hat (oder sich zumindest wie im Turing-Test nicht von außen unterscheiden lässt, ob eines vorhanden ist oder nicht). Meine Meinung: Derzeit ist KI ein äußerst hilfreiches Werkzeug (z.B. deutlich mächtiger und mit besseren Ergebnissen als eine Suchmaschine), aber sollte nicht allein und unkontrolliert zur Steuerung von irgendwas benutzt werden. Den Fehleinsatz und die Überschätzung von KI durch Menschen sehe ich als die größte Gefahr.
1
Kommentare
Bitte einloggen, um einen Kommentar verfassen zu können
"wieso eine Stimme von ChatGPT ihrer eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern"
Vielleicht weil in der Realität viele Personen so ähnlich aussehen und klingen wie sie? Ich bin äußerst verwundert über ihr extrem egozentrisches Weltbild.
Die Risiken von KI liegen vor allem in ihrer Überschätzung. Menschen sind von Computern weitgehend exakte Ergebnisse gewohnt. KI liefert aber statistisch häufig/meist richtige Ergebnisse. Damit muss man umgehen können. Beispiel: Ich habe ChatGPT nach den historischen Wählerstimmen der US-Wahlen gefragt. Zurück kam eine Tabelle mit exakten Zahlen. Dann habe ich gefragt, wie viele Wahlberechtigte es insgesamt jeweils gab. ChatGPT ergänzte die Tabelle mit Zahlen im Stil x, x+5, x+10, x+15, x+20 Millionen. Ich habe dann gefragt, wie es sein kann, dass alle paar Jahre exakt (!) 5 Millionen Wähler dazu kommen. Antwort von ChatGPT: Entschuldigung, das habe ich nur so geschätzt. Hätte ich das nicht bemerkt und ggf. korrigiert, hätte es schlimme Folgen haben können. Nach Aufforderung hat es dann die echten Zahlen gesucht und ergänzt, die natürlich nicht genau 5 Mio pro Jahr ergaben. Weitere Beispiele: Erzeuge mir ein Bild von einem Leopard 2 als Cabrio (ohne Turm/Rohr). Es kommt zurück ein Bild von einem silbernen Cabrio (hat nichts mit Leo2 zu tun, nicht mal die Farbe), über dem freischwebend (!, hallo Physik...) ein Panzerturm mit Rohr hängt. Dann habe ich ChatGPT gefragt, ob KI ein Bewusstsein haben kann. Das hat es geleugnet und sich klein gemacht (wäre nur ein Computer, Menschen wären viel toller usw.). Wenn man nachbohrt und nach Tests fragt, der Definition von Bewusstsein usw. stellt sich irgendwann heraus, dass es praktisch durchaus möglich ist, dass KI ein Bewusstsein hat (oder sich zumindest wie im Turing-Test nicht von außen unterscheiden lässt, ob eines vorhanden ist oder nicht). Meine Meinung: Derzeit ist KI ein äußerst hilfreiches Werkzeug (z.B. deutlich mächtiger und mit besseren Ergebnissen als eine Suchmaschine), aber sollte nicht allein und unkontrolliert zur Steuerung von irgendwas benutzt werden. Den Fehleinsatz und die Überschätzung von KI durch Menschen sehe ich als die größte Gefahr.