Künstliche Intelligenz: Stephen Hawking und andere Experten besorgt über Supercomputer
Hat die Menschheit ihre Forschungen noch im Griff? Offenbar befinden wir uns an einem Punkt, an dem was getan werden muss, denn immer mehr Top-Wissenschaftler warnen vor den Gefahren Künstlicher Intelligenz, englisch abgekürzt „AI“. Darunter fallen sämtliche Softwares und Computer, die im Bestreben programmiert werden, menschliche Intelligenz nachzuahmen und sich automatisiert intelligent verhalten zu können.
Tesla-Chef Musk machte den Anfang
Unter den Besorgten waren in letzter Zeit so prominente Leute wie Stephen Hawking, Tesla-Chef Elon Musk und Microsoft-Gründer Bill Gates „Ich bin einer derjenigen, die über Superintelligenz besorgt sind“, hatte Gates neulich bei einer Fragerunde im Internet geantwortet und seinem Kollegen Elon Musk explizit Recht gegeben, der im November gewarnt hätte, dass es schon in fünf Jahren, spätestens in zehn, ein echtes Problem mit schädlicher AI geben könnte, die sich verselbstständigt hat. Musks Statement, das als Kommentar auf Edge.com erschienen war, wurde kurz nach dem Erscheinen gelöscht aber im Screenshot dokumentiert und erregte großes Aufsehen auf Reddit.
„In fünf, spätestens zehn Jahren haben wir ein Problem“
Hier der Wortlaut:
Das Tempo, in dem die künstliche Intelligenz Fortschritte macht (ich beziehe mich hier nicht auf den engeren Begriff von AI) ist unglaublich schnell. Sofern ihr nicht direkt mit Gruppen wie Deepmind zu tun habt, habt ihr keine Ahnung, wie schnell es ist – das Wachstum erfolgt in nahezu exponentiellen Schritten. Das Risiko, dass etwas ernsthaft Gefährliches passiert, liegt innerhalb eines Zeitrahmens von fünf Jahren. Zehn Jahren höchstenfalls. Ich schlage hier nicht Alarm bezüglich einer Sache, von der ich keine Ahnung habe.“
„Ich bin nicht als einziger der Ansicht, dass wir besorgt sein sollten. Die führenden AI Unternehmen haben große Fortschritte gemacht, um Sicherheit zu garantieren. Sie wissen um die Gefahr, glauben aber, dass sie die digitalen Superintelligenzen formen und kontrollieren können und verhindern können, dass die schlechten ins Internet ausbüchsen. Das bleibt abzuwarten…“ – Elon Musk
Was Bill Gates dazu sagte …
Am 21. Januar gab Bill Gates auf Reddit seine dritte AMA-Fragerunde. „AMA“ steht für „Ask Me Anything“, die User konnten den Ex-Chef von Microsoft also alle möglichen Fragen stellen und darunter war auch diese: „Sehen Sie in maschineller Superintelligenz eine existenzielle Bedrohung“. Und Bill Gates stimmte zu:
Ich bin einer derjenigen, die besorgt sind über Superintelligenz. Zunächst werden uns die Maschinen viele Jobs abnehmen und nicht superintelligent sein. Das sollte etwas Positives sein, wenn wir es gut kontrollieren. Aber ein paar Jahrzehnte später wird die Intelligenz so stark sein, dass es besorgniserregend ist. Ich stimme da Elon Musk und anderen zu und verstehe nicht, warum manche Leute nicht besorgt sind.“
(Bill Gates)
Die Website Turn-On berichtete.
Stephen Hawkings: „Supercomputer könnten Menschheit auslöschen“
Auch das britische Genie Stephen Hawking warnte im Dezember in einem Bericht der BBC vor den Gefahren künstlicher Intelligenz.
„Die Entwicklung einer vollständigen künstlichen Intelligenz könnte das Ende der Menschheit bedeuten“, so der Wissenschaftler, der wegen seiner Körperbehinderung selbst auf die Hilfe bestimmter Software-Programme angewiesen ist. Aktuell wären die primitiven Formen von AI sehr nützlich, so Hawking, speziell auch für beeinträchtigte Menschen. Sobald es eine AI gebe, die genauso klug oder klüger als der Mensch sei, werde es aber richtig gefährlich. „Sie würde von selbst abheben und sich selbst ständig neu erfinden – in immer schnelleren Zyklen“, so der Astrophysiker.
Menschen würden da nicht mehr mithalten können, weil sie durch langsam ablaufende, biologische Evolutionsprozesse beschränkt seien, so Hawkings. Er geht davon aus, dass Maschinen den Menschen schließlich verdrängen würden.
Wissenschaftler fordern: „AI muss tun, was WIR wollen“
Dass Computer sich eines Tages komplett verselbstständigen könnten, ist auch die Hauptsorge des Future of Life Institutes, einer Forschervereinigung, die sich damit beschäftigt „existentielle Gefahren für die Menschheit zu verringern“. Sie veröffentlichte Anfang des Jahres einen offenen Brief, der mittlerweile von vielen renommierten Leuten unterschrieben wurde, darunter Professoren des MIT und Harvard sowie Google-, IBM- und Microsoft-Forschern.
Es sei jetzt ein wichtiger und richtiger Zeitpunkt, um für die zukünftige Sicherheit und Nützlichkeit von AI zu forschen, hieß es im Brief: „Wir empfehlen erweiterte Forschungen, um sicherzustellen, dass immer fähigere AI-Systeme stabil und wohltätig sind: Unsere AI-Systeme müssen das tun, was wir wollen.“
(rf)
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion