Gefährdung der Bundestagswahl durch Beeinflussung im Internet
Rund zweieinhalb Monate vor der geplanten Bundestagswahl gibt es laut der IT-Nachrichtenplattform „heise“ unter zahlreichen Wählern Sorgen, die Wahl könne durch KI-Desinformation und Cyberattacken beeinflusst werden. 82 Prozent der Grünen-Anhänger, drei Viertel aller SPD-, Unions- und Linken-Wähler und etwa die Hälfte aller AfD-Sympathisanten befürchten, „dass Beeinflussungsversuche unterschiedlichster Art im Vorfeld“ der Wahl gestartet werden könnten.
Die Bundestagswahl ist für den 23. Februar 2025 geplant. Formal muss Bundeskanzler Olaf Scholz (SPD) allerdings erst noch im Dezember die Vertrauensfrage im Bundestag stellen und verlieren.
Microsoft warnt vor Desinformation
Selbst der Hard- und Softwareentwickler Microsoft warnt: „Staatliche Akteure und bestimmte Interessengruppen versuchen im großen Stil, durch Desinformationskampagnen den Ausgang demokratischer Wahlen zu ihren Gunsten zu beeinflussen“, glaubt Ralf Wigand, zuständig für IT-Sicherheit bei „Microsoft Deutschland“.
Die Firma kennt sich leidvoll mit Sicherheitslücken aus. Im Januar 2023 kam es zu einem Cyberangriff auf die SPD-Parteizentrale durch eine Schwachstelle im Microsoft-Produkt Outlook für Windows. Die russische Hacker-Gruppe APT 28 soll die SPD mit manipulierten E-Mails ausspioniert haben, indem sie ein Botnet einsetzte.
Ein Botnet ist eine Gruppe automatisierter Schadprogramme, sogenannter Bots. Das ist die Abkürzung für Robot oder Roboter. Diese Bots nutzen vor allem vernetzte Rechner und deren Daten.
Grenzen für KI setzen?
Bei Wahlen in Deutschland könnten aus Sicht des KI-Forschers Gerard de Melo Desinformation und Beeinflussung in sozialen Medien mithilfe von Künstlicher Intelligenz (KI) zunehmen. Dies meldete die Deutsche Presse-Agentur (dpa) am 3. Dezember. „Die größte Sorge ist, dass Menschen völlig falsche und aus der Luft gegriffene Informationen und Bilder erhalten, die durch KI erzeugt sind“, stellte der Forscher am Hasso-Plattner-Institut (HPI) in Potsdam fest.
Und weiter: „Im Moment gibt es das Problem, dass TikTok und andere Plattformen einfach mehr Geld verdienen, wenn Leute länger an ihren Geräten hängenbleiben und immer extremeres Material zu Gesicht bekommen“, stellt der KI-Professor de Melo fest.
Hintergrund dieser Entwicklung könnten Chatbots sein, die sich aufgrund der KI-Systeme täuschend ähnlich wie Menschen ausdrücken können und für Einflussversuche genutzt würden. Aus Sicht de Melos wird künftig die Nutzung von KI-Technologien überwiegen. Dafür müssten jedoch „ethisch klare Grenzen gesetzt werden“.
Ob diese Entwicklung für die anstehende Bundestagswahl eine Gefahr darstelle, wollte de Melo nicht bestätigen. Der Wissenschaftler geht davon aus, dass es künftig mehr Überprüfungen und Mechanismen bedürfe, um sicherzustellen, „dass man es wirklich mit einem Menschen zu tun hat und um Bots zu entlarven“.
Bild, Ton, Video: Deepfakes
Das Bundesamt für Verfassungsschutz (BfV) warnte zur gleichen Zeit vor möglichen Einflussnahmen anderer Staaten. Mittels KI können aus Expertensicht in immer kürzerer Zeit sogenannte Deepfake-Videos erstellt und Stimmen „geklont“ werden.
In der EU-Verordnung 2024/1689 (KI-Verordnung) werden Deepfakes definiert als „ein durch KI erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähnelt und eine Person fälschlicherweise als echt oder wahrheitsgemäß erscheinen“ lässt.
WhatsApp und Meta greifen durch
Auch WhatsApp testet gerade eine „umgekehrte Bildersuche“, war bei der IT-Plattform „heise“ zu erfahren. Eine neue Betaversion erlaubt die Nachverfolgung von Google-Bildern direkt in WhatsApp. Nutzer können damit direkt in der App herausfinden, ob es sich bei einem Bild um Desinformation handelt. Sobald die Testphase beendet ist, will WhatsApp die neue Funktion über App-Stores von Apple oder Google für alle Nutzer bereitstellen.
Derzeit muss das Bild noch zunächst gespeichert und dann selbst zu einer Rückwärtssuche hochgeladen werden, um es auf diese Weise zu überprüfen. Gerade bei Wahlkämpfen tauchen immer wieder Bilder auf, mit der Absicht, bestimmte Parteien zu schädigen oder zu fördern.
Vor einigen Wochen hat der Internetkonzern „Meta Platforms, Inc.“, zu dem Facebook, Instagram und Threads, die Instant-Messaging-Apps WhatsApp und Messenger sowie die Virtual-Reality-Gerätemarke Meta Quest gehören, russische Staatsmedien aus ihren Netzwerken entfernt. Hintergrund: Der Meta-Konzern konnte zahlreiche Bildmanipulationen und Desinformationen von russischen Medien feststellen.
Tipp: Bevor zugeschickte Bilder mit anderen geteilt werden, sollten Anwender grundsätzlich nun schnell prüfen, ob es sich um Originale oder um Manipulationen handelt.
BSI: Technisch ist die Wahl nicht gefährdet
Auch das Bundesamt für Sicherheit in der Informationstechnologie (BSI) warnte Anfang Dezember vor Gruppen, die „illegitim versuchen, Einfluss zu nehmen“. Derzeit würden Webinare mit Parteien und prominenten Persönlichkeiten durchgeführt, um sie „in Selbstschutzmaßnahmen zu schulen“.
Das BSI verweist auf seiner Webseite zudem ausdrücklich auf eine mögliche Zunahme von Hoaxes (Falschmeldungen) im Vorfeld der Bundestagswahl. Auch diese seien eine Form der Desinformation. Hierzu werden zum Beispiel Kettenbriefe gezählt, die von vermeintlich verlässlichen Absendern stammen.
„In der Hoax-Mail steht in aller Regel die Aufforderung, sie an möglichst viele Empfänger weiterzuleiten. Nur so könne der Account auch künftig gratis angeboten werden“, teilt das BSI mit.
Rein technisch gesehen sei aufgrund der analogen Durchführung der Wahl in Papierform diese nicht gefährdet, betont das BSI.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion