Tödliche Intelligenz: KI im Schatten der Kriegsführung

Vom Kampfroboter „Fury“ bis zum flammenwerfenden Roboterhund: KI-basierte Waffensysteme prägen immer mehr die Schlachtfelder der Gegenwart. Wie gefährlich ist der Einsatz von Künstlicher Intelligenz für die Gesellschaft und in geopolitischen Konflikten? Und was bedeutet es, wenn Algorithmen zur treibenden Kraft militärischer Entscheidungen werden?
Titelbild
KI revolutioniert auch den Krieg.Foto: PhonlamaiPhoto/iStock
Von 4. Januar 2025

Künstliche Intelligenz (KI) hat in den vergangenen Jahren tiefgreifende Auswirkungen auf viele Aspekte unseres Lebens, und das nicht erst, seitdem ChatGPT zum allgemeinen Gebrauch freigeschaltet wurde. Befürworter der Errungenschaften von KI schwärmen von gestiegener Effizienz durch die Automatisierung industrieller Abläufe und davon, dass Blinde wieder sehen und Querschnittsgelähmte bald wieder laufen können. Außerdem können Geschäftsprozesse optimiert und per Knopfdruck kontrolliert werden.

KI für effektiveren Krieg

Auch im Krieg und in Krisengebieten wird KI eingesetzt, ebenso im unsichtbaren Cyberkrieg. Zu KI-gesteuerten Kamikazedrohnen, die Deutschland demnächst an die Ukraine liefert, schreibt die NZZ:

Es ist der nächste Schritt einer militärischen Revolution in Europa.“

Die Bundesregierung finanziert 4.000 dieser bewaffneten Fluggeräte des Typs HF-1 für die Ukraine, bestätigte sie im November. Hergestellt werden sie von der deutschen KI-Firma Helsing aus München. Auf der Website der Firma heißt es:

„Wir glauben, dass Software und insbesondere Künstliche Intelligenz eine Schlüsselrolle für den Schutz unserer Demokratien spielen wird.“

Eine militärische KI steuert die neue 1 Meter lange und 4,6 Kilogramm schwere Drohne, die im Krieg Militärfahrzeuge, Gefechtsstände und Stellungssysteme bekämpfen soll. Die KI bereitet Einsätze vor und empfiehlt dem Drohnenpiloten bestimmte Handlungen. Die endgültige Entscheidung trifft der Pilot.

Kein Konsens über autonome Waffensysteme

Doch es besteht auch die Möglichkeit, mittels KI Ziele ohne direkte menschliche Steuerung anzugreifen. Dies wirft ethische und rechtliche Fragen auf, insbesondere hinsichtlich der Kontrolle über tödliche Entscheidungen.

Noch bei der Eröffnung der Generalversammlung der Vereinten Nationen (UN) im September 2018 rief der damalige deutsche Außenminister Heiko Maas die Staatengemeinschaft auf, „vollautonome Waffen zu verbieten – bevor es zu spät ist!“ Das verstoße gegen ethische Standards. Die menschliche Würde stehe auf dem Spiel, wenn Maschinen über Leben und Tod von Menschen entscheiden.

Auch Papst Franziskus warnte kürzlich vor dem militärischen Einsatz Künstlicher Intelligenz im Krieg und forderte ein Verbot „tödlicher autonomer Waffen“. Auf dem G7-Gipfel im Juni erklärte er:

Keine Maschine sollte sich jemals dafür entscheiden, einem Menschen das Leben zu nehmen.“

Seit 2014 treffen sich mehr als 90 Länder zweimal pro Jahr in Genf, um die Bedenken bezüglich Killerrobotern zu diskutieren. Die meisten Teilnehmer wollen einen Vertrag mit Verboten und Einschränkungen aushandeln. Russland und die Vereinigten Staaten nannten 2019 einen solchen Schritt aber „verfrüht“.

In den nachfolgenden Jahren konnten sich die Vereinten Nationen nicht auf Beschränkungen oder ein Verbot von Entwicklung und Einsatz sogenannter Killerroboter, auch LAWS (Lethal Autonomous Weapon Systems) genannt, einigen.

Für die erste UN-Resolution zu letalen autonomen Waffensystemen (Resolution 78/241)  am 22. Dezember 2023 stimmten dann 152 Länder, darunter auch Deutschland. Mit Weißrussland, Indien, Mali und der Russischen Föderation stimmten vier Länder dagegen, acht weitere Staaten enthielten sich der Stimme.

In der Resolution wurden „die großen Herausforderungen und ernsthaften Bedenken“ anerkannt, die „neue technologische Anwendungen im militärischen Bereich, einschließlich solcher im Zusammenhang mit Künstlicher Intelligenz und der Autonomie von Waffensystemen“, aufwerfen. Epoch Times berichtete.

Doch Resolutionen der UN-Generalversammlung sind politische Empfehlungen und als solche völkerrechtlich nicht bindend, ebenso wie die von anderen UN-Organen. Der Sicherheitsrat ist das einzige UN-Gremium, dessen Resolutionen völkerrechtlich bindend sind.

Diese tödlichen autonomen Waffensysteme, LAWS, können Ziele ohne menschliches Zutun suchen, auswählen und vernichtend angreifen. Ihre Entscheidungen basieren auf Software für Künstliche Intelligenz, bei der es sich im Wesentlichen um Reihen von programmierten, aber am Ende auch lernenden Algorithmen handelt. Im Unterschied zu ferngesteuerten Waffen bewältigen sie die letzte Phase des Angriffs eigenständig.

LAWS können etwa Drohnen, U-Boote, Roboterfahrzeuge oder auch Roboterhunde sein.

Panzerroboter Fury

Fury, zu Deutsch „wütend“, ist einer der ersten bewaffneten Bodenroboter der Welt, der in der Ukraine im Einsatz ist. Im September 2024 soll Fury laut Militärs erstmals ein Gefecht für sich entschieden haben.

„Furys First Fight“. Foto: Screenshot Youtube Kanal GMC

Das einkaufswagengroße Gefährt attackierte einen russischen Schützengraben und „besiegte die dort versteckten russischen Soldaten“, berichtete „Der Standard“ unter dem Titel „Krieg der Zukunft – Bodenroboter der Ukraine feiert ersten Sieg in Gefecht“. Der dick gepanzerte Fury hat ein Funkgerät für den Empfang von Befehlen des Einsatzleiters, Videokameras, ein ferngesteuertes Maschinengewehr und vier Räder.

Personalmangel an der Front

Der „Focus“ schreibt zum Einsatz von Roboterhunden in der Ukraine: „Nach fast zweieinhalb Jahren Krieg hat die ukrainische Armee Schwierigkeiten, neue Soldaten zu rekrutieren. Die futuristischen Vierbeiner könnten wichtige Aufgaben an der Front übernehmen.“

Die zwei Hunderobotermodelle mit den aussagekräftigen Namen „BAD One“ und „BAD Two“ könnten „Aufklärungsmissionen durchführen“, „Minen aufspüren“ und „Medikamente an die Front liefern“. Es sei sicher, „dass diese Roboter einen bedeutenden Einfluss auf die Operationen haben“, schreibt der „Focus“ und beruft sich auf einen anonymen Experten, der von der AFP befragt wurde. Die Sicherheit der Soldaten solle damit erhöht werden.

Flammenwerferroboter in den USA frei erhältlich

Auch die USA mischen bei der KI-Aufrüstung mit: Schon im September 2023 hatte das US-Marinekorps den in China produzierten, im freien Handel erhältlichen Roboterhund Go 1 von Unitree mit einer Trainingsversion eines Panzerabwehrraketenwerfers ausgestattet und getestet. Der Roboterhund soll damit Panzer von Weitem bekämpfen können. Der Einsatz der Kampfhunde aus Metall soll vorwiegend in urbanen Räumen sein, so die Idee des Marinekorps, schreibt „heise.de“.

Roboterhund Go 1. Foto: Screenshot YouTube Kanal Superca Blondie

Der mit allerlei Sensoren ausgestattete Hund kann ferngesteuert und autonom agieren. Für den Otto Normalverbraucher wird das Nachfolgemodell des Roboterhundes, Go 2,  von einem US-Unternehmen, das Flammenwerfer auch für private Einsatzzwecke herstellt, unter dem Namen Thermonator angeboten. Auf den Rücken des Roboterhundes ist ein Flammenwerfer geschnallt. Dazu gehören auch Scheinwerfer und Laserzieloptik. Kostenpunkt des privaten Kriegsspielzeugs: knapp unter 10.000 Euro.

Roboterhund mit Flammenwerfer. Foto: Screenshot Youtube Kanal Throwflame | Thermonator

In den USA unterliegen Flammenwerfer in 48 Bundesstaaten keiner gesetzlichen Regulierung. Sie sind damit weitgehend frei verkäuflich.

Der Roboterhund kann manuell über einen Controller genau auf sein Ziel ausgerichtet werden, sodass auf Knopfdruck der bis zu 9 Meter reichende Flammenstrahl auch trifft. Die Ansteuerung läuft via Bluetooth oder WLAN, also aus sicherer Entfernung für den Bediener. Der Roboterhund sei aber für weitgehend friedliche Einsätze gedacht, schreibt das US-Unternehmen aus Ohio über seine Geschäftsidee. So kann er etwa bei Waldbränden eingesetzt werden, um Gegenfeuer zu legen. Auch private Nutzer fänden eine Verwendung des Roboterhundes, etwa zum Auftauen von vereisten Böden oder zu reinen Unterhaltungszwecken.

Wer ist am Ende verantwortlich?

Künstliche Intelligenz basiert auf Algorithmen, die in der Lage sind, große Datenmengen zu analysieren, Muster zu erkennen und Entscheidungen zu treffen. Was die KI besonders gefährlich macht, ist ihre Fähigkeit, autonom zu lernen und so ihre eigenen Entscheidungen zu „verbessern“, ohne dass sie direkt von Menschen beaufsichtigt wird. Diese Autonomie in Entscheidungsprozessen gilt als Risikobereich, denn sie könnte KI-basierte Waffensysteme in die Lage versetzen, eigenständig Ziele auszuwählen und anzugreifen.

Das wirft neben ethischen Fragen auch das Thema auf, wer haftet, wenn ein KI-System Fehler macht oder sogenannt völkerrechtswidrig handelt. Die Hersteller, die Entwickler, die Einsatzkräfte oder die militärischen Befehlshaber?

Dazu schreibt Andreas Bilgeri, Abrüstungsexperte bei der Ständigen Vertretung Österreichs in Genf, Folgendes:

„Der Schlüssel zur Beantwortung vieler Fragen liegt in der Einbindung des Menschen bzw. in der Aufrechterhaltung und Sicherstellung der menschlichen Verantwortung bei der Gestaltung, Entwicklung und Nutzung autonomer Waffensysteme. Die Gewährleistung einer bedeutsamen menschlichen Kontrolle, auch in Form positiver Verpflichtungen, stellt einen Lösungsansatz für die wichtigsten Probleme dar.“



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion