Teilen

Moderne Schlachtfelder sind zu einer Brutstätte für experimentelle KI-Waffen geworden

Picture of Carl Geisler

Carl Geisler

Während in der Ukraine und im Nahen Osten Konflikte toben, ist das moderne Schlachtfeld zu einem Testfeld für KI-gestützte Kriegsführung geworden.

Von autonomen Drohnen bis hin zu prädiktiven Zielsuchalgorithmen – KI-Systeme verändern die Art des bewaffneten Konflikts.

Die USA, die Ukraine, Russland, China, Israel und andere befinden sich in einem KI-Wettrüsten und wetteifern um die technologische Vorherrschaft in einer zunehmend brisanten geopolitischen Landschaft.

So wie diese neuen Waffen und Taktiken auftauchen, so sind auch ihre Folgen.

Wir stehen jetzt vor kritischen Fragen über die Zukunft der Kriegsführung, die menschliche Kontrolle und die Ethik der Auslagerung von Entscheidungen über Leben und Tod an Maschinen.

KI könnte bereits eine militärische Eskalation ausgelöst haben

Damals im Jahr 2017, Projekt Maven ist der erste Versuch des Pentagons, KI in militärische Operationen zu integrieren. Es soll die Identifizierung und Verfolgung von Zielen anhand von Drohnenaufnahmen in Echtzeit ohne menschliches Eingreifen ermöglichen.

Obwohl das Projekt Maven oft im Zusammenhang mit der Analyse von Drohnenkamerabildern diskutiert wird, gehen seine Möglichkeiten wahrscheinlich viel weiter.

Nach Angaben der gemeinnützigen Watchdog Tech Inquiry’s Untersuchungverarbeitet das KI-System auch Daten von Satelliten, Radar, sozialen Medien und sogar erbeutete feindliche Objekte. Dieses breite Spektrum an Daten wird als „All-Source Intelligence“ bezeichnet.

Im März 2023 kam es zu einem militärischen Zwischenfall, als eine US-amerikanische MQ-9 Reaper-Drohne über dem Schwarzen Meer mit einem russischen Kampfjet zusammenstieß und die Drohne zum Absturz brachte.

Kurz vor diesem Vorfall bestätigte die National Geospatial-Intelligence Agency (NGA), dass die Technologie von Project Maven in der Ukraine eingesetzt wird.

Generalleutnant Christopher T. Donahue, Kommandeur des XVIII Airborne Corps, erklärte später ganz klar gesagt über den Ukraine-Russland-Konflikt: „Am Ende des Tages ist das unser Labor geworden.“

Das Projekt Maven in der Ukraine umfasste fortschrittliche KI-Systeme, die in das Lynx Synthetic Aperture Radar (SAR) der MQ-9 Reaper integriert waren. Somit könnte die KI bei dem Zusammenstoß mit der Drohne eine Rolle gespielt haben.

Drohne
Am Morgen des 14. März 2023 fing ein russischer Su-27-Kampfjet eine US-amerikanische MQ-9 Reaper-Drohne ab und beschädigte sie, woraufhin die Drohne ins Schwarze Meer stürzte. Es war die erste direkte Konfrontation zwischen den russischen und den US-amerikanischen Luftstreitkräften seit dem Kalten Krieg und eine deutliche Eskalation der militärischen Spannungen zwischen den beiden Nationen. Quelle: US Air Force.

In der Folge luden die USA den russischen Botschafter nach Washington ein, um ihre Einwände zu äußern, während das US European Command den Vorfall als „unsicher und unprofessionell“ bezeichnete.

Russland bestritt, dass es einen Zusammenstoß gab. Daraufhin verlegten die USA einige unbemannte Flugzeuge zur Überwachung der Region, wogegen Russland protestierte.

Diese Situation zeigte die bedrohliche Möglichkeit, dass KI-Systeme militärische Entscheidungen beeinflussen und sogar zu unvorhergesehenen Eskalationen in militärischen Konflikten beitragen können.

Tech Inquiry fragt: „Es lohnt sich, herauszufinden, ob Project Maven ungewollt zu einer der bedeutendsten militärischen Eskalationen unserer Zeit beigetragen hat.“

Ethische Minenfelder

Die Leistung von Project Maven war bisher weitgehend uneinheitlich.

Nach Angaben von Bloomberg-Daten zitiert von der Kyiv Independent„Bei der Verwendung verschiedener Arten von Bilddaten können Soldaten einen Panzer in 84% der Fälle richtig identifizieren, während die KI von Project Maven eher bei 60% liegt, wobei die Zahl bei Schneefall auf 30% sinkt.“

Während die ethischen Implikationen des Einsatzes von KI für Entscheidungen über Leben und Tod in der Kriegsführung zutiefst beunruhigend sind, bringt das Risiko von Fehlfunktionen einen noch beunruhigenderen Aspekt in dieses technologische Wettrüsten ein.

Es geht nicht nur um die Frage, ob wir KI einsetzen sollten, um Menschen zu bekämpfen, sondern auch darum, ob wir darauf vertrauen können, dass diese Systeme im Nebel des Krieges wie vorgesehen funktionieren.

Was passiert, wenn Zivilisten in der Nähe als Ziele markiert und autonom zerstört werden? Und was, wenn die Drohne selbst durchdreht und in Umgebungen fliegt, für die sie nicht ausgebildet ist?

Eine KI-Fehlfunktion ist in diesem Zusammenhang nicht nur eine technische Panne – sie ist ein potenzieller Katalysator für eine Tragödie unvorstellbaren Ausmaßes. Im Gegensatz zu menschlichen Fehlern, die vielleicht nur ein begrenztes Ausmaß haben, kann der Fehler eines KI-Systems innerhalb von Sekunden zu einem weit verbreiteten, wahllosen Gemetzel führen.

Es wurden bereits Maßnahmen ergriffen, um diese Entwicklungen zu verlangsamen und die Waffen unter Verschluss zu halten, wie die folgenden Beispiele zeigen 30 Länder beigetreten sind US Leitplanken über KI-Militärtechnik.

Das US-Verteidigungsministerium (DoD) veröffentlichte ebenfalls fünf „ethische Grundsätze für künstliche Intelligenz“ für militärische Zwecke, einschließlich „Das DoD-Personal wird ein angemessenes Maß an Urteilsvermögen und Sorgfalt walten lassen, während es für die Entwicklung, den Einsatz und die Nutzung von KI-Fähigkeiten verantwortlich bleibt.“

Die jüngsten Entwicklungen zeigen jedoch, dass zwischen diesen Grundsätzen und der Praxis eine Diskrepanz besteht.

Zum einen ist die KI-Technologie wahrscheinlich bereits für schwerwiegende Vorfälle verantwortlich, die nicht zu ihrem Aufgabenbereich gehören. Zweitens: Die generative KI-Taskforce des Verteidigungsministeriums vergibt Aufträge an private Unternehmen. wie Palantir, Microsoft und OpenAI.

Die Zusammenarbeit mit kommerziellen Unternehmen, die nicht der gleichen Aufsicht unterliegen wie staatliche Stellen, lässt Zweifel an der Fähigkeit des Verteidigungsministeriums aufkommen, die KI-Entwicklung zu kontrollieren.

Inzwischen hat das Internationale Komitee vom Roten Kreuz (IKRK) eine Diskussionen über die Rechtmäßigkeit dieser Systeme, insbesondere in Bezug auf die Grundsatz der „Unterscheidung“ der Genfer Konventionder vorschreibt, zwischen Kombattanten und Zivilisten zu unterscheiden.

KI-Algorithmen sind nur so gut wie ihre Trainingsdaten und programmierten Regeln, daher kann es sein, dass sie mit dieser Unterscheidung Schwierigkeiten haben, besonders unter dynamischen und unvorhersehbaren Bedingungen auf dem Schlachtfeld.

Wie der Drohnenvorfall im Schwarzen Meer zeigt, sind diese Befürchtungen real. Dennoch sind militärische Führungskräfte weltweit weiterhin optimistisch, was KI-gestützte Kriegsmaschinen angeht.

Vor kurzem hat ein KI-gesteuerter F-16-Kampfjet bei einer Testvorführung menschliche Piloten überflügelt.

US-Luftwaffenminister Frank Kendall, der es selbst erlebt hat, brachte die Trägheit in Bezug auf KI-Militärtechnologie auf den Punkt: „Es ist ein Sicherheitsrisiko, sie nicht zu haben. An diesem Punkt müssen wir sie haben.“

Auf den ersten Blick ist das eine bittere Erkenntnis.

Trotz Jahrtausenden der Kriegsführung und ihrer verheerenden Folgen setzt der bloße Gedanke, dem „Feind“ einen Schritt voraus zu sein – diese Urangst, die vielleicht tief in unserer Psyche verwurzelt ist – weiterhin die Vernunft außer Kraft.

Selbstentwickelte KI-Waffen

In der Ukraine entwickeln junge Unternehmen wie Vyriy, Saker und Roboneers aktiv Technologien, die die Grenze zwischen menschlichen und maschinellen Entscheidungen auf dem Schlachtfeld verwischen.

Saker hat ein autonomes Zielsystem entwickelt, das Ziele in bis zu 25 Meilen Entfernung identifizieren und angreifen kann, während Roboneers einen ferngesteuerten Maschinengewehrturm entwickelt hat, der mit einem Gamecontroller und einem Tablet bedient werden kann.

Über diesen neuen Stand der KI-gesteuerten modernen Kriegsführung berichtet die New York Times folgte kürzlich Oleksii Babenko, dem 25-jährigen CEO des Drohnenherstellers Vyriy, der die neueste Kreation seines Unternehmens vorstellte.

In einer Live-Demonstration fuhr Babenko mit Vollgas auf einem Motorrad, während die Drohne ihn verfolgte, frei von menschlicher Kontrolle. Die Reporter verfolgten die Szene auf einem Laptop-Bildschirm.

Der fortschrittliche Quadrocopter erwischte ihn schließlich und die Reporter sagten: „Wäre die Drohne mit Sprengstoff bewaffnet gewesen und hätten seine Kollegen die autonome Verfolgung nicht ausgeschaltet, wäre Herr Babenko tot gewesen.“

Ähnlich wie in der Ukraine erweist sich auch der israelisch-palästinensische Konflikt als Brutstätte für militärische KI-Forschung.

Zu den experimentellen KI-gestützten oder halbautonomen Waffen gehören ferngesteuerte Quadcopter, die mit Maschinengewehren und Raketen bewaffnet sind, und die „Jaguar,“ ein halbautonomer Roboter, der für die Grenzpatrouille eingesetzt wird.

Das israelische Militär hat außerdem KI-gesteuerte Geschütztürme entwickelt, die entlang der Grenze zum Gazastreifen so genannte „automatische Tötungszonen“ einrichten.

KI-Waffen
Die autonome Natur des Jaguars wird durch seinen Geschützturm und die angebrachte Kamera verraten.

Am besorgniserregendsten für Menschenrechtsbeobachter sind Israels automatische Zielerfassungssysteme. „Das Evangelium“ dient der Identifizierung von Infrastrukturzielen, während „Lavendel“ konzentriert sich auf die Erstellung von Listen mit einzelnen menschlichen Zielen.

Ein anderes System mit dem ominösen Namen „Wo ist Daddy?“wird Berichten zufolge verwendet, um mutmaßliche Militante aufzuspüren, wenn sie bei ihren Familien sind.

Der linke israelische Nachrichtensender +972, der aus Tel Aviv berichtet, gab zu, dass diese Systeme mit ziemlicher Sicherheit zu zivilen Opfern geführt haben.

Der Weg nach vorn

Je weiter die militärische KI-Technologie voranschreitet, desto schwieriger wird es, die Verantwortung für Fehler und Versagen zuzuweisen – eine moralische und ethische Leere, in die wir bereits eingetreten sind.

Wie können wir eine Zukunft verhindern, in der das Töten mehr automatisiert als menschlich ist und die Verantwortlichkeit in einem algorithmischen Nebel verloren geht?

Die aktuellen Ereignisse und die Rhetorik geben keinen Anlass zur Vorsicht.

Picture of Carl Geisler

Carl Geisler

Carl ist ein online Marketer und Content Creator mit einer Leidenschaft für künstliche Intelligenz und innovative Technik. Er ist einer der Gründer von KI-Techlab.de und schreibt hier über neue KI-Tools und Innovationen.

Weitere KI-News:

Sichere dir die gratis KI-Cashflow Blaupause

Du möchtest Geld durch KI-Tools verdienen?

In der KI-Cashflow-Blaupause lernst du ein bewährtes System, mit dem du bis zu 5673€ im Monat mit der Hilfe von KI-Tools verdienen kannst.