Die Debatte über künstliche Intelligenz in der Kriegsführung nimmt zu, wobei sich Technologieunternehmen mit ethischen Bedenken auseinandersetzen, während spezialisierte Startups aggressiv militärische Anwendungen verfolgen. Während Anthropic mit dem uneingeschränkten Zugang des US-Militärs zögerte, machen Unternehmen wie Smack Technologies Fortschritte und entwickeln KI-Modelle speziell für Kampfeinsätze.
Der Aufstieg der militärischen KI
Smack Technologies, das sich kürzlich eine Finanzierung in Höhe von 32 Millionen US-Dollar gesichert hat, zielt darauf ab, bestehende große Sprachmodelle wie Claude bei der militärischen Planung und Ausführung zu übertreffen. Im Gegensatz zu Anthropic, das Beschränkungen für den Einsatz autonomer Waffen anstrebte, scheint Smack weniger durch ethische Einschränkungen eingeschränkt zu sein. CEO Andy Markoff, ein ehemaliger Kommandeur der US Marine Forces Special Operations, betont, dass die Verantwortung bei den menschlichen Bedienern liegt: „Für mich müssen die Leute, die die Technologie einsetzen und sicherstellen, dass sie ethisch genutzt wird, eine Uniform tragen.“
Der Ansatz des Unternehmens spiegelt die von Googles AlphaGo verwendete Trial-and-Error-Methode wider, wurde jedoch für Kriegsspielszenarien mit Expertenvalidierung angepasst. Trotz eines geringeren Budgets als herkömmliche KI-Labore investiert Smack stark in die Ausbildung seiner ersten militärischen KI-Modelle. Dies geschah, als das Pentagon wegen eines 200-Millionen-Dollar-Vertrags mit Anthropic aneinandergeriet und das Unternehmen aufgrund seiner Beschränkungen bei der Entwicklung autonomer Waffen zu einem Lieferkettenrisiko erklärte.
Die Grenzen der Allzweck-KI
Markoff argumentiert, dass aktuelle Allzweckmodelle wie Claude für den militärischen Einsatz nicht geeignet seien. Sie sind hervorragend darin, Berichte zusammenzufassen, ihnen fehlt jedoch das kontextbezogene Verständnis der physischen Welt, das zur Steuerung von Hardware oder zur genauen Identifizierung von Zielen erforderlich ist. Er behauptet, dass LLMs bei weitem nicht in der Lage seien, Ziele zuverlässig zu identifizieren.
Die Realität ist jedoch komplexer. Die USA und mindestens 30 andere Nationen verfügen bereits über autonome Waffensysteme, darunter Raketenabwehrsysteme, die übermenschliche Reaktionszeiten erfordern. Rebecca Crootof, Rechtswissenschaftlerin an der University of Richmond, weist auf den weit verbreiteten Einsatz unterschiedlicher Autonomiegrade in Waffensystemen hin.
Automatisierung und Entscheidungsdominanz
Die Modelle von Smack sind darauf ausgelegt, die Missionsplanung zu automatisieren, ein Prozess, der in vielen militärischen Kontexten immer noch weitgehend manuell erfolgt. Markoff ist davon überzeugt, dass eine automatisierte Entscheidungsfindung den USA in einem möglichen Konflikt mit einem gleichwertigen Gegner wie Russland oder China einen entscheidenden Vorteil verschaffen könnte. Doch Experimente am King’s College London werfen ernsthafte Fragen auf: LLMs haben gezeigt, dass sie nukleare Konflikte in Kriegsspielen eskalieren lassen.
Der Krieg in der Ukraine hat den Wert kostengünstiger, halbautonomer Systeme, die auf kommerzieller Technologie basieren, unterstrichen. Die US-Marine testet solche Systeme bereits im Persischen Golf, unter anderem zur Drohnenerkennung. Experten wie Anna Hehir vom Future of Life Institute warnen vor einem unkontrollierten KI-Einsatz und verweisen auf die Unzuverlässigkeit und Unvorhersehbarkeit aktueller Systeme. Sie argumentiert, dass KI nicht zuverlässig zwischen Kombattanten und Zivilisten unterscheiden kann, geschweige denn eine Kapitulation erkennen kann.
Das Chaos der realen Kriegsführung
Markoff erkennt die inhärente Unvorhersehbarkeit militärischer Operationen an und stellt fest, dass selbst die besten Pläne selten wie erwartet verlaufen. Seine Erfahrung im Kampf verstärkt die Notwendigkeit menschlicher Aufsicht. Dabei geht es nicht um die vollständige Automatisierung der Kill Chain, sondern um die Verbesserung der Entscheidungsfindung in chaotischen Umgebungen, in denen Geschwindigkeit und Anpassungsfähigkeit entscheidend sind.
Die Entwicklung spezialisierter militärischer KI beschleunigt sich, angetrieben sowohl von strategischen Erfordernissen als auch von kommerziellen Möglichkeiten. Es bleibt die Frage, ob diese Systeme ihr Versprechen halten können, ohne die Risiken zu verschärfen oder ethische Grenzen zu untergraben.
Letztendlich hängt die Zukunft der KI in der Kriegsführung davon ab, ein Gleichgewicht zwischen technologischem Fortschritt, verantwortungsvoller Regierungsführung und der brutalen Realität von Konflikten zu finden.
