Het debat over kunstmatige intelligentie in oorlogsvoering wordt steeds heviger, waarbij technologiebedrijven worstelen met ethische zorgen, terwijl gespecialiseerde startups agressief militaire toepassingen nastreven. Terwijl Anthropic aarzelde over onbeperkte toegang voor het Amerikaanse leger, gaan bedrijven als Smack Technologies vooruit en ontwikkelen ze AI-modellen die specifiek zijn ontworpen voor gevechtsoperaties.
De opkomst van militaire AI
Smack Technologies, dat onlangs 32 miljoen dollar aan financiering binnenhaalde, heeft tot doel bestaande grote taalmodellen zoals Claude te overtreffen op het gebied van militaire planning en uitvoering. In tegenstelling tot Anthropic, dat beperkingen zocht op het gebruik van autonome wapens, lijkt Smack minder beperkt door ethische beperkingen. CEO Andy Markoff, voormalig commandant van de Special Operations van de US Marine Forces, benadrukt dat de verantwoordelijkheid bij menselijke operators ligt: “Voor mij moeten de mensen die de technologie inzetten en ervoor zorgen dat deze op ethisch verantwoorde wijze wordt gebruikt, een uniform dragen.”
De aanpak van het bedrijf weerspiegelt de methode van vallen en opstaan die wordt gebruikt door Google’s AlphaGo, maar aangepast voor oorlogsspelscenario’s met deskundige validatie. Ondanks een kleiner budget dan reguliere AI-laboratoria investeert Smack zwaar in het trainen van zijn eerste militaire AI-modellen. Dit komt omdat het Pentagon met Anthropic in botsing is gekomen over een contract ter waarde van 200 miljoen dollar, waarbij het bedrijf een supply chain-risico heeft verklaard vanwege de beperkingen op de ontwikkeling van autonome wapens.
De grenzen van AI voor algemeen gebruik
Markoff stelt dat de huidige modellen voor algemeen gebruik, zoals die van Claude, niet geschikt zijn voor militair gebruik. Ze blinken uit in het samenvatten van rapporten, maar missen het contextuele begrip van de fysieke wereld dat nodig is om hardware te controleren of doelen nauwkeurig te identificeren. Zijn bewering is dat LLM’s bij lange na niet in staat zijn tot betrouwbare doelwitidentificatie.
De werkelijkheid is echter complexer. De VS en minstens dertig andere landen zetten al autonome wapensystemen in, waaronder raketafweersystemen die bovenmenselijke reactietijden vereisen. Rebecca Crootof, een rechtsgeleerde aan de Universiteit van Richmond, wijst op het wijdverbreide gebruik van verschillende graden van autonomie in wapensystemen.
Automatisering en beslissingsdominantie
De modellen van Smack zijn ontworpen om de missieplanning te automatiseren, een proces dat in veel militaire contexten nog steeds grotendeels handmatig is. In een potentieel conflict met een bijna gelijkwaardige tegenstander als Rusland of China, gelooft Markoff dat geautomatiseerde besluitvorming de VS een cruciaal voordeel zou kunnen opleveren. Toch roepen experimenten aan King’s College London serieuze vragen op: het is aangetoond dat LLM’s nucleaire conflicten in oorlogsspellen laten escaleren.
De oorlog in Oekraïne heeft de waarde onderstreept van goedkope, semi-autonome systemen die zijn gebouwd met commerciële technologie. De Amerikaanse marine test dergelijke systemen al in de Perzische Golf, onder meer voor drone-identificatie. Experts als Anna Hehir van het Future of Life Institute waarschuwen voor een ongecontroleerde inzet van AI, daarbij verwijzend naar de onbetrouwbaarheid en onvoorspelbaarheid van de huidige systemen. Ze stelt dat AI geen betrouwbaar onderscheid kan maken tussen strijders en burgers, laat staan overgave kan herkennen.
De chaos van oorlogsvoering in de echte wereld
Markoff erkent de inherente onvoorspelbaarheid van militaire operaties en merkt op dat zelfs de beste plannen zich zelden ontvouwen zoals verwacht. Zijn ervaring in de strijd versterkt de behoefte aan menselijk toezicht. Het gaat hier niet om het volledig automatiseren van de ‘kill chain’, maar om het verbeteren van de besluitvorming in chaotische omgevingen waar snelheid en aanpassingsvermogen cruciaal zijn.
De ontwikkeling van gespecialiseerde militaire AI versnelt, gedreven door zowel strategische imperatieven als commerciële kansen. De vraag blijft of deze systemen hun belofte kunnen waarmaken zonder de risico’s te vergroten of ethische grenzen te ondermijnen.
Uiteindelijk hangt de toekomst van AI in oorlogsvoering af van het vinden van een evenwicht tussen technologische vooruitgang, verantwoordelijk bestuur en de brutale realiteit van conflicten.
