Il dibattito sull’intelligenza artificiale in guerra si sta intensificando, con le aziende tecnologiche alle prese con preoccupazioni etiche mentre le startup specializzate perseguono aggressivamente applicazioni militari. Mentre Anthropic esitava sull’accesso illimitato per le forze armate statunitensi, aziende come Smack Technologies stanno andando avanti, sviluppando modelli di intelligenza artificiale progettati specificamente per le operazioni di combattimento.
L’ascesa dell’intelligenza artificiale militare
Smack Technologies, che ha recentemente ottenuto finanziamenti per 32 milioni di dollari, mira a superare i grandi modelli linguistici esistenti come Claude nella pianificazione ed esecuzione militare. A differenza di Anthropic, che cercava restrizioni sull’uso autonomo delle armi, Smack sembra meno vincolato da limitazioni etiche. L’amministratore delegato Andy Markoff, ex comandante delle operazioni speciali delle forze marine statunitensi, sottolinea che la responsabilità spetta agli operatori umani: “Per me, le persone che utilizzano la tecnologia e si assicurano che venga utilizzata eticamente devono indossare un’uniforme”.
L’approccio dell’azienda rispecchia il metodo per tentativi ed errori utilizzato da AlphaGo di Google, ma adattato a scenari di giochi di guerra con convalida da parte di esperti. Nonostante un budget inferiore rispetto ai tradizionali laboratori di intelligenza artificiale, Smack sta investendo molto nell’addestramento dei suoi primi modelli di intelligenza artificiale militare. Ciò avviene mentre il Pentagono si è scontrato con Anthropic per un contratto da 200 milioni di dollari, dichiarando la società a rischio nella catena di fornitura a causa delle sue restrizioni sullo sviluppo di armi autonome.
I limiti dell’IA per scopi generici
Markoff sostiene che gli attuali modelli generici come Claude sono inadeguati per l’uso militare. Eccellono nel riassumere i rapporti, ma non hanno la comprensione contestuale del mondo fisico necessaria per controllare l’hardware o identificare accuratamente gli obiettivi. La sua affermazione è che gli LLM non sono affatto in grado di identificare in modo affidabile il bersaglio.
Tuttavia, la realtà è più complessa. Gli Stati Uniti e almeno altre 30 nazioni già dispiegano sistemi d’arma autonomi, comprese le difese missilistiche che richiedono tempi di reazione sovrumani. Rebecca Crootof, studiosa di diritto presso l’Università di Richmond, sottolinea l’uso diffuso di vari gradi di autonomia nei sistemi d’arma.
Automazione e dominanza decisionale
I modelli di Smack sono progettati per automatizzare la pianificazione delle missioni, un processo ancora in gran parte manuale in molti contesti militari. In un potenziale conflitto con un avversario alla pari come la Russia o la Cina, Markoff ritiene che il processo decisionale automatizzato potrebbe dare agli Stati Uniti un vantaggio fondamentale. Tuttavia, gli esperimenti condotti al King’s College di Londra sollevano seri interrogativi: è stato dimostrato che gli LLM intensificano i conflitti nucleari nei giochi di guerra.
La guerra in Ucraina ha sottolineato il valore dei sistemi semiautonomi a basso costo costruiti con tecnologia commerciale. La Marina americana sta già testando tali sistemi nel Golfo Persico, anche per l’identificazione dei droni. Esperti come Anna Hehir, del Future of Life Institute, mettono in guardia contro l’impiego incontrollato dell’intelligenza artificiale, citando l’inaffidabilità e l’imprevedibilità dei sistemi attuali. Sostiene che l’intelligenza artificiale non può distinguere in modo affidabile tra combattenti e civili, per non parlare di riconoscere la resa.
Il caos della guerra nel mondo reale
Markoff riconosce l’imprevedibilità intrinseca delle operazioni militari, sottolineando che anche i piani migliori raramente si svolgono come previsto. La sua esperienza in combattimento rafforza la necessità della supervisione umana. Non si tratta di automatizzare completamente la kill chain, ma di migliorare il processo decisionale in ambienti caotici dove la velocità e l’adattabilità sono cruciali.
Lo sviluppo dell’intelligenza artificiale militare specializzata sta accelerando, guidato sia da imperativi strategici che da opportunità commerciali. Resta la questione se questi sistemi possano mantenere le loro promesse senza esacerbare i rischi o indebolire i confini etici.
In definitiva, il futuro dell’intelligenza artificiale in guerra dipende dalla ricerca di un equilibrio tra progresso tecnologico, governance responsabile e realtà brutali del conflitto.
