L’IA dans la guerre : les startups se lancent dans une course à la construction de modèles de qualité militaire

Le débat sur l’intelligence artificielle dans la guerre s’intensifie, les entreprises technologiques étant aux prises avec des préoccupations éthiques tandis que les startups spécialisées recherchent agressivement des applications militaires. Alors qu’Anthropic hésitait sur un accès illimité à l’armée américaine, des sociétés comme Smack Technologies vont de l’avant en développant des modèles d’IA spécialement conçus pour les opérations de combat.

L’essor de l’IA militaire

Smack Technologies, qui a récemment obtenu un financement de 32 millions de dollars, vise à surpasser les grands modèles de langage existants comme Claude en matière de planification et d’exécution militaires. Contrairement à Anthropic, qui cherchait à restreindre l’utilisation d’armes autonomes, Smack semble moins contraint par des limitations éthiques. Le PDG Andy Markoff, ancien commandant des opérations spéciales des forces maritimes américaines, souligne que la responsabilité incombe aux opérateurs humains : « Pour moi, les personnes qui déploient la technologie et s’assurent qu’elle est utilisée de manière éthique doivent porter un uniforme. »

L’approche de l’entreprise reflète la méthode d’essais et d’erreurs utilisée par AlphaGo de Google, mais adaptée aux scénarios de jeux de guerre avec validation par des experts. Malgré un budget inférieur à celui des laboratoires d’IA traditionnels, Smack investit massivement dans la formation de ses premiers modèles d’IA militaire. Cela survient alors que le Pentagone s’est affronté avec Anthropic au sujet d’un contrat de 200 millions de dollars, déclarant que l’entreprise représente un risque pour la chaîne d’approvisionnement en raison de ses restrictions sur le développement d’armes autonomes.

Les limites de l’IA généraliste

Markoff soutient que les modèles polyvalents actuels comme Claude sont inadéquats pour un usage militaire. Ils excellent dans la synthèse des rapports, mais n’ont pas la compréhension contextuelle du monde physique nécessaire pour contrôler le matériel ou identifier avec précision les cibles. Son affirmation est que les LLM sont loin d’être capables d’une identification fiable des cibles.

Toutefois, la réalité est plus complexe. Les États-Unis et au moins 30 autres pays déploient déjà des systèmes d’armes autonomes, notamment des systèmes de défense antimissile nécessitant des temps de réaction surhumains. Rebecca Crootof, juriste à l’Université de Richmond, souligne l’utilisation généralisée de divers degrés d’autonomie dans les systèmes d’armes.

Automatisation et domination des décisions

Les modèles de Smack sont conçus pour automatiser la planification des missions, un processus encore largement manuel dans de nombreux contextes militaires. Dans un conflit potentiel avec un adversaire proche comme la Russie ou la Chine, Markoff estime que la prise de décision automatisée pourrait donner aux États-Unis un avantage crucial. Pourtant, les expériences menées au King’s College de Londres soulèvent de sérieuses questions : il a été démontré que les LLM intensifient les conflits nucléaires lors de jeux de guerre.

La guerre en Ukraine a souligné la valeur des systèmes semi-autonomes à faible coût construits avec des technologies commerciales. La marine américaine teste déjà de tels systèmes dans le golfe Persique, notamment pour l’identification des drones. Des experts comme Anna Hehir, du Future of Life Institute, mettent en garde contre le déploiement incontrôlé de l’IA, citant le manque de fiabilité et l’imprévisibilité des systèmes actuels. Elle affirme que l’IA ne peut pas faire de distinction fiable entre les combattants et les civils, et encore moins reconnaître la reddition.

Le chaos de la guerre réelle

Markoff reconnaît l’imprévisibilité inhérente aux opérations militaires, soulignant que même les meilleurs plans se déroulent rarement comme prévu. Son expérience du combat renforce la nécessité d’un contrôle humain. Il ne s’agit pas d’automatiser entièrement la chaîne de destruction, mais d’améliorer la prise de décision dans des environnements chaotiques où la rapidité et l’adaptabilité sont cruciales.

Le développement de l’IA militaire spécialisée s’accélère, motivé à la fois par des impératifs stratégiques et des opportunités commerciales. La question reste de savoir si ces systèmes peuvent tenir leurs promesses sans exacerber les risques ni saper les frontières éthiques.

En fin de compte, l’avenir de l’IA dans la guerre dépend de la recherche d’un équilibre entre le progrès technologique, la gouvernance responsable et les réalités brutales des conflits.

попередня статтяApple dévoile le MacBook Neo : son ordinateur portable le plus abordable à ce jour
наступна статтяHubs USB essentiels pour 2026 : meilleurs choix pour la connectivité