El debate sobre la inteligencia artificial en la guerra se está intensificando: las empresas tecnológicas se enfrentan a preocupaciones éticas, mientras que las nuevas empresas especializadas buscan agresivamente aplicaciones militares. Mientras Anthropic dudaba sobre el acceso sin restricciones para el ejército estadounidense, empresas como Smack Technologies están avanzando y desarrollando modelos de inteligencia artificial diseñados específicamente para operaciones de combate.
El auge de la IA militar
Smack Technologies, que recientemente obtuvo una financiación de 32 millones de dólares, pretende superar los grandes modelos de lenguaje existentes como Claude en planificación y ejecución militar. A diferencia de Anthropic, que buscaba restricciones al uso de armas autónomas, Smack parece menos limitado por limitaciones éticas. El director ejecutivo Andy Markoff, ex comandante de Operaciones Especiales de las Fuerzas Marinas de EE. UU., enfatiza que la responsabilidad recae en los operadores humanos: “Para mí, las personas que implementan la tecnología y se aseguran de que se use de manera ética deben estar uniformadas”.
El enfoque de la compañía refleja el método de prueba y error utilizado por AlphaGo de Google, pero adaptado para escenarios de juegos de guerra con validación de expertos. A pesar de tener un presupuesto menor que el de los laboratorios de IA convencionales, Smack está invirtiendo mucho en entrenar sus primeros modelos militares de IA. Esto se produce cuando el Pentágono se ha enfrentado a Anthropic por un contrato de 200 millones de dólares, declarando a la empresa un riesgo para la cadena de suministro debido a sus restricciones al desarrollo de armas autónomas.
Los límites de la IA de uso general
Markoff sostiene que los modelos actuales de uso general como Claude son inadecuados para uso militar. Se destacan en resumir informes, pero carecen de la comprensión contextual del mundo físico necesaria para controlar el hardware o identificar objetivos con precisión. Su afirmación es que los LLM no son ni de lejos capaces de identificar objetivos de forma fiable.
Sin embargo, la realidad es más compleja. Estados Unidos y al menos otras 30 naciones ya despliegan sistemas de armas autónomos, incluidas defensas antimisiles que requieren tiempos de reacción sobrehumanos. Rebecca Crootof, jurista de la Universidad de Richmond, señala el uso generalizado de distintos grados de autonomía en los sistemas de armas.
Automatización y dominio de las decisiones
Los modelos de Smack están diseñados para automatizar la planificación de misiones, un proceso que todavía es en gran medida manual en muchos contextos militares. En un conflicto potencial con un adversario cercano como Rusia o China, Markoff cree que la toma de decisiones automatizada podría darle a Estados Unidos una ventaja crítica. Sin embargo, los experimentos en el King’s College de Londres plantean serias preguntas: se ha demostrado que los LLM intensifican los conflictos nucleares en los juegos de guerra.
La guerra en Ucrania ha puesto de relieve el valor de los sistemas semiautónomos de bajo coste construidos con tecnología comercial. La Marina de los EE. UU. ya está probando sistemas de este tipo en el Golfo Pérsico, incluso para la identificación de drones. Expertos como Anna Hehir, del Future of Life Institute, advierten contra el despliegue desenfrenado de IA, citando la falta de fiabilidad e imprevisibilidad de los sistemas actuales. Sostiene que AI no puede distinguir de manera confiable entre combatientes y civiles, y mucho menos reconocer la rendición.
El caos de la guerra en el mundo real
Markoff reconoce la imprevisibilidad inherente a las operaciones militares y señala que incluso los mejores planes rara vez se desarrollan como se esperaba. Su experiencia en combate refuerza la necesidad de supervisión humana. No se trata de automatizar completamente la cadena de destrucción, sino de mejorar la toma de decisiones en entornos caóticos donde la velocidad y la adaptabilidad son cruciales.
El desarrollo de la IA militar especializada se está acelerando, impulsado tanto por imperativos estratégicos como por oportunidades comerciales. La pregunta sigue siendo si estos sistemas pueden cumplir su promesa sin exacerbar los riesgos ni socavar los límites éticos.
En última instancia, el futuro de la IA en la guerra depende de encontrar un equilibrio entre el avance tecnológico, la gobernanza responsable y las brutales realidades del conflicto.
