IA na guerra: startups correm para construir modelos de nível militar

O debate sobre a inteligência artificial na guerra está a intensificar-se, com as empresas tecnológicas a debaterem-se com preocupações éticas enquanto as startups especializadas procuram agressivamente aplicações militares. Enquanto a Anthropic hesitava quanto ao acesso irrestrito para os militares dos EUA, empresas como a Smack Technologies estão avançando, desenvolvendo modelos de IA projetados especificamente para operações de combate.

A ascensão da IA militar

A Smack Technologies, que recentemente garantiu US$ 32 milhões em financiamento, pretende superar os grandes modelos de linguagem existentes, como o de Claude, no planejamento e execução militar. Ao contrário da Anthropic, que buscava restrições ao uso autônomo de armas, Smack parece menos limitado por limitações éticas. O CEO Andy Markoff, ex-comandante de Operações Especiais das Forças de Fuzileiros Navais dos EUA, enfatiza que a responsabilidade cabe aos operadores humanos: “Para mim, as pessoas que implantam a tecnologia e garantem que ela seja usada de forma ética precisam estar uniformizadas”.

A abordagem da empresa reflete o método de tentativa e erro usado pelo AlphaGo do Google, mas adaptado para cenários de jogos de guerra com validação especializada. Apesar de um orçamento menor do que os laboratórios convencionais de IA, a Smack está investindo pesadamente no treinamento de seus primeiros modelos militares de IA. Isto ocorre no momento em que o Pentágono entra em conflito com a Antrópico sobre um contrato de 200 milhões de dólares, declarando a empresa um risco na cadeia de abastecimento devido às suas restrições ao desenvolvimento de armas autónomas.

Os limites da IA de uso geral

Markoff argumenta que os atuais modelos de uso geral, como o de Claude, são inadequados para uso militar. Eles são excelentes em resumir relatórios, mas não possuem a compreensão contextual do mundo físico necessária para controlar o hardware ou identificar alvos com precisão. Sua alegação é que os LLMs estão longe de serem capazes de identificar alvos de forma confiável.

Contudo, a realidade é mais complexa. Os EUA e pelo menos 30 outras nações já implantam sistemas de armas autónomos, incluindo defesas antimísseis que exigem tempos de reacção sobre-humanos. Rebecca Crootof, jurista da Universidade de Richmond, aponta o uso generalizado de vários graus de autonomia em sistemas de armas.

Automação e domínio de decisão

Os modelos de Smack são projetados para automatizar o planejamento de missões, um processo ainda amplamente manual em muitos contextos militares. Num potencial conflito com um adversário próximo, como a Rússia ou a China, Markoff acredita que a tomada de decisões automatizada poderia dar aos EUA uma vantagem crítica. No entanto, as experiências no King’s College London levantam questões sérias: foi demonstrado que os LLM aumentam os conflitos nucleares em jogos de guerra.

A guerra na Ucrânia sublinhou o valor dos sistemas semi-autónomos e de baixo custo construídos com tecnologia comercial. A Marinha dos EUA já está testando esses sistemas no Golfo Pérsico, inclusive para identificação de drones. Especialistas como Anna Hehir, do Future of Life Institute, alertam contra a implantação descontrolada de IA, citando a falta de fiabilidade e imprevisibilidade dos sistemas atuais. Ela argumenta que a IA não consegue distinguir com segurança entre combatentes e civis, muito menos reconhecer a rendição.

O caos da guerra no mundo real

Markoff reconhece a imprevisibilidade inerente às operações militares, observando que mesmo os melhores planos raramente se desenrolam como esperado. Sua experiência em combate reforça a necessidade de supervisão humana. Não se trata de automatizar totalmente a cadeia de destruição, mas de melhorar a tomada de decisões em ambientes caóticos onde a velocidade e a adaptabilidade são cruciais.

O desenvolvimento de IA militar especializada está a acelerar, impulsionado tanto por imperativos estratégicos como por oportunidades comerciais. Permanece a questão de saber se estes sistemas podem cumprir o que prometem sem exacerbar os riscos ou minar os limites éticos.

Em última análise, o futuro da IA ​​na guerra depende de encontrar um equilíbrio entre o avanço tecnológico, a governação responsável e as realidades brutais do conflito.

попередня статтяApple lança o MacBook Neo: seu laptop mais acessível até agora
наступна статтяHubs USB essenciais para 2026: principais opções para conectividade