AI in War: Startups Chase Military-Grade Models

Debata o umělé inteligenci ve válce se zintenzivňuje s tím, jak se technologické společnosti potýkají s etickými obavami a specializované startupy agresivně sledují vojenské aplikace. Zatímco společnost Anthropic váhala s poskytnutím neomezeného přístupu americké armádě, společnosti jako Smack Technologies postupují vpřed s modely AI speciálně navrženými pro bojové operace.

Vzestup vojenské umělé inteligence

Společnost Smack Technologies, která nedávno získala finanční prostředky ve výši 32 milionů dolarů, má za cíl překonat stávající velké jazykové modely, jako je Claude, ve vojenském plánování a provádění. Na rozdíl od Anthropic, který prosazoval omezení používání autonomních zbraní, se Smack zdá být méně znepokojen etickými omezeními. Generální ředitel Andy Markoff, bývalý velitel speciálních operací USMC, zdůrazňuje, že odpovědnost leží na lidech, kteří technologii nasazují a zajišťují, aby byla používána eticky: „Podle mého názoru lidé, kteří technologii nasazují a zajišťují, aby byla používána eticky, musí být ve formě.“

Přístup společnosti odráží přístup pokusu a omylu, který Google použil v AlphaGo, ale přizpůsobený pro vojenské scénáře s peer review. Přestože má Smack menší rozpočet než běžné laboratoře umělé inteligence, intenzivně investuje do výcviku svých prvních vojenských modelů umělé inteligence. Přichází ve chvíli, kdy se Pentagon střetne s Anthropic o kontrakt na 200 milionů dolarů, čímž společnost prohlašuje za riziko dodavatelského řetězce kvůli jejím omezením ve vývoji autonomních zbraní.

Omezení univerzální umělé inteligence

Markoff tvrdí, že současné generické modely, jako je Claude, nejsou vhodné pro vojenské aplikace. Vynikají ve shrnutí zpráv, ale postrádají kontextové chápání fyzického světa potřebné k ovládání zařízení nebo přesné identifikaci cílů. Tvrdí, že LLM nejsou ani zdaleka schopny spolehlivě identifikovat cíle.

Realita je však složitější. USA a nejméně 30 dalších zemí již nasadilo autonomní zbraňové systémy, včetně systémů protiraketové obrany, které vyžadují nadlidskou rychlost reakce. Rebecca Krutof, právnička z University of Richmond, poukazuje na rozšířené používání různých úrovní automatizace ve zbraňových systémech.

Automatizace a dominance v rozhodování

Smack modely jsou navrženy tak, aby automatizovaly plánování misí, což je proces, který se v mnoha vojenských kontextech stále provádí ručně. V potenciálním konfliktu s protivníkem, jako je Rusko nebo Čína, Markoff věří, že automatizované rozhodování by mohlo dát Spojeným státům zásadní výhodu. Experimenty na King’s College London však vyvolávají vážné otázky: LLM ukázaly, že mohou eskalovat jaderné konflikty ve válečných hrách.

Válka na Ukrajině zdůraznila hodnotu nízkonákladových, poloautonomních systémů postavených na komerčním vybavení. Americké námořnictvo již takové systémy testuje v Perském zálivu, včetně identifikace dronů. Odborníci jako Anna Hehir z Institutu budoucnosti života varují před nekontrolovaným nasazováním AI a upozorňují na nespolehlivost a nepředvídatelnost současných systémů. Tvrdí, že umělá inteligence nedokáže spolehlivě odlišit bojovníky od civilistů, natož rozpoznat kapitulaci.

Chaos skutečné války

Markoff uznává neodmyslitelnou nepředvídatelnost vojenských operací a poznamenává, že i ty nejlepší plány zřídkakdy dopadnou podle očekávání. Jeho bojové zkušenosti posilují potřebu lidského dohledu. Nejde o úplnou automatizaci řetězce zabíjení, ale o zlepšení rozhodování v chaotickém prostředí, kde je rychlost a přizpůsobivost rozhodující.

Vývoj specializované vojenské umělé inteligence se zrychluje, poháněný jak strategickými imperativy, tak obchodními příležitostmi. Otázkou je, zda tyto systémy dokážou splnit své sliby, aniž by zvýšily rizika nebo podkopaly etické hranice.

Budoucnost umělé inteligence ve válčení nakonec závisí na nalezení rovnováhy mezi technologickým pokrokem, odpovědnou správou věcí veřejných a brutální realitou konfliktu.