Sztuczna inteligencja w wojnie: start-upy gonią za modelami na poziomie wojskowym

Debata na temat sztucznej inteligencji w działaniach wojennych nasila się, ponieważ firmy technologiczne borykają się z problemami etycznymi, a niszowe start-upy agresywnie poszukują zastosowań wojskowych. Chociaż Anthropic wahał się, czy zapewnić nieograniczony dostęp amerykańskiej armii, firmy takie jak Smack Technologies idą naprzód, oferując modele sztucznej inteligencji zaprojektowane specjalnie do operacji bojowych.

Powstanie wojskowej sztucznej inteligencji

Celem firmy Smack Technologies, która niedawno otrzymała finansowanie w wysokości 32 milionów dolarów, jest prześcignięcie istniejących dużych modeli językowych, takich jak Claude, w planowaniu i wykonywaniu zadań wojskowych. W przeciwieństwie do Anthropic, która nawoływała do wprowadzenia ograniczeń w użyciu broni autonomicznej, Smack wydaje się mniej przejmować ograniczeniami etycznymi. Dyrektor generalny Andy Markoff, były dowódca operacji specjalnych USMC, podkreśla, że ​​odpowiedzialność spoczywa na osobach wdrażających technologię i dbających o to, aby była ona wykorzystywana etycznie: „Moim zdaniem osoby wdrażające technologię i dbające o jej etyczne wykorzystanie muszą być w dobrej formie”.

Podejście firmy odzwierciedla metodę prób i błędów, którą Google zastosowało w AlphaGo, ale zostało dostosowane do scenariuszy wojskowych po wzajemnej ocenie. Pomimo mniejszego budżetu niż główne laboratoria sztucznej inteligencji, Smack mocno inwestuje w szkolenie swoich pierwszych wojskowych modeli sztucznej inteligencji. Orzeczenie to pojawia się po starciu Pentagonu z Anthropic w sprawie kontraktu o wartości 200 milionów dolarów, stwierdzając, że firma stwarza ryzyko w łańcuchu dostaw ze względu na ograniczenia w opracowywaniu broni autonomicznej.

Ograniczenia uniwersalnej sztucznej inteligencji

Markoff twierdzi, że obecne modele generyczne, takie jak Claude, nie nadają się do zastosowań wojskowych. Specjalizują się w podsumowywaniu raportów, ale brakuje im kontekstowego zrozumienia świata fizycznego potrzebnego do kontrolowania sprzętu lub dokładnej identyfikacji celów. Twierdzi, że metody LLM nie są nawet blisko możliwości wiarygodnej identyfikacji celów.

Jednak rzeczywistość jest bardziej złożona. Stany Zjednoczone i co najmniej 30 innych krajów rozmieściły już autonomiczne systemy uzbrojenia, w tym systemy obrony przeciwrakietowej, które wymagają nadludzkiej szybkości reakcji. Rebecca Krutof, prawniczka z Uniwersytetu w Richmond, wskazuje na powszechne stosowanie różnych stopni automatyzacji w systemach uzbrojenia.

Automatyzacja i dominacja w podejmowaniu decyzji

Modele Smack mają na celu automatyzację planowania misji, procesu, który w wielu kontekstach wojskowych nadal jest wykonywany ręcznie. Markoff uważa, że ​​w potencjalnym konflikcie z takim przeciwnikiem, jak Rosja czy Chiny, zautomatyzowane podejmowanie decyzji mogłoby zapewnić Stanom Zjednoczonym krytyczną przewagę. Jednak eksperymenty w King’s College w Londynie rodzą poważne pytania: uczelnie LLM pokazały, że mogą eskalować konflikty nuklearne w grach wojennych.

Wojna na Ukrainie uwydatniła wartość tanich, półautonomicznych systemów zbudowanych na sprzęcie komercyjnym. Marynarka Wojenna USA już testuje takie systemy w Zatoce Perskiej, m.in. do identyfikacji dronów. Eksperci tacy jak Anna Hehir z Instytutu Przyszłości Życia ostrzegają przed niekontrolowanym wdrażaniem sztucznej inteligencji, wskazując na zawodność i nieprzewidywalność obecnych systemów. Twierdzi, że sztuczna inteligencja nie jest w stanie wiarygodnie odróżnić kombatantów od cywilów, nie mówiąc już o rozpoznaniu kapitulacji.

Chaos prawdziwej wojny

Markoff zdaje sobie sprawę z nieodłącznej nieprzewidywalności operacji wojskowych i zauważa, że nawet najlepiej opracowane plany rzadko kończą się zgodnie z oczekiwaniami. Jego doświadczenie bojowe utwierdza w przekonaniu, że potrzebny jest nadzór ze strony człowieka. Nie chodzi tu o całkowitą automatyzację łańcucha zabijania, ale o usprawnienie procesu podejmowania decyzji w chaotycznym środowisku, w którym szybkość i zdolność adaptacji mają kluczowe znaczenie.

The development of specialized military AI is accelerating, driven by both strategic imperatives and commercial opportunities. Pytanie brzmi, czy systemy te będą w stanie spełnić swoje obietnice bez zwiększania ryzyka i podważania granic etycznych.

Ostatecznie przyszłość sztucznej inteligencji w działaniach wojennych zależy od znalezienia równowagi między postępem technologicznym, odpowiedzialnym zarządzaniem i brutalną rzeczywistością konfliktu.

попередня статтяApple wprowadza MacBooka Neo: najtańszy jak dotąd laptop
наступна статтяNiezbędne koncentratory USB roku 2026: najlepsze opcje łączności