El Pentagon je pokrenuo sveobuhvatnu reviziju Odnos američke vlade s kompanijom za vještačku inteligenciju Anthropic pogoršao se nakon nekoliko mjeseci trenja oko vojne upotrebe njene tehnologije. Anthropic, kreator Claude AI modela, nametnuo je niz etičkih ograničenja koja su u sukobu sa zahtjevima Ministarstva odbrane SAD-a.
U srži neslaganja je zahtjev vojske da se ovi sistemi mogu koristiti za "sve zakonite svrhe"Dok se Anthropic zalaže za stroge mjere zaštite protiv masovni nadzor i potpuno autonomno oružjeOvaj spor, koji je izašao na vidjelo kroz izvještaje Axiosa, Reutersa, Bloomberga i novinske agencije EFE, sada prijeti da dovede do raskida ugovora vrijednog... oko 200 milijarde dolara.
Pritisak Pentagona za proširenje vojne upotrebe umjetne inteligencije
Prema izvorima koje citira nekoliko američkih medija, Ministarstvo odbrane je vršenje pritiska na četiri velike kompanije za umjetnu inteligenciju, uključujući Anthropic, kako bi se vojsci omogućilo korištenje njihovih modela u mnogo širem rasponu operacija. Zahtjev pokriva sve od prikupljanje obavještajnih podataka i podršku u terenskim misijama do razvoj i testiranje novog oružja.
Zvaničnik Pentagona, koji je govorio pod uslovom anonimnosti, objasnio je da se razmatraju različiti scenariji, od smanjiti saradnju s antropskim do potpuno prekinuti vezuU tom slučaju, Ministarstvo insistira na tome da bi se morala organizirati "uredna zamjena" kako bi se izbjegle praznine u kritičnim sistemima gdje se tehnologija kompanije već koristi.
Glavni portparol Ministarstva odbrane, Sean Parnell, potvrdio je za EFE da "Odnos Ministarstva rata s kompanijom Anthropic se preispituje"Prema njegovim riječima, Sjedinjenim Državama je potrebno da njihovi tehnološki partneri budu spremni pomoći njihovim oružanim snagama da "pobijede u bilo kojoj bitci", naglašavajući da je fokus ovog pregleda na zaštita trupa i nacionalna sigurnost.
Istovremeno, visoki vojni zvaničnik kojeg je citirao Axios bio je oštrijeg tona i upozorio da ako budu prisiljeni da demontiraju integraciju Anthropica u svoje sisteme, kompanija "će platiti cijenu" zbog toga što su forsirali tu situaciju, što odražava stepen do kojeg je nezadovoljstvo eskaliralo posljednjih sedmica.
Anthropicove zaštitne mjere i slučaj Claude
Suočen s ovim pritiskom, Anthropic čvrsto drži stav o dvije crvene linije: izbjegavanje masovnog nadzora američkih građana i odbiti raspoređivanje potpuno autonomno smrtonosno oružjeTo jest, bez značajne ljudske kontrole. Ove zaštitne mjere su dio okvira odgovorne upotrebe koji kompanija objavljuje posljednjih godina.
Vodeći model umjetne inteligencije kompanije, poznat kao ClaudeTo je postalo središte debate. Prema izvještajima Axiosa i drugih medija, Claude je već korišten u stvarne vojne operacije na tajnim mrežama Pentagona, podržavajući analizu obavještajnih podataka i operativno planiranje unutar sistema kojima se može pristupiti samo uz autorizaciju visokog nivoa.
U tom kontekstu, odvija se posebno delikatna operacija: različiti izvori ukazuju na to da je Claude bio zaposlen, preko platforme Palantir Technologies, na misiji čiji je cilj bio hapšenje svrgnutog predsjednika Venecuele Nicolása Madura 3. januara. Ovo učešće bi dodatno izazvalo zabrinutost zbog obima vojne upotrebe modela umjetne inteligencije opće namjene.
Međutim, kompanija tvrdi da je bila pionir u primjeni AI modela u klasificiranim mrežama uz obavezu da će se poštovati njihove politike korištenja. Anthropic insistira da se njihova saradnja s vladom SAD-a fokusirala upravo na to kako primijeniti ta ograničenja u kontekstima nacionalne sigurnosti, bez ulaska u specifične operativne detalje.
Prijetnja da će biti smatran "rizikom u lancu snabdijevanja"
Jedan od najodlučnijih poteza koje Pentagon razmatra je mogućnost označiti antropno kao "Rizik lanca snabdijevanja"Ova mjera, koja se obično koristi protiv stranih aktera koji se smatraju protivnicima, ozbiljno bi zakomplicirala odnos kompanije s drugim izvođačima radova u oblasti odbrane.
Ako bi ta oznaka postala efektivna, svaka kompanija koja želi nastaviti saradnju s Ministarstvom odbrane morala bi da dokaže da ne koristi antropne alate u njihovim sistemima ili procesima. U praksi, ova odluka bi mogla natjerati veliki dio ekosistema izvođača radova da se distancira od firme kako ne bi ugrozio vlastite sporazume s američkom vojskom.
Izvori koje je konsultovao Axios ukazuju na to da je ministar rata Pete Hegseth "na ivici" da preduzme taj korak ako se ne postigne dogovor. Trenutni ugovor, potpisan prošlog ljeta, iznosi oko 200 milijarde dolara (oko 168 miliona eura), što je skromna cifra u poređenju s globalnim ugovorima Pentagona, ali ključna zbog strateška priroda vještačke inteligencije u odbrani.
Za Anthropic, uticaj ne bi bio samo ekonomski. Izdvajanje kao rizik za lanac snabdijevanja moglo bi oštetiti njegov ugled i unutar i izvan Sjedinjenih Država, otvarajući vrata daljnjim napadima. druge administracije ili saveznici preispitaju kakvu saradnju održavaju sa kompanijom u oblasti sigurnosti i odbrane.
Claude Gov i bitka oko uslova korištenja
Uz ove tenzije, Anthropic je razvio specifičnu verziju svoje tehnologije za vladina i vojna okruženja, poznatu kao Claude GovPrema Bloombergu, ovaj model je dizajniran da se nosi sa povjerljivi materijali, analiza obavještajnih podataka i kibernetička sigurnost, nudeći aparatu nacionalne sigurnosti alternativu koja ima za cilj uravnotežiti kapacitete i odgovornost.
Pentagon, sa svoje strane, nastoji osigurati da se i Claude Gov i drugi napredni modeli mogu koristiti bez ograničenja koja trenutno ograničavaju određene scenarije, posebno u ofanzivne operacijeagresivni zadaci sajber odbrane i planiranje oružja sljedeće generacije. Poruka koja se ponavlja u Odbrani je da vještačka inteligencija mora biti dostupna „sve upotrebe dozvoljene zakonom".
Reuters je izvijestio da ovaj pritisak nije usmjeren isključivo na Anthropic. Druge tehnološke kompanije, kao što su OpenAI, Google i xAI Također bi primali jasne signale da, ako žele rad na tajnim mrežama Ministarstvo odbrane će morati ublažiti vlastite politike korištenja, posebno u vezi s nasiljem, nadzorom i direktnim vojnim zapošljavanjem.
Međutim, Anthropic je bio manje sklon kompromisima po određenim tačkama, tvrdeći „stroga ograničenja“ za potpuno autonomno oružje sistemi koji omogućavaju masovni nadzor stanovništva. Upravo taj otpor je jedan od faktora koji objašnjava zašto je njihov odnos s Pentagonom dosegao tako delikatnu situaciju.
Bitka koja će oblikovati budućnost vojne umjetne inteligencije na Zapadu
Pregled odnosa između Pentagona i Anthropica postao je studija slučaja za tehnološki sektorPosebno u Evropi, gdje je debata o vojnoj upotrebi vještačke inteligencije veoma važna na političkoj i regulatornoj agendi. Način na koji se ovaj zastoj riješi mogao bi uticati kako NATO i evropske zemlje Oni strukturiraju vlastite saveze s privatnim pružateljima usluga umjetne inteligencije.
U Evropskoj uniji napreduju propisi poput sljedećih: Zakon o umjetnoj inteligencijiOve mjere uključuju zabrane i stroga ograničenja masovnog biometrijskog nadzora i određenih visokorizičnih vojnih upotreba. S ove strane Atlantika pažljivo pratimo kako se jedan od naših glavnih saveznika, Sjedinjene Američke Države, nosi s kompanijama koje pokušavaju nametnuti ove mjere. interni etički kriteriji u odbrambenim okruženjima.
Za evropske vlade, sukob između Anthropica i Pentagona nudi pregled problema koji će nastati kada... standardi temeljnih prava sukobljavaju se s operativnim zahtjevima oružanih snaga. Predvidljivo je da će u budućim ugovorima i EU i države članice morati mnogo preciznije definirati Koje odgovornosti preuzimaju tehnološke kompanije? i koliko daleko mogu ići njihove klauzule o odgovornom korištenju.
Uloga Sjedinjenih Američkih Država je također relevantna za evropsku odbrambenu i sajber-sigurnosnu industriju, jer mnoge kompanije na kontinentu rade na zajedničkim ugovorima ili integriraju američka rješenja u svoje platforme. Pooštravanje stava Washingtona ili prekid saradnje s dobavljačem poput Anthropica, mogli bi... rekonfigurirati lance snabdijevanja u kojima učestvuju evropske kompanije.
Sukob između vojne misije i korporativnih principa
Pozadina ovog sukoba je Sukob između vojne logike i korporativne etikeDok se Pentagon fokusira na održavanje strateške nadmoći nad silama poput Kine ili Rusije, velike firme za vještačku inteligenciju pokušavaju sačuvati sliku odgovornosti i poštovanja ljudskih prava, također i u očima svojih civilnih klijenata i regulatora.
Iz vojne perspektive, tvrdi se da bi strogo ograničavanje upotrebe umjetne inteligencije u ofanzivnim operacijama moglo ostaviti Sjedinjene Države u tehnološki nedostatakPogotovo ako druge zemlje ne nameću ista ograničenja na svoje oružje i sisteme nadzora. Otuda i uporna poruka da se modeli trebaju koristiti u sve legalne svrhe, bez dodatnih ograničenja.
S druge strane, Anthropic i druge kompanije strahuju da bi potpuni transfer vojnih kapaciteta mogao dovesti do slučajevi zlostavljanja ili u razvoju sistema koje je praktično nemoguće kontrolisati nakon što se jednom rasporede, posebno kada je u pitanju autonomno oružje i masovno praćenje čitavih populacija.
Organizacije i stručnjaci za tehnološku etiku već dugo upozoravaju da „automatizacija smrtonosnih odluka"A širenje nadzora zasnovanog na vještačkoj inteligenciji predstavlja direktan rizik za osnovna prava kao što su privatnost, sloboda izražavanja ili čak pravo na život u kontekstima oružanog sukoba."
Pentagon i Anthropic sada upravljaju ovom krhkom ravnotežom između operativnih prednosti i etičkih principa, s... nastavak njegovog ugovora je neizvjestan i pod budnim okom vlada, kompanija i regulatora s obje strane Atlantika.
Za sada, revizija odnosa Ministarstva odbrane s kompanijom Anthropic ostaje otvorena i bez jasnog ishoda. Dok vojska zahtijeva potpunu slobodu da iskoristi potencijal umjetne inteligencije u "svim zakonitim upotrebama", kompanija insistira na održavanju zaštitnih mjera protiv masovnog nadzora i potpuno autonomnog oružja, u zastoju koji daleko prevazilazi ugovor od 200 miliona dolara i mogao bi postaviti temelje za to kako će se umjetna inteligencija integrirati u odbranu i sigurnost u Sjedinjenim Državama, Evropi i drugim zapadnim saveznicima.
