
Zamislite napeti govor o stanju nacije, s kamerama usmjerenim na zakonodavce dok predsjednik upozorava na strane prijetnje, sigurnost izbora i gubitak radnih mjesta zbog automatizacije. U jednom kratkom paragrafu o umjetnoj inteligenciji, obećava držati Ameriku sigurnom, zaštititi demokraciju i osigurati ekonomsko vodstvo. Većina gledatelja čuje poznatu tehnološku frazu. Iza tih riječi, tiha borba oblikuje kojim sustavima umjetne inteligencije će se vlada Sjedinjenih Država povjeriti, koje će vrijednosti biti ugrađene u kod, i kako će taj kod utjecati na vaš posao, vaše društvene mreže i vaš glas.
Trenutno, obrambeni dužnosnici eksperimentiraju s moćnim modelima za obavještajne podatke i planiranje, politički akteri napadaju tvrtke poput Anthropica kao “woke AI”, a stručnjaci raspravljaju o agentic naspram mimetic AI dok upozoravaju na novu uncanny valley gdje strojevi djeluju uvjerljivo, ali čudno nepouzdano. Ako radite s tehnologijom, proučavate javne politike ili jednostavno brinete o izborima i integritetu informacija, ovo nije apstraktna rasprava, to je živa borba oko toga što buduća AI može, a što ne može raditi.
Ključni zaključci
- Pentagon smatra Anthropicove modele korisnima za analizu i planiranje, ali politički akteri napadaju njegova sigurnosna pravila.
- Podjela agentic naspram mimetic AI objašnjava zašto se vojni planeri i etičari ne slažu oko rizika i koristi.
- Uncanny valley se sada primjenjuje na jezik i uvjeravanje, ne samo na robote i lica.
- Studenti i profesionalci mogu graditi karijere u AI sigurnosti, politikama i upravljanju oblikovane ovim raspravama.
Govor o stanju nacije, tihi AI rat
Trenutak kada je AI ušla u govor o stanju nacije
Predsjednici sada spominju AI u glavnim govorima, često uz Kinu, kibernetičku sigurnost i radna mjesta. Govor o stanju nacije iz 2023., na primjer, povezao je AI s konkurencijom s Pekingom i zaštitom radnika. Bijela kuća je također izdala izvršnu naredbu o sigurnoj, pouzdanoj i vjerodostojnoj AI u listopadu 2023., signalizirajući saveznu hitnost po ovom pitanju, kako izvještava web stranica Bijele kuće. Većina ljudi i dalje tretira ovo kao udaljenu političku stvar. Unutar agencija, rasprava je konkretna i hitna, te izravno oblikuje koje će alate državni službenici i vojni osoblje koristiti svakodnevno.
Vladini izvještaji pokazuju da mnoge savezne agencije već koriste ili testiraju AI alate. Ured za odgovornost vlade SAD-a ustanovio je da je 23 od 24 glavne agencije izvijestilo o najmanje jednom slučaju korištenja AI-a u 2021., prema GAO anketi. Ti sustavi uključuju jednostavne prediktivne alate, ali čelnici se sada fokusiraju na velike jezične modele koji mogu sažimati obavještajne podatke, sastavljati planove ili generirati kod. Pitanje više nije hoće li vlada koristiti AI. Pitanje je koji modeli, s kojim vrijednostima i pod čijom kontrolom. Ako zamišljate AI kao neutralnu uslugu, ovo je točka gdje ta pretpostavka puca.
Iza kulisa: Pentagon stratezi protiv “woke AI” kritičara
Ministarstvo obrane vidi AI kao središnji element buduće vojne prednosti. Pentagonova strategija odgovorne umjetne inteligencije i implementacijski put, objavljena 2022., opisuje AI kao vitalnu za logistiku, analizu obavještajnih podataka i podršku u odlučivanju. DoD ima glavni digitalni i umjetnointeligentni ured, koji koordinira stotine projekata kroz službe, prema javnim briefinzima DoD-a i izvještajima o CDAO inicijativi. Veliki jezični modeli nalaze se u središtu mnogih nadolazećih planova.
Istovremeno, neki politički dužnosnici optužuju glavne AI tvrtke za izgradnju “woke AI”. Tvrde da ti sustavi smanjuju rangiranje konzervativnih pogleda i ograničavaju sadržaj poput rasprava o imigraciji ili kritika društvenih pokreta. U praksi, te tvrtke često primjenjuju široka pravila protiv govora mržnje, uznemiravanja i ciljane persuazije. Takva pravila blokiraju niz ekstremnih ili varljivih zahtjeva, ne samo sadržaj vezan uz jednu stranku. Ovaj sukob između zaštitnih ograda sadržaja i poziva za “neutralnom” AI sada oblikuje kako Pentagon evaluira dobavljače poput Anthropica.
Da bismo razumjeli što je na kocki, trebamo ispitati tko je Anthropic, zašto Pentagon brine, i kako se tehnične rasprave o agentic i mimetic sustavima presijecaju s politikom. Dok čitate, razmislite o jednostavnom pitanju za vlastiti rad. Ako biste morali preporučiti jedan model za svoju organizaciju, na kojim načelima biste inzistirali, a koje kompromise biste prihvatili.
Tko je Anthropic i zašto Pentagon pokazuje interes?
Anthropic u jednom paragrafu
Anthropic je AI tvrtka osnovana 2021. od strane bivših OpenAI istraživača, kako navode tvrtkin vlastiti materijali. Njen tim uključuje CEO-a Daria Amodeia, koji je prethodno vodio sigurnosna istraživanja u OpenAI-u, zajedno s nekoliko starijih znanstvenika i inženjera. Anthropic gradi velike jezične modele zvane Claude i usmjerava se snažno na sigurnost i “ustavnu AI”. Ustavna AI odnosi se na metode treniranja koje koriste eksplicitna načela za usmjeravanje ponašanja, opisane u Anthropic radu iz 2022. od Baia i suradnika.
Anthropic je kontroverzan za neke političare jer njegovi modeli slijede striktna pravila o štetnom, varljivom i stranačkom sadržaju. Ta pravila dobro se uklapaju s korporativnim i akademskim vrijednostima odgovornog korištenja. Oni se sukobljavaju s argumentima koji tvrde da bilo koja ograničenja političkog govora odražavaju ideološku pristranost. Za organizacije u reguliranim sektorima, ova ista napetost pojavljuje se kao praktična odluka između rizika, sigurnosti brenda i percipirane neutralnosti.
Isječak: Tko je Anthropic i zašto je kontroverzan s Pentagonom?
Anthropic je AI tvrtka koju su osnovali bivši OpenAI istraživači koja gradi velike jezične modele poput Claudea s jakim fokusom na sigurnost i “ustavnu AI”. Kontroverzan je s Pentagonom i nekim političarima jer se njegovi oprezni, vrijednosno ograničeni dizajni sukobljavaju sa zahtjevima za agresivnom vojnom upotrebom i politički “neutralnim” ili “ne-woke” ponašanjem.
Zašto neki političari označavaju Anthropic kao “woke AI”
Izraz “woke AI” nema jasno tehničko značenje. Obično se odnosi na AI sustave koji odbijaju zahtjeve koji uključuju govor mržnje, ekstremnu propagandu ili ciljanu političku persuaziju. Anthropicove politike zabranjuju generiranje savjeta za ciljanje izbora ili poruka prilagođenih određenoj demografskoj skupini o osjetljivim pitanjima. Mnoge tvrtke imaju slična pravila, osobito tijekom aktivnih izbornih ciklusa.
Konzervativni komentatori tvrde da ta pravila potiskuju određena gledišta. Neki navode primjere gdje su chatbotovi odbili generirati pozitivne poruke o određenim političarima, a pristali su hvaliti druge. Istraživanja medija i istraživača pokazuju da takvi uzorci često proizlaze iz žurnih sigurnosnih zakrpa ili neravnomjernih podataka za trening, a ne iz skrivenih stranačkih instrukcija. Dobavljači i dalje trebaju bolje metode evaluacije, te se suočavaju s realnim pritiskom regulatora i oglašivača. Oznaka “woke AI” skriva ovu složenost i pretvara rasprave o usklađenosti u slogane kulturnog rata.
Zašto Pentagon brine za Anthropicove modele
Pentagonov interes za Anthropic odražava i sposobnost i reputaciju. Jezični modeli mogu skenirati velike količine teksta i pomoći analitičarima izdvojiti ključne detalje. To je važno u obavještajnim podacima, logistici i cyber obrani. DoD AI strategija ističe ciljeve poput bržih ciklusa odlučivanja i poboljšane situacijske svjesnosti. Claude stil modeli mogu sažimati izvještaje, klasificirati signale i predlagati tijekove akcije.
Pentagon također proučava generativnu AI za psihološke operacije i informacijske kampanje. Ova upotreba je kontroverzna, jer AI može generirati prilagođene poruke, lažne persone ili zavaravajuće narative u masovnim razmjerima. Mnogi obrambeni istraživači, poput onih u RAND-u i Centru za sigurnost i nove tehnologije, upozoravaju da generativna AI može supernapuniti informacijski rat. Te zabrinutosti pojavljuju se u izvještajima o AI i operacijama utjecaja te u široj analizi implikacija AI ratovanja.
Anthropicov fokus na sigurnost i transparentnost privlači dužnosnike koji se boje nesreća i javne reakcije. DoD je usvojio etička načela za umjetnu inteligenciju 2020., koja zahtijevaju da AI sustavi budu odgovorni, pravedni, sljedivi, pouzdani i upravljivi, prema službenom DoD dokumentu. Tvrtka koja ulaže u usklađenost i red teaming čini se sigurnijim partnerom od dobavljača koji obećava sirovu snagu bez kontrola. Za čelnike zadužene i za uspjeh misije i za javnu odgovornost, ova ravnoteža nije luksuz, to je zahtjev.
Isječak: Zašto Pentagon brine za Anthropicove AI modele?
Pentagon pokazuje interes za Anthropicove AI modele jer mogu brzo analizirati tekst, podržavati planiranje i donošenje odluka, te potencijalno pokretati nove cyber i informacijske operacijske alate. Anthropicova reputacija za sigurnost također je važna, jer se američka vojska suočava s pritiskom da implementira naprednu AI bez izazivanja katastrofalnih grešaka ili javne reakcije.
Kronologija: Kako je eskalirala kontroverza Anthropic-Pentagon “woke AI”
Ključni trenutci u raspravi Pentagon protiv Anthropic
Detalji oko specifičnih ugovora često se mijenjaju, ipak je veća kronologija jasna iz javnih izvještaja. Prolaženje kroz tu sekvencu pomaže pretvoriti bučni kulturni rat u skup razumljivih poteza institucija i tvrtki.
- 2021., Anthropic se formirao kao sigurnosno usmjerena alternativa postojećim laboratorijima, prema Anthropic blogu.
- Od 2018. do 2022., Pentagon je stvorio i razvio AI urede poput Zajedničkog centra za umjetnu inteligenciju i kasnije glavnog digitalnog i AI ureda, navedeno u DoD objavama.
- 2022. i 2023., američke agencije počele su pilotirati velike jezične modele za analizu dokumenata i kodiranje. Izvještaji iz medija poput Washington Posta i Wireda opisali su eksperimente kroz savezne odjele.
- Tijekom kasne Trump ere i u sljedećim godinama, politički govori počeli su napadati “woke” tehnološke tvrtke. Kritike moderacije sadržaja društvenih medija proširile su se na moderaciju AI izlaza, kako izvještavaju glavni mediji.
- 2023., mediji poput Wireda i Politica istaknuli su unutarnje vladine rasprave o generativnoj AI. Ti članci primijetili su zabrinutosti i o sigurnosnim rizicima i o percipiranoj pristranosti u izlazima modela.
- Kako se približavao izborni ciklus 2024., rasprave i op-edi uokvirili su AI
