Zamislite sastanak Savjet za nacionalnu bezbjednost američkog predsjednika na kojem novi vojni savjetnik sjedi u jednoj od stolica – makar virtuelno, zbog toga što je ovaj savjetnik napredni sistem vještačke inteligencije (AI). To možda djeluje kao naučna fantastika, međutim Sjedinjene Države bi mogle u jednom trenutku u ne tako dalekoj budućnosti raspolagati kapacitetima za generisanje i upotrebu ove vrste tehnologije. AI savjetnik teško da će zamijeniti tradicionalne članove Nacionalnog savjeta bezbjednosti – koji se trenutno sastoji od sekretara odbrane, državnog sekretara i načelnika generalštaba. Međutim, prisustvo AI za tim stolom moglo bi imati neke fascinantne – i izazovne – posljedice za način na koji se odluke donose. Efekti bi mogli biti još značajniji kada bi SAD znale da i njihovi protivnici imaju na raspolaganju sličnu tehnologiju.
Kako bismo shvatili kako bi širenje vještačke inteligencije moglo uticati na proces donošenja odluka u oblasti nacionalne bezbjednosti na najvišim nivoima vlade, dizajnirali smo hipotetičku krizu u kojoj je Kina uvela blokadu Tajvanu, a zatim sastavili grupu tehnoloških i regionalnih eksperata da razmotre prilike i izazove koje bi uključivanje AI donijelo u takvom scenariju. Naročito smo istraživali kako širenje naprednih AI kapaciteta širom svijeta može uticati na brzinu procesa donošenja odluka, percepciju, pogrešnu percepciju, grupno razmišljanje i birokratsku politiku. Naši zaključci nijesu uvijek bili u skladu sa onim što smo očekivali.
Zbog toga što AI sistemi mogu biti u stanju da akumuliraju i sintetišu informacije brže od ljudi i identifikuju trendove u velikim skupovima podataka koje bi ljudima mogle promaći, oni mogu uštedjeti dragocjeno vrijeme za analizu nudeći ljudskim donosiocima odluka bolje informisanu osnovu za procjenu. Kao zamjenica sekretara odbrane Ketlin Hiks je u novembru 2023. tvrdila da “sistemi zasnovani na AI mogu pomoći u ubrzanju donošenja odluka od strane nadređenih i do poboljšanja kvaliteta i tačnosti tih odluka”.
Međutim, tokom diskusija u našoj radionici naglašeno je nekoliko načina na koji AI može funkcionisati i u suprotnom pravcu.
U realnosti, AI sistemi su dobri samo onoliko koliko su dobri podaci na koje se oslanjaju, a čak je i najbolji AI pristrasan, griješi i kvari se na neočekivane načine
Prvo, iako AI sistemi mogu pomoći u organizovanju i pretraživanju podataka, oni takođe proizvode više podataka. To znači da mogu postaviti isto toliko pitanja koliko i odgovora. Donosioci odluka u krizi morali bi da troše dragocjeno vrijeme na procjenu, integraciju i utvrđivanje vjerodostojnosti ovih dodatnih izvora podataka i drugih proizvoda AI sistema. Zapravo, tokom naše fiktivne krize na Tajvanu, kada smo našim stručnjacima ponudili hipotetičkog AI asistenta koji bi mogao pružiti različite moguće pravce vojne akcije i objasniti njihove vjerovatne posljedice, stručnjaci su odmah željeli da saznaju više o osnovnom AI sistemu kako bi mogli da tumače njegove preporuke. Trebalo im je da razumiju zašto sistem daje određene preporuke prije nego što bi mogli imati određeni stepen povjerenja u predložene akcije. Takođe su željeli da uporede AI preporuke sa tradicionalnijim izvorima informacija – naročito sa stvarnim ljudskim stručnjacima oko stola. To je značilo da je AI postao samo još jedan glas u procesu, koji je takođe morao da zadobije povjerenje donosioca odluka.
Širenje vještačke inteligencije moglo bi takođe usporiti donošenje odluka stvaranjem neizvjesnosti u vezi sa namjerama protivnika i primoravanjem kreatora politika da razmatraju da li i kako vještačka inteligencija može oblikovati akcije protivnika. Na primjer, deepfake video snimci mogu uticati na krizu na različite načine, kao što su lažni izvještaji u vijestima koji imaju za cilj da vrše pritisak na domaće javno mnjenje ili da prikriju operacije ili motive protivnika. Čak i ako kreatori politika potpuno odbace nekvalitetne ili sumnjive deepfake video snimke – što je razumna mogućnost s obzirom na ogromnu količinu lažnih informacija koje već postoje na društvenim mrežama – reakcija javnosti na napredne deepfake snimke mogla bi i dalje pojačati pritisak javnosti na Bijelu kuću za odlučnije akcije. Balansiranje između ovog javnog protesta i neizvjesnosti koja je sastavni dio okruženja sa širokom upotrebom vještačke inteligencije vjerovatno bi ometala brzo donošenje odluka.
U našem scenariju, na primjer, razmatrali smo reakciju javnosti na lažni snimak tajvanskog predsjednika kojeg hapse kineske bezbjednosne snage. Lako je uvidjeti kako jedan takav snimak, čak iako je namijenjen da ukaže na to da je Kina zadala odlučujući udarac u krizi, može odmah stvoriti pritisak na lidere u Kongresu da snažnije reaguju. Neizvjesnost u vezi sa autentičnošću snimka imajući u vidu napredne AI kapacitete Kine mogla bi zakomplikovati i usporiti procese donošenja odluka. Čak iako se dokaže da su zapaljive informacije lažne može biti prekasno da se zaustavi lavina zahtjeva javnosti, a donosioci odluka u oblasti nacionalne bezbjednosti bi se mogli naći u poziciji sa jako malo prostora za menevrisanje.
Kapacitet AI da uspori proces donošenja odluka mogao bi imati negativne posljedice ukoliko rezultira time da Sjedinjene Države izgube svoju inicijativu, zauzmu reaktivnu poziciju koja znači da su uvijek korak iza protivnika. Međutim takođe može imati prednosti.
Jedna od ovih prednosti je to što, kada se efikasno koriste, sistemi podržani vještačkom inteligencijom mogu preispitati osnovne pretpostavke lidera. Donosioci odluka u krizi vjerovatno ne bi bili voljni da svoju konačnu odluku prepuste AI asistentu, ali asistent bi i dalje mogao biti koristan ako bi mogao da ponudi nekonvencionalne ideje, da ponudi “crvenom timu” preferirane strategije ili da osigura da su donosioci odluka razmotrili sve glavne alternative ili ključne varijable. Kada su dizajnirani i korišćeni na ovaj način, AI sistemi bi mogli ojačati proces donošenja odluka razbijanjem grupnog razmišljanja kojem ljudi često pribjegavaju u vremenski ograničenim situacijama. Vještačka inteligencija bi takođe mogla pomoći u prevazilaženju zamki prilikom donošenju odluka, kao što su je sklonost pojedinaca da se fokusiraju na prve predstavljene opcije ili naklonjenost pojedinaca da daju prednost najsvježijim informacijama, širenjem opsega razmatranih opcija. Uključivanje i procjena dodatnih tokova akcija bili bi vremenski zahtjevni i mogli bi dodatno usporiti proces deliberacije, ali bi to moglo biti vrijedno truda ako bi rezultiralo boljim odlukama.
Nažalost AI bi takođe mogla imati suprotni uticaj u smislu ohrabrivanja grupnog razmišljanja, naročito u situacijama u kojima donosioci odluka imaju visok stepen povjerenja u kapacitete AI sistema. U toj situaciji, pretjerano povjerenje u tehnologiju u poređenju sa slabostima ljudskog uma može rezultirati time da se donosioci odluka priklone jednom stavu – onom AI-a. Nije teško zamisliti da bi, na primjer, jedan obavještajni analitičar mogao oklijevati da preispituje AI ukoliko se smatra da je sistem sveznajući. Jedan od naših eksperata je AI na sastanku savjeta nacionalne bezbjednosti uporedio sa situacijom u kojoj za stolom sjedi Henri Kisindžer. Drugim riječima, pritisak da se slože sa preporukama AI sistema mogao bi biti veliki i u grupnom okruženju, naročito u stisci sa vremenom, i to bi moglo rezultirati time da čak i najiskusniji eksperti sa najinovativnijim idejama ostanu po strani.
Jasno je da je to situacija koju treba izbjegavati, ali da bismo spriječili da AI preuzme glavnu riječ možda nije dovoljno samo zadržati čovjeka u procesu donošenja odluka.
AI Asistenti za donošenje odluka u oblasti nacionalne bezbjednosti ne bi bili neutralni u vezi sa ulogama glavnih agencija koje trenutno oblikuju ključne politike i druge odluke – Stejt dipartment, Ministarstvo odbrane i Obavještajna zajednica. Naprotiv, ovi sistemi bi mogli uticati na težinu i uticaj nekih od ovih agencija nauštrb drugih.
Pošto AI sisteme u velikoj mjeri oblikuju algoritmi i pretpostavke ugrađene u njih, oni će vjerovatno odražavati pristrasnosti njihovih kreatora, makar nenamjerno. Kao rezultat toga, birokratija koja razvija i koja je vlasnik sistema može dobiti veću moć u procesu donošenja odluka. AI asistent kojeg su stvorili Ministarstvo odbrane ili Obavještajna zajednica mogu preporučiti drugačiju vojnu akciju od one koju bi preporučio sistem koji je razvila agencija izvan te administracije.
To možda ne bi bio razlog za zabrinutost kada bi sve vladine agencije bile jednako dobro pozicionirane da razviju AI sisteme, ali to nije slučaj. Umjesto toga, birokratije koje raspolažu sa najviše sredstava će najvjerovatnije razviti najnaprednije i najsposobnije sisteme. Ukoliko to znači da Ministarstvo odbrane razvije i vlasnik je najmoćnije AI platforme, rezultat bi mogao biti veći uticaj odbrane na proces donošenja odluka tokom krize.
Pošto AI sistemi nude sistematične načine pregledanja velikih količina informacija za njih se često smatra da smanjuju pogrešna tumačenja. Međutim, tokom naših razgovora ukazano je na nekoliko razloga zašto to možda nije istina i istaknuti su načini i na koje neki izvori pogrešnih percepcija mogu biti pojačani širenjem vještačke inteligencije, što na kraju može da eskalira krizu.
U svom klasiku političkih nauka “Percepcija i pogrešna percepcija u međunarodnoj politici”, Robert Džervis tvrdi da ljudi imaju tendenciju da na akcije drugih gledaju kao na više centralizovane, koordinisane i namjerne nego što oni to zaista jestu. Kada je u pitanju AI, ova tendencija da se pretpostave namjere kojih zapravo nema može biti pojačana rasprostranjenim povjerenjem u tačnost AI alata.
Nije teško zamisliti da bi, na primjer, jedan obavještajni analitičar mogao oklijevati da preispituje AI ukoliko se smatra da je sistem sveznajući. Jedan od eksperata je AI na sastanku savjeta nacionalne bezbjednosti uporedio sa situacijom u kojoj za stolom sjedi Henri Kisindžer
Predstavili smo scenario u kojem donosioci odluka imaju obavještajne podatke koji ukazuju da je protivnik (u ovom slučaju Kina) uključio AI sistem duboko u proces donošenja odluka i iz tog procesa isključio ljude. Protivnik bi to mogao predstaviti kao način da pokaže posvećenost određenom toku akcije, kao što je spremnost za eskalaciju. U ovom slučaju, AI sistem može poslužiti kao vrsta mehanizma koji vezuje ruke, prethodno obavezujući protivnika na kinetičku akciju.
U tom scenariju, neizvjesnost zbog prisustva i uloge AI sistema značajno je našim ekspertima otežalo tumačenje namjera protivnika. Naročito je postalo nejasno da li je poteze protivnika odredila AI ili čovjek. U pravoj krizi, američki kreatori politika bilo bi vjerovatno jednako nesigurni da li su sa druge strane fizičkog ili virtuelnog polja mašine ili ljudi. Neizvjesnost povodom uloge i prisustva AI-a bi takođe otežala slanje i tumačenje signala, povećavajući rizik od pogrešnog tumačenja i loše procjene i stvarajući savršenu oluju za nenamjernu eskalaciju čak i u slučajevima kada bi obje strane više voljele da izbjegnu konflikt.
Na primjeru scenarija sa Tajvanom, procjene američkih donosioca odluka o tome da li AI donosi odluke za Peking mogla bi uticati na njihova tumačenja postupaka Kine i oblikovanja njihovog odgovora. Ukoliko donosioci odluka znaju da protivnik koristi AI sisteme, preovlađujuća tendencija bi vjerovatno bila posmatranje rizičnog ili agresivnog ponašanja kao namjernog dizajna tog sistema. Ukoliko se potezi protivničkog AI sistema automatski tumače kao namjerni, bez punog razmatranja alternativnih objašnjenja, šanse za eskalaciju rastu. Zapravo, odvojeni eksperiment koji su sproveli Majkl Horovic i Erik Luin Grinberg pokazao je upravo to: učesnici su bili spremniji na odmazdu kada je neprijateljsko oružje zasnovano na AI slučajno ubilo Amerikance nego kada je umiješan ljudski operator, pokazujući veću sklonost da oproste ljudsku grešku nego grešku mašina.
Naravno, u realnosti, AI sistemi su dobri samo onoliko koliko su dobri podaci na koje se oslanjaju, a čak je i najbolji AI pristrasan, griješi i kvari se na neočekivane načine. Na kraju, oni možda jesu precizniji od ljudskih eksperata, naročito u slučajevima kada je kontekst veoma važan. Količina prethodnog iskustva koju grupa donosioca odluka ima sa AI sistemom i to koliko je dobro obučena o njegovim kapacitetima mogli bi na kraju biti odlučujući faktor u tome da li su efekti AI-a korisni ili ne. Usljed toga, velika je potreba za obukom za korištenje ovih instrumenata, što je činjenica koja je sve više priznata u na primjer nacrtu političkih smjernica za upotrebu AI-a u vladi koji je izdala administracija predsjednika SAD Džoa Bajdena u novembru 2023.
Praktično iskustvo sa AI alatima i kapacitetima u procesu donošenja odluka može edukovati korisnike o ograničenjima takvih sistema, i unaprijediti njihovu vještinu i povjerenje da ih brzo i korisno primijene u situacijama kada su ograničeni sa vremenom.Takva obuka takođe može informisati potencijalne korisnike o kontekstima u kojima određeni AI alat dobro funkcioniše i o onima kada može omanuti uz objašnjenja, sprečavajući pogrešnu upotrebu koja može imati negativne ishode. Konačno, obuka koja uključuje informacije o protivničkim AI sistemima može pomoći donosiocima odluka da utvrde kapacitete i namjere protivnika, uključujući i to kako oni mogu stvoriti prilike i izazove.
Ovo početno istraživanje o uticaju širenja AI kapaciteta na proces odluka u kriznim situacijama identifikuje određene prilike, ali takođe i nekoliko rizika. Obuka može ublažiti neke od ovih rizika, ali AI će uvijek imati komplikovan odnos sa procesom donošenja odluka i sa donosiocima odluka – nikada to neće biti lako priključenje, niti će zamijeniti potrebu za tim da ljudi prave strateške izbore na visokom nivou ili da biraju između različitih izvora informacija.
Sve ovo doprinosi postojećim argumentima u korist napora za uspostavljanje neke vrste AI regulative slične režimu kontrole naoružanja – skup pravila i prihvatljivih upotreba koje bi uređivale razvoj i upotrebu AI između SAD i njihovih protivnika, naročito Kine. Imajući u vidu rizike i izazove koji se pojavljuju kako AI sistemi postaju sve uobičajeniji na i izvan bojnog polja, takav režim mogao bi imati stabilizujući efekat ukoliko bi mogao smanjiti dio neizvjesnosti koji uzrokuje pogrešna tumačenja.
Izazov će, naravno, biti usvajanje niza principa oko kojih se moraju usaglasiti sve relevantne strane kao i mehanizam za utvrđivanje usklađenosti. Ovaj izazov u velikoj mjeri pojačava činjenica da su lideri u AI inovacijama komercijalne firme, a ne vlade, kao i velika brzina kojom AI sistemi napreduju i evoluiraju. Bajdenova administracija napravila je nacrt politike kao smjernice za vojnu upotrebu AI-a i osnovala Institut za AI bezbjednost kako bi predvidjela i preduprijedila opasnu upotrebu AI tehnologije. Mada postoji određena vrsta usaglašenosti između SAD i njihovih ključnih saveznica oko ovih pitanja, da bi imao istinskog uticaja svaki režim kontrole AI oružja morao bi uključivati Kinu. Dva konkurenta su održali preliminarne razgovore o bezbjednosti i upravljanju vještačkom inteligencijom u maju 2024, međutim imajući u vidu zategnute odnose i ograničeni dijalog između Vašingtona i Pekinga teško da će doći do značajnijeg napretka u bliskoj budućnosti. Ipak, američki donosioci odluka treba da ovu temu forsiraju kadgod je to moguće sa partnerima koji su voljni da sarađuju.