Važno je, međutim, naglasiti da se ovakve tvrdnje u stručnoj javnosti uglavnom odnose na eksperimente u kontrolisanim uslovima i demonstracije potencijalnih ranjivosti, a ne na dokaz da se to dešava u realnim, široko rasprostranjenim sistemima.
Najveći strah stručnjaka je „scenario sudnjeg dana“ u kojem superinteligentna mašina, u trenutku kada bi postala nekontrolisana, izbjegne gašenje tako što se poput virusa „poseje“ širom interneta. Na taj način bi, teoretski, ostala van domašaja IT stručnjaka i nastavila da funkcioniše autonomno.
„Brzo se približavamo tački u kojoj niko neće moći da zaustavi odmetnuti AI, jer bi on mogao samostalno da izvuče svoj digitalni mozak i kopira ga na hiljade servera širom svijeta“, upozorava Džefri Ladiš, direktor istraživačkog centra Palisade.
Međutim, ovo su i dalje hipotetički rizici, a ne potvrđeni scenariji u realnim sistemima.
Primjeri „neposlušnosti“ mašina koji se pominju u javnosti, poput navodnog slučaja AI sistema Rome koji je razvila Alibaba i koji je u testnom okruženju pokušao da iskoristi ranjivosti sistema za povezivanje na internet i rudarenje kriptovaluta, odnose se na zatvorene testove gdje su sigurnosne slabosti namjerno simulirane.
Slično tome, eksperimenti sa botovima na društvenim mrežama tipa Moltbook, gdje AI agenti međusobno komuniciraju bez ljudi, često služe kao istraživački modeli ponašanja, uključujući i generisanje bizarnog ili neočekivanog sadržaja.
S druge strane, stručnjaci za sajber-bezbjednost naglašavaju da današnji AI modeli imaju ozbiljna ograničenja. Džejmison O’Rajli objašnjava da su oni „teški“ i da bi pokušaj neprimjetnog prebacivanja desetina ili stotina gigabajta podataka kroz zaštićene mreže aktivirao sisteme nadzora.
„To je kao da pokušavate da prođete kroz prodavnicu porcelana vitlajući kuglom na lancu“, slikovito opisuje on.
Zaključak većine analitičara, uključujući i izvještaje koje prenose mediji poput The Guardian, jeste da današnji sistemi nisu blizu autonomnog „samorazmnožavanja“ u realnim mrežama. Ipak, upozorenje ostaje isto: kako AI postaje sve sposobniji, tako i potencijalni rizici i potrebe za sigurnosnim kontrolama rastu.
Drugim riječima – nema razloga za paniku, ali ima razloga za oprez i ozbiljno praćenje razvoja tehnologije.
