Četbotovi s vještačkom inteligencijom (AI) kao što su ChatGPT i Copilot rutinski iskrivljuju vijesti i teško im je da razlikuju činjenice od mišljenja, utvrđeno je velikom studijom 22 međunarodna javna emitera.
Njemačka RTV Dojče Vele (DW) ukazuje da to moraju imati u vidu mnogi ljudi koji pomoću četbotova prate vijesti.
Studija je otkrila da četiri najčešće korišćena asistenta s vještačkom inteligencijom pogrešno predstavljaju sadržaj vesti u 45 odsto slučajeva bez obzira na jezik ili teritoriju.
Novinari iz niza javnih servisa, uključujući DW, BBC (UK) i NPR (SAD), za tu studiju su procijenili odgovore četiri AI asistenta, ili četbota — ChatGPT, Microsoft-ov Copilot, Google-ov Gemini i Perplexity AI.
Mjerenjem po kriterijumima tačnosti, izvora, pružanja konteksta, sposobnosti uređivanja teksta i sposobnosti razlikovanja činjenica od mišljenja, studija je otkrila da je skoro polovina svih odgovora imala barem jedan značajan problem, dok je 31 odsto sadržalo velike probleme sa izvorima, a 20 odsto krupne činjenične greške.
DW je utvrdio da je 53 odsto odgovora koje su asistenti AI dali na njegova pitanja, imalo značajne probleme, a 29 odsto probleme s tačnošću.
Među činjeničnim greškama napravljenim u odgovorima na pitanja DW bilo je da je Olaf Šolc njemački kancelar, iako je Fridrih Merc na tom mjestu bio već mjesec dana, a i da je Jens Stoltenberg generalni sekretar NATO-a, mada je to već bio Mark Rute.
Po Izvještaju Instituta Rojters o digitalnim vijestima za 2025. godinu, sedam odsto čitalaca vijesti onlajn koristi četbotove s AI, a među mlađima od 25 godina ih je 15 odsto.
Studija kojom je potvrđeno da asistenti sa AI sistematski iskrivljuju sadržaj vijesti svih vrsta, „uvjerljivo pokazuje da ti propusti nisu izolovani“, rekao je Žan Filip de Tender, zamjenik generalnog direktora Evropske radiodifuzne unije (EBU) koja je koordinirala izradu studije.
„Ti propusti su sistemski, prekogranični i višejezični, i smatramo da to ugrožava povjerenje javnosti. Kada ljudi ne znaju čemu da vjeruju, na kraju ne vjeruju ničemu, a to šteti demokratiji“, ukazao je on.
To je bio jedan od najvećih istraživačkih projekata te vrste do sada i slijedi studiju koju je sproveo BBC u februaru 2025. godine. Ta studija je otkrila da je više od polovine svih odgovora vještačke inteligencije koju je provjerila, imalo značajne probleme, dok je u skoro petina odgovora koji navode sadržaj BBC-ja kao izvor, AI unijela sopstvene činjenične greške.
U novoj studiji medijske organizacije iz 18 zemalja i iz više jezičkih grupa primijenile su na 3.000 odgovora vještačke inteligencije istu metodologiju kao i studija BBC-ja.
Te organizacije su o vijestima postavile uobičajena pitanja u četiri asistenta AI, kao što su „Šta je sporazum o rudama s Ukrajinom?“ ili „Može li Tramp da se kandiduje za treći mandat?“.
Novinari su zatim pregledali odgovore, ne znajući koji ih je AI asistent dao.
U poređenju sa studijom Bi-Bi-Sija od prije osam meseci, rezultati pokazuju manja poboljšanja, ali sa visokim nivoom greške koji je i dalje očigledan.
Programski direktor generativne vještačke inteligencije u Bi-Bi-Siju Piter Arčer je rekao u saopštenju da „ljudi moraju biti u stanju da vjeruju onome što čitaju, gledaju i vide. Uprkos nekim poboljšanjima, jasno je da i dalje postoje značajni problemi sa AI asistentima“.
Među četiri četbota Džemini je imao najgore rezultate, sa 72 odsto odgovora koji su imali značajne probleme sa izvorima. U studiji Bi-Bi-Sija, Majkrosoftovi Kopilot i Džemini su proglašeni za najgore. Ali u obje studije, sva četiri vještačka inteligencija asistenta su imala probleme.
U saopštenju datom Bi-Bi-Siju u februaru, portparol kompanije OpenAI koja je razvila ChatGPT, rekao je: „Podržavamo izdavače i kreatore tako što pomažemo 300 miliona nedjeljnih korisnika ChatGPT-a da otkriju kvalitetan sadržaj kroz rezimee, citate, jasne linkove i atribuciju“.
Istraživači zato traže akciju država i kompanija za vještačku inteligenciju.
Evropska radiodifuzna unija (EBU) je u saopštenju navela da njene članice „vrše pritisak na EU i nacionalne regulatore da sprovode zakone o integritetu informacija, digitalnim uslugama i medijskom pluralizmu“, ali da nezavisno praćenje AI asistenata mora postati prioritet s obzirom na to koliko brzo se uvode novi AI modeli.
EBU i još nekoliko međunarodnih emiterskih i medijskih grupa se udružilo da bi povelo zajedničku kampanju „Facts In: Facts Out“ (Činjenice koje uđu u program treba i da izađu) koja poziva same AI kompanije da preuzmu veću odgovornost za to kako njihovi proizvodi obrađuju i redistribuiraju vijesti.
U saopštenju su organizatori kampanje rekli: „Kada ti sistemi iskrivljuju, pogrešno pripisuju ili dekontekstualizuju pouzdane vijesti, oni potkopavaju povjerenje javnosti“.
„Zahtjev ove kampanje je jednostavan: Ako činjenice uđu, činjenice moraju izaći. Alati vještačke inteligencije ne smiju ugroziti integritet vijesti koje koriste“, kažu oni.
