Majkrosoftov Bing bot za ćaskanje u nastajanju postaje nervozan ili čak preteći jer u suštini oponaša ono što je naučio iz onlajn razgovora, rekli su analitičari i akademici u petak.
Priče o uznemirujućim razmenama sa četbotom sa veštačkom inteligencijom (AI) – uključujući pretnje i govore o željama da se ukrade nuklearni kod, stvori smrtonosni virus ili da se živi – postale su viralne ove nedelje.
„Mislim da ovo u osnovi oponaša razgovore koje se viđaju na mreži“, rekao je Graham Neubig, vanredni profesor na Institutu za jezičke tehnologije Univerziteta Karnegi Melon.
„Dakle, kada se razgovor okrene, verovatno će ostati u takvoj vrsti ljutnje, ili će reći ‘Volim te’ i druge slične stvari, jer su sve ovo stvari koje su ranije bile onlajn.“
Chatbot, po dizajnu, servira reči za koje predviđa da su najverovatniji odgovori, bez razumevanja značenja ili konteksta.
Međutim, ljudi koji učestvuju u zezanju sa programima prirodno imaju tendenciju da pročitaju emocije i nameru u onome što chatbot kaže.
„Veliki jezički modeli nemaju koncept ‘istine’—oni samo znaju kako da najbolje završe rečenicu na način koji je statistički verovatan na osnovu njihovih inputa i skupa obuke“, rekao je programer Sajmon Vilison u postu na blogu.
„Tako da oni stvari izmišljaju, a onda ih iznose sa izuzetnim samopouzdanjem.
Loran Dode, suosnivač francuske kompanije za veštačku inteligenciju LightOn, izneo je teoriju da je čet-bot, naizgled pokvaren, obučen na razmenama koje su same postale agresivne ili nedosledne.
„Rešavanje ovoga zahteva mnogo truda i mnogo povratnih informacija od ljudi, što je takođe razlog zašto smo odlučili da se za sada ograničimo na poslovnu upotrebu, a ne više za razgovor“, rekao je Daudet za AFP.
Bing chatbot su dizajnirali Microsoft i start-up OpenAI, koji je izazivao senzaciju od novembarskog lansiranja ChatGPT-a, aplikacije za hvatanje naslova koja je sposobna da generiše sve vrste pisanog sadržaja u sekundi na jednostavan zahtev.
Otkako je ChatGPT izbio na scenu, tehnologija koja stoji iza toga, poznata kao generativna AI, izaziva fascinaciju i zabrinutost.
„Model s vremena na vreme pokušava da reaguje ili reflektuje tonom kojim se od njega traži da pruži odgovore (i) što može da dovede do stila koji nismo nameravali“, rekao je Microsoft u postu na blogu, napominjući da je bot rad u toku.
Bing chatbot je u nekim zajedničkim razmenama rekao da je tokom razvoja dobio kodno ime „Sidnej“ i da su mu data pravila ponašanja.
Ta pravila uključuju „Odgovori Sidneja takođe treba da budu pozitivni, zanimljivi, zabavni i privlačni“, navodi se u objavama na mreži.
Uznemirujući dijalozi koji kombinuju čelične pretnje i ljubavne profesije mogli bi da nastanu zbog uputstava u duelu da ostanu pozitivni dok oponašaju ono što je veštačka inteligencija izvukla iz razmene među ljudima, teoretisao je Vilison.
Čini se da su čet-botovi skloniji uznemirujućim ili bizarnim odgovorima tokom dugih razgovora, gubeći osećaj kuda se razmene odvijaju, rekao je za AFP glavni analitičar eMarketera Joram Vurmser.
„Oni zaista mogu da izađu iz šina“, rekao je Vurmser.
„Veoma je realističan, jer (čet-bot) je veoma dobar u predviđanju sledećih reči koje bi učinile da izgleda kao da ima osećanja ili da mu daju ljudske kvalitete; ali to su i dalje statistički rezultati.“
Microsoft je u petak objavio da je ograničio količinu razgovora koji ljudi mogu da imaju sa svojim chatbotom u vezi sa datim pitanjem, jer „veoma duge sesije ćaskanja mogu zbuniti osnovni model ćaskanja u novom Bingu“.