Fotografija snimljena 13. siječnja 2025. u Toulouseu prikazuje ekrane sa logom Groka i vlasnika platforme X Elona Muska (AFP / Lionel BONAVENTURE)

Hej chatbote, je li ovo istina? AI 'provjere činjenica' šire dezinformacije

Dok su se dezinformacije širile tijekom četverodnevnog sukoba Indije i Pakistana, korisnici društvenih mreža okrenuli su se AI chatbotu za provjeru - samo da bi naišli na još više neistina, što je naglasilo njegovu nepouzdanost kao alata za provjeru činjenica.

S obzirom na to da tehnološke platforme smanjuju broj ljudi koji provjeravaju činjenice, korisnici se sve više oslanjaju na chatbotove pogonjene umjetnom inteligencijom - uključujući xAI-jev Grok, OpenAI-jev ChatGPT i Googleov Gemini - u potrazi za pouzdanim informacijama.

"Hej @Grok, je li ovo istina?" postalo je uobičajeno pitanje na platformi X Elona Muska, gdje je ugrađen AI asistent, što odražava rastući trend traženja brzog opovrgavanja tvrdnji na društvenim mrežama.

Međutim, odgovori su često puni dezinformacija.

Grok - sada pod novom pažnjom zbog umetanja "bijelog genocida," krajnje desničarske teorije zavjere, u nepovezane upite (arhivirano ovdje) - pogrešno je identificirao stare snimke sa sudanskog aerodroma u Khartoumu kao raketni napad na pakistansku zračnu bazu Nur Khan tijekom nedavnog sukoba države s Indijom.

Nepovezana snimka zgrade u plamenu u Nepalu netočno je identificirana kao da "vjerojatno" prikazuje pakistanski vojni odgovor na indijske napade.

"Rastuće oslanjanje na Groka kao alata za provjeru činjenica dolazi u trenutku kada su X i druge velike tehnološke tvrtke smanjile ulaganja u novinare za provjeru činjenica," rekla je za AFP McKenzie Sadeghi, istraživačica iz organizacije NewsGuard, koja se bavi nadzorom dezinformacija.

"Naše istraživanje pokazalo je više puta da AI chatbotovi nisu pouzdani izvori vijesti i informacija, posebno kada su u pitanju najnovije vijesti," rekla je.

'Izmišljeno'

Istraživanje NewsGuarda pokazalo je da je 10 vodećih chatbotova sklono ponavljanju neistina, uključujući ruske dezinformacijske narative i netočne ili obmanjujuće tvrdnje povezane s nedavnim australskim izborima (arhivirano ovdje).

U nedavnom istraživanju osam alata umjetne inteligencije za pretraživanje, Tow centar za digitalno novinarstvo na Sveučilištu Columbia zaključio je da su chatbotovi "općenito loši u odbijanju davanja odgovora na pitanja na koja nisu mogli točno odgovoriti i umjesto toga nude netočne ili spekulativne odgovore" (arhivirano ovdje).

Kada su novinari za provjeru činjenica AFP-a u Urugvaju pitali Gemini o slici žene generirane umjetnom inteligencijom, on nije samo potvrdio njezinu autentičnost, već je i izmislio detalje o njezinom identitetu i mjestu gdje je slika vjerojatno snimljena.

Grok je nedavno označio navodnu snimku divovske anakonde koja pliva u rijeci Amazon kao "autentičnu," čak navodeći vjerodostojne znanstvene ekspedicije kako bi potkrijepio svoju netočnu tvrdnju.

AFP-ovi novinari za provjeru činjenica u Latinskoj Americi izvijestili su da je snimka je generirana umjetnom inteligencijom, napominjući da su mnogi korisnici naveli Grokovu procjenu kao dokaz da je isječak stvaran.

Takvi nalazi izazvali su zabrinutost jer ankete pokazuju da se korisnici interneta sve više prebacuju s tradicionalnih tražilica na AI chatbotove za prikupljanje i provjeru informacija.

Do promjene dolazi i nakon što je Meta ranije ove godine objavila da ukida svoj program provjere činjenica od trećih strana u Sjedinjenim Državama, prepuštajući zadatak razotkrivanja netočnih tvrdnji običnim korisnicima prema modelu poznatom kao "napomene zajednice," kojeg je popularizirao X (arhivirano ovdje).

Istraživači su više puta doveli u pitanje učinkovitost "napomena zajednice" u borbi protiv neistina.

'Pristrani odgovori'

Ljudsko provjeravanje činjenica dugo je bilo žarište u hiperpolariziranoj političkoj klimi, posebno u Sjedinjenim Državama, gdje konzervativni komentatori tvrde da ona potiskuje slobodu govora i cenzurira desničarski sadržaj - nešto što profesionalni novinari za provjeru činjenica svesrdno odbacuju.

AFP trenutačno radi na 26 jezika s Facebookovim programom provjere činjenica, uključujući Aziju, Latinsku Ameriku i Europu.

Kvaliteta i točnost AI chatbotova mogu varirati ovisno o tome kako su obučeni i programirani, što izaziva zabrinutost da bi njihov rezultat mogao biti podložan političkom utjecaju ili kontroli.

Muskov xAI nedavno je okrivio "neovlaštenu modifikaciju" za uzrok da Grok generira netražene objave koje spominju "bijeli genocid" u Južnoj Africi.

Kad je stručnjak za umjetnu inteligenciju David Caswell pitao Groka tko je mogao izmijeniti njegov sistemski upitnik, chatbot je imenovao Muska kao "najvjerojatnijeg" krivca.

Musk, južnoafrički milijarder koji podržava predsjednika Donalda Trumpa, prethodno je iznosio neutemeljenu tvrdnju da južnoafrički čelnici "otvoreno potiču genocid" nad bijelcima.

"Vidjeli smo kako AI asistenti mogu izmisliti rezultate ili dati pristrane odgovore nakon što ljudski programeri posebno promijene njihove upute," rekla je za AFP Angie Holan, direktorica Međunarodne mreže za provjeru činjenica (IFCN).

"Posebno sam zabrinuta zbog načina na koji je Grok pogrešno postupao sa zahtjevima koji se tiču vrlo osjetljivih pitanja nakon što je primio upute za davanje unaprijed odobrenih odgovora."

Vidjeli ste sumnjivu informaciju na društvenim mrežama?

Kontaktirajte nas