Američki predsjednik Joe Biden salutira dok se ukrcava u Air Force One u zračnoj bazi Dover u državi Delaware, 2. veljače 2024. ( AFP / Roberto SCHMIDT)

Bidenov robotski poziv: Deepfake audio potaknuo je strahove od izbornih dezinformacija

  • Objavljeno 27. veljače 2024. u 13:00
  • Ažurirano 29. travnja 2024. u 10:12
  • Minuta potrebno za čitanje: 3
  • Autor: AFP SAD
  • Prijevod i prilagodba Nikola KIS
Utrka za Bijelu kuću 2024. suočava se s mogućnošću gomile dezinformacija omogućenih umjetnom inteligencijom, a robotski poziv koji oponaša američkog predsjednika Joea Bidena već je izazvao posebnu uzbunu zbog audio deepfakeova.

"Kakva hrpa gluposti," rekao je u telefonskoj poruci digitalno lažirani Bidenov glas dok je ponavljao jednu od njegovih fraza.

Robotski poziv je pozvao stanovnike New Hampshirea da ne glasaju na predizborima Demokratske stranke u siječnju 2024., što je natjeralo državne vlasti da pokrenu istragu o mogućem potiskivanju glasača.

To je također potaknulo zahtjeve aktivista za strožim ogradama oko alata generativne umjetne inteligencije ili potpunom zabranom robotskih poziva.

Istraživači dezinformacija strahuju od neobuzdane zlouporabe aplikacija koje pokreće umjetna inteligencija u ključnoj izbornoj godini zahvaljujući sve brojnijim alatima za kloniranje glasa koji su jeftini i jednostavni za korištenje te im je teško ući u trag.

"To je svakako vrh ledenog brijega," rekao je za AFP Vijay Balasubramaniyan, izvršni direktor i suosnivač tvrtke za kibernetičku sigurnost Pindrop.

"Možemo očekivati da ćemo vidjeti mnogo više deepfakeova tijekom ovog izbornog ciklusa."

Detaljna analiza koju je objavio Pindrop kaže da je za kreiranje Bidenovog robotskog poziva korišten sustav pretvaranja teksta u govor kojeg je razvio startup za kloniranje glasa umjetnom inteligencijom ElevenLabs.

Skandal je eruptirao dok aktivisti s obje strane američke politike koriste napredne AI alate za učinkovito slanje poruka u kampanji i dok tehnološki investitori upumpavaju milijune dolara u startupe za kloniranje glasa.

Balasubramaniyan je odbio reći je li Pindrop podijelio svoja otkrića s ElevenLabsom, koji je prošlog mjeseca najavio krug financiranja od investitora koji su, prema Bloomberg Newsu, tvrtku procijenili na 1,1 milijardu dolara.

ElevenLabs nije odgovorio na ponovljene zahtjeve AFP-a za komentar. Njihova web stranica vodi korisnike do besplatnog generatora teksta u govor za "trenutno stvaranje prirodnih AI glasova na bilo kojem jeziku."

Prema svojim sigurnosnim smjernicama, tvrtka je rekla da je korisnicima dopušteno generirati glasovne klonove političkih osoba poput Donalda Trumpa bez njihova dopuštenja ako "izražavaju humor ili ruganje" na način koji "slušatelju jasno daje do znanja da je ono što čuju parodija, a ne autentičan sadržaj."

'Izborni kaos'

Američki regulatori razmatraju mogućnost da robotske pozive generirane umjetnom inteligencijom učine nezakonitima, a lažni Bidenov poziv dao je novi poticaj tim naporima.

"Politički deepfake trenutak je ovdje," rekao je Robert Weissman, predsjednik zagovaračke skupine Public Citizen.

"Kreatori politike moraju požuriti s uvođenjem zaštite ili se suočavamo s izbornim kaosom. Deepfake iz New Hampshirea podsjetnik je na mnoge načine na koje deepfakeovi mogu sijati pomutnju," rekao je Weissman 22. siječnja 2024.

Istraživači su zabrinuti zbog utjecaja alata umjetne inteligencije koji stvaraju videozapise i tekstove koji su naizgled toliko stvarni da je biračima teško razaznati istinu od fikcije, što potkopava povjerenje u izborni proces.

Ali audio deepfakeovi koji se koriste za oponašanje ili blaćenje slavnih osoba i političara diljem svijeta izazvali su najviše zabrinutosti.

"Od svih medija - video, slika, audio - na kojima se umjetna inteligencija može koristiti za suzbijanje glasača, audio je najveća ranjivost," rekao je za AFP Tim Harper, viši politički analitičar u Centru za demokraciju i tehnologiju.

"Lako je klonirati glas pomoću umjetne inteligencije, a teško je to identificirati."

'Integritet izbora'

Lakoća stvaranja i širenja lažnog audio sadržaja komplicira već hiperpolarizirani politički krajolik, potkopavajući povjerenje u medije i omogućavajući svakome da tvrdi da su "dokazi utemeljeni na činjenicama fabricirani," rekao je za AFP Wasim Khaled, izvršni direktor Blackbird.AI-ja.

Takve su zabrinutosti raširene jer proliferacija AI audio alata nadmašuje softver za otkrivanje.

Kineski ByteDance, vlasnik izuzetno popularne platforme TikTok, nedavno je predstavio StreamVoice, AI alat za pretvaranje glasa korisnika u bilo koju željenu alternativu u stvarnom vremenu.

"Iako su napadači ovaj put koristili ElevenLabs, vjerojatno će to biti drugačiji generativni AI sustav u budućim napadima," rekao je Balasubramaniyan.

"Ključno je da u tim alatima postoji dovoljno zaštitnih mjera."

Balasubramaniyan i drugi istraživači preporučili su ugradnju audio vodenih žigova ili digitalnih potpisa u alate kao moguću zaštitu, kao i propise koji ih čine dostupnima samo provjerenim korisnicima.

"Čak i uz te radnje, otkrivanje kada se ti alati koriste za generiranje štetnog sadržaja koji krši vaše uvjete pružanja usluge zaista je teško i vrlo skupo," rekao je Harper.

"(To) zahtijeva ulaganje u povjerenje i sigurnost te predanost izgradnji s izbornim integritetom prepoznatim kao rizikom."

Članak je dopunjen dodavanjem meta podataka.
29. travnja 2024. Članak je dopunjen dodavanjem meta podataka.

Vidjeli ste sumnjivu informaciju na društvenim mrežama?

Kontaktirajte nas