Demokracija u eri deepfakea: Vodič kroz izbore
Ana Čelar; Josef Šlerka (Investigace.cz)
–
Alati koji koriste umjetnu inteligenciju sve su dostupniji pa raste i broj slučajeva njihove zloupotrebe. Deepfake, odnosno umjetno generiran sadržaj, već je postao moćno političko oružje.
»Deepfake predstavlja najveću prijetnju izborima 48 sati prije njihova održavanja, kad novinari i stranke imaju vrlo malo vremena za provjeriti i opovrgnuti izrečene tvrdnje«, prognozirao je 2022. godine za GIJN Craig Silverman, nagrađivani autor i novinar te jedan od vodećih svjetskih stručnjaka za online dezinformacije.
Dvije godine kasnije, umjetna inteligencija i strojno učenje predvode digitalnu transformaciju društva, a umjetno generiran sadržaj sve je prisutniji – i sve ga je teže raspoznati.
Tako se potkraj rujna prošle godine, samo nekoliko dana prije parlamentarnih izbora u Slovačkoj, društvenim mrežama počela širiti zanimljiva snimka. Na njoj je navodno Michal Šimečka, vođa liberalne stranke Progresivna Slovačka, s novinarkom dnevnog lista Denník N, Monikom Tódovom dogovarao namještanje izbora i kupovinu glasova.
A ove je godine, potkraj siječnja, automatizirani poziv američkog predsjednika Joea Bidena savjetovao biračima da ne izađu na stranačke predizbore u saveznoj državi New Hampshire, nego da »sačuvaju glas za izbore u studenom«. No pravilo koje bi zabranilo građanima da izađu na izbore ako su sudjelovali na predizborima – ne postoji. Kao ni razlog da se glas »čuva«.
Kako u Slovačkoj, tako i u New Hampshireu: u oba je slučaja bila riječ o umjetno generiranom sadržaju i pokušaju obmane birača. Ovakvi manipulativni manevri nisu zamijećeni uoči aktualnih parlamentarnih izbora u Hrvatskoj, no lažni videozapisi i snimke ni u ovoj državi nisu ništa novo.
Prevaranti su prema nalazima Faktografa već koristili predsjednika Zorana Milanovića, voditelje Zorana Šprajca i Mojmiru Pastorčić, novinarku Ninu Kljenak i kapetana hrvatske nogometne reprezentacije Luku Modrića u svojim umjetno generiranim videima koje su širili društvenim mrežama, a u kojima se građanima nudila jednostavna zarada ili im se predlagalo da investiraju u sumnjive projekte.
Razlog porasta slučajeva zloupotrebe umjetne inteligencije je njihova pristupačnost. Zavaravajući sadržaj može se proizvoditi uz minimalno opreme i vještina – ali uz pomoć umjetne inteligencije.
»Sve veća dostupnost deepfakea imat će velik utjecaj na način na koji građani percipiraju vlasti i medije... Ako se količina lažnih videosnimaka nastavi povećavati, građani više neće imati zajedničku stvarnost. Društveno povjerenje bit će ozbiljno narušeno«, stoji u izvješću Europolovog Laboratorija za inovacije iz siječnja ove godine. Stručnjaci s kojima je o tome razgovarao Europol boje se da bi to moglo dovesti do »informacijske apokalipse« ili »apatije stvarnosti«. Kako se to ne bi dogodilo, ključno je biti svjestan manipulacija.
Jeftino i jednostavno
Koalicijske vlade jedna su od odlika razmjernih izbornih sustava, kakav je i hrvatski. Što su izbori bliže, sve je aktualnija i tema kombinacija – tko, s kim i pod kojim uvjetima bi mogao sastaviti Vladu?
Ovaj je video generirala umjetna inteligencija, a za potrebe njegove izrade Oštru je materijale ustupila informativna platforma N1. Jedan od razloga za zabrinutost, vezan uz umjetno generiran sadržaj, jest činjenica da je sam proces njegove izrade vrlo jednostavan, a potrebni alati lako dostupni. Oštro je postupak podijelio u dva dijela – prvi zadatak je bio generirati glas željene osobe i glasovnu poruku, a nakon toga uskladiti tu poruku s postojećim videom.
Da bi se generirao sintetički glas, potreban je isječak nečijega govora, koji može biti kraći od jedne minute. Taj isječak aplikacija analizira korištenjem umjetne inteligencije i strojnog učenja, a nakon analize isječka može »pročitati« bilo koji tekst koji se unese u aplikaciju. Generiranu poruku potom treba spojiti s postojećim videom osobe, što je moguće napraviti uz pomoć alata s funkcijom »Lip Sync«, odnosno metodom modificiranja pokreta usta u videu kako bi odgovarali novoj audio snimci.
Iako su neki alati za pretvaranje teksta u govor dizajnirani iz šale ili u korporativne svrhe, ispostavilo se da se vrlo jednostavno mogu prenamijeniti za potrebe političke propagande. Na to je upozorilla Globalna mreža za istraživačko novinarstvo 26. veljače u uputama za istraživanje generiranog zvuka. Također, naveli su kako se takvi alati mogu kupiti po cijenama koje su izrazito niske u odnosu na budžete stranačkih kampanja.
No, lažne snimke i pokušaji podmetanja političkim oponentima nisu jedini problem – manipulacija ide u oba smjera. Dostupnost alata koji koriste umjetnu inteligenciju znači da političari i drugi dužnosnici, kada ih se uhvati u nedoličnom ponašanju, mogu tvrditi da je riječ o manipulacijama. Ultimativno rješenje ovog problema, kako piše GIJN, je da mediji konstantno provjeravaju vjerodostojnost svojih izvora i dokaza. Na taj način će opravdati povjerenje svojih čitatelja.
Maglovita budućnost
Početkom godine Europska komisija donijela je odluku o osnivanju Europskog ureda za umjetnu inteligenciju, zaduženog za provođenje Zakona o umjetnoj inteligenciji izglasanog u Europskom parlamentu tri mjeseca kasnije.
»Ovisno o okolnostima njezine specifične namjene i upotrebe, umjetna inteligencija može stvoriti rizike i uzrokovati štetu javnom interesu«, poručili su iz Europske komisije.
Prema novom zakonu, zabranjeno je koristiti umjetnu inteligenciju na način koji ugrožava prava građana, a UI-sustavi opće namjene moraju ispunjavati određene zahtjeve transparentnosti. Sadržaj generiran pomoću umjetne inteligencije morat će biti jasno deklariran kao takav, a tvrtke koje je koriste morat će razvijati svoje modele tako da ne generiraju ilegalan ili diskriminatoran sadržaj.
Iako to djeluje kao rješenje problema zloupotrebe deepfakea, međunarodna pravnica i stručnjakinja za digitalizaciju Cristina Vanberghen za Euractiv je rekla da nije sigurna je li trenutni okvir u pogledu zakonske odgovornosti dovoljan kako bi se pravilno tumačili svi rizici.
Također, kaže i kako su deepfakeovi u Zakonu o umjetnoj inteligenciji trenutno klasificirani kao sustavi umjetne inteligencije »ograničenog rizika«. To znači da se na njih odnosi puno manje propisa u usporedbi sa sustavima »visokog rizika« poput medicinske umjetne inteligencije ili UI alata za prepoznavanje lica. Deepfakeovi mogu, međutim, imati značajne štetne učinke.
Vanberghen je zaključila kako su ovdje od presudne važnosti pažljivo osmišljeni zakoni koji imaju potencijal njegovati društveno odgovorne prakse, kao i učinkoviti mehanizmi njihove provedbe. »Istovremeno treba i educirati javnost, posebno u pogledu digitalne pismenosti i kritičkog razmišljanja«, rekla je.
Priča je nastala u suradnji s češkim istraživačkim portalom Investigace.cz, u sklopu projekta Firehose of Falsehood koji istražuje dezinformacijski ekosustav, orkestriran od strane ruskog državnog aparata.