Fotografija kao lažna vest: Kao papa u puf jakni

Foto: Ivana Kragilj (NUNS). Izvor: Novi magazin
Lažna vest ne mora da bude tekst – može da bude i fotografija koja izgleda potpuno stvarno.
Od pape u puf jakni do „uhapšenog Trampa“, generisane slike i dipfejk video snimci preplavljuju internet i ozbiljno testiraju kapacitete medija da razlikuju istinu od manipulacije. U eri veštačke inteligencije, granica između stvarnog i izmišljenog postaje sve tanja – a odgovornost novinara sve veća.
Veštačka inteligencija danas može da stvori vizuelni sadržaj koji izgleda potpuno uverljivo – ali koji zapravo nikada nije zaista postojao. Dva najčešća oblika takvog sadržaja su dipfejk video-snimci i AI generisane fotografije.
Deepfake (skraćeno od deep learning + fake) su video ili audio zapisi u kojima se nečije lice, glas ili pokreti manipulišu pomoću algoritama mašinskog učenja. Cilj je da osoba na snimku izgleda i zvuči kao da je nešto rekla ili uradila – iako nikada nije. Ovi snimci su sve sofisticiraniji i sve teže ih je razlikovati od autentičnih, naročito kad se distribuiraju bez konteksta.
S druge strane, AI generisane slike nastaju uz pomoć tzv. generativnih modela (poput Midjourney, DALL·E ili Stable Diffusion), koji na osnovu tekstualnog opisa stvaraju potpuno nove fotografije. Ove slike mogu prikazivati događaje koji se nikada nisu dogodili, ljude koji ne postoje ili čak realne osobe u lažnim situacijama.
Za detekciju veštačke inteligencije posao olakšavaju i mnogi onlajn alati i softveri, poput InAID, FotoForensics, TinEye, Hive Moderation, Sensity AI ili DeepWare Scanner.
Tri osnovna alata koje novinari FakeNews Tragača koriste su DeepWare Scanner, inAID verify i softver BioID Playground, ali Koledin napominje da ipak nijedan nije u potpunosti pouzdan.
MOŽE BITI I KORISNO: Ako je ovakav sadržaj jasno označen, on može biti koristan u primeni u umetnosti, marketingu ili edukaciji. Međutim, korišćenje ovih alata u novinarstvu nosi ozbiljne rizike – posebno kada se lažni sadržaji predstavljaju kao autentični dokazi.
„Dipfejk je sadržaj koji je nastao uz pomoć veštačke inteligencije i pod tim prvenstveno mislim na fotografije, video snimke i audio zapise“, objašnjava novinarka FakeNews Tragača Teodora Koledin: „Ono kako se taj sadržaj razlikuje od standardnih, odnosno, manipulacija na koje smo navikli, jeste upravo po tome kako je kreiran, jer ga je kreirala veštačka inteligencija na osnovu određenog korpusa znanja na koji se ona bazira, a standardna manipulacija je uglavnom kreirana ručno ili polautomatski, gde imamo osobu koja sedne za računar, otvori neki program, recimo Fotošop i onda kreira neku manipulaciju. I ono po čemu se takođe razlikuje, barem danas, jeste da je nekako dipfejk zapravo i teže prepoznatljiv nego ta standardna manipulacija.“
Upotreba dipfejka i AI generisanih slika dozvoljena je i korisna ako se upotrebljava u ilustrativne ili umetničke svrhe. Međutim, na ovakav sadržaj možemo naići i u političkoj propagandi, teorijama zavere ili lažnim izveštajima i tada je svrha upotrebe manipulacija.
Kako novinari treba da postupe ako posumnjaju da je neki sadržaj napravljen uz pomoć veštačke inteligencije?
U digitalnoj eri, kada se vesti šire brže nego ikad i kada publika informacije često konzumira vizuelno, sve teže je razlikovati autentičan vizuelni sadržaj od veštački generisanog. Zbog toga, kako kaže Teodora Koledin, najbolje je ne objaviti sadržaj ukoliko posumnjamo da je generisan uz pomoć veštačke inteligencije ili je u pitanju dezinformacija: „Trebalo bi, da se recimo prvo (novinari) konsultuju sa kolegama ukoliko sami nisu dovoljno upoznati sa tom temom. Ali svakako danas, mislim da je važno da se svaki novinar ponaosob edukuje pogotovo o principima veštačke inteligencije, o sadržaju koji je generisan uz pomoć nje i prosto i sam da se upozna sa tim nekim alatima koji mogu olakšati proveru.“
Dakle, uloga novinara više nije samo da proverava činjenice – već i autentičnost fotografija i video zapisa, a bez novih znanja, alata i etičkih smernica, rizikuju da izgube poverenje publike.
ZLOUPOTREBA: Na domaćoj sceni poznat je slučaj zloupotrebe dipfejka na televiziji Pink, kada je u centralnoj informativnoj emisiji emitovano nekoliko AI generisanih video priloga u kojima su glavni akteri bili opozicioni političari, koji su stavljeni u manipulativan i zlonameran kontekst.
Koledin posebno izdvaja korišćenje dipfejka u prevarantskim oglasima. Za otkrivanje lažnog audio ili vizuelnog sadržaja ponekad je dovoljno samo pažljivo poslušati ili pogledati sadržaj. Postoji više „signala za uzbunu“ koji ukazuju da na to da je video napravljen uz pomoć AI.
„Tako recimo, imamo neprirodno pomeranje usana kada govornik priča, imamo neku čudnu mimiku, potpuno izostajanje emocija dok govornik priča, ukoliko se naravno radi o snimcima. Zatim, dešavalo se da neki delovi tela bukvalno u jednom trenutku nestanu, čudno se pomeraju i tako dalje“, objašnjava Teodora Koledin.
Kada su u pitanju fotografije, novinarka FakeNews Tragača kaže da treba da obratimo pažnju na sitne detalje.
„Što se tiče fotografija, to već znamo da veštačka inteligencija, na primer, često greši kada je broj prstiju u pitanju, da tu bude neki prst više ili prosto neki sitni detalji koji nisu logični. Ponekad greši u proporcijama stvari. Takođe ne obraćamo posebno pažnju na pozadinu fotografije. Tako da, eto postoje ti neki sitni znaci da je možda nešto generisano uz pomoć veštačke inteligencije, ali potrebno je dobro analizirati konkretan sadržaj“, pojašnjava sagovornica.
Tekst je prenet sa portala Novi magazin.