Deepfake filmovi su delovali kao interesantna novost u kojoj je veštačka inteligencija mogla da generiše uverljive video-simulacije poznatih ličnosti ili običnih ljudi. Sve bi bilo super da mi ljudi nismo skloni zloupotrebi svega što se može zloupotrebiti…
Deepfake se sve više koristi za namerno širenje lažnih informacija. Vrlo lako mogu da uznemire, zastraše ili ponize ljude koje predstavljaju. Pogotovo je to problem ako se radi o važnim pitanjima koja imaju socijalan ili politički značaj na širu javnost. Deepfake tehnologija može podstaći druge neetičke radnje, kao što je izrada osvetničke pornografije. Svi smo svedoci lokalnog primera zloupotrebe u slučaju „Mitrović-Kusturica“. Najveći problem se ovde javlja što nema još zakona koji bi regulisao domete deepfake-a.
Kada je deepfake pozitivno moćan
U IT industriji, ali i šire, deepfake tehnologija dobija sve veću pažnju iz različitih razloga, a neki od njih su:
Zabava i marketing: Mnogi brendovi i kreatori sadržaja koriste deepfake za viralne kampanje ili personalizovane video-snimke. Slučaj s deepfake-om Arnolda Švarcenegera u humorističkim skečevima ili re-kreacijama starih filmova sa može da bude moćan marketinški alat.
Kreativna industrija: Često se koristi kako bi se oživeli preminuli glumci ili stvorile mlade verzije starijih glumaca, što je moglo da se vidi u velikim blokbasterima. Ova praksa donosi potpuno novu dimenziju vizuelnoj umetnosti i produkciji, ali sa sobom, naravno, nosi i etičke dileme koje su predmet rasprave.
Obuka i edukacija: Deepfake se sve češće koristi i u edukativne svrhe. Na primer, istorijski likovi mogu da se ožive kako bi održali lekcije, što svakako može da pomogne u boljem razumevanju prošlih vremena i podstakne interaktivnost.
Istraživanje koje je osmišljeno da pomogne u otkrivanju deepfake-a na kraju pomogne da deepfake tehnologija postane još efektnija
Na tamnoj strani
S velikom moći dolazi i velika odgovornost. Tehnologija je otvorila vrata za inovacije, ali je pokrenula ozbiljna pitanja o etici i privatnosti. Deepfake se sve češće koristi za:
Dezinformacije: Političari su često meta deepfake videa u kojima su prikazani kako izgovaraju ili rade nešto što nikada nisu uradili. Ovo može izazvati političke krize ili narušiti poverenje javnosti u medije.
Sajbernasilje i zloupotreba: Pojavom deepfake pornografije, mnoge žene postaju žrtve digitalnih napada, kao što je to nedavno bio slučaj sa Taylor Swift.
Krađa identiteta: Zbog sposobnosti deepfake tehnologije da uverljivo simulira lica i glasove, lako se mogu koristiti za finansijske prevare, socijalni inženjering i lažno predstavljanje.
Ima li tu zakona?
Kako bi se izborile sa zloupotrebama deepfake tehnologije, mnoge zemlje pokušavaju da donesu zakone koji će regulisati njenu upotrebu. Iako postoji potreba za zaštitom privatnosti i sprečavanjem zloupotreba, izazov je pronaći balans između slobode izražavanja i sigurnosti. U SAD, pojedine države su već uvele zakone koji kriminalizuju korišćenje deepfake tehnologije za obmanjivanje ili klevetanje, dok Evropa radi na usklađivanju pravnih okvira kroz GDPR i druge inicijative.
Zakon o bezbednosti na mreži Velike Britanije, usvojen prošle godine, proglasio je nezakonitim deljenje eksplicitnih slika ili video-zapisa koji su digitalno manipulisani. Međutim, ovo se primenjuje samo u okolnostima u kojima su namerno ili bezobzirno izazvali uznemirenost pojedinca. Zakon ne sprečava stvaranje deepfake pornografskih lažnjaka ili njihovo deljenje.
Iako postoji potreba za zaštitom privatnosti i sprečavanjem zloupotreba, izazov je pronaći balans između slobode izražavanja i sigurnosti
Prema Zakonu o veštačkoj inteligenciji EU (AI act), sistemi koji generišu ili manipulišu slikama, audio ili video sadržajem moraju da ispune minimalne standarde transparentnosti. Provajderi usluga moraju da obaveste korisnike kada su u interakciji sa AI sistemom, osim ako je to očigledno. Svi ti zakoni su daleko od savršenog, ali je važno da se ide prema zaštiti pojedinaca od vrlo ozbiljnih zloupotreba
Kako da detektujete lažnjak?
Otkrivanje deepfake-a postaje sve teže jer tehnologija koja ih stvara postaje sve sofisticiranija. Istraživači u SAD su 2018. pokazali kako detektovati deepfake na osnovu nerealnog treptanja (ili lica koja uopšte i ne trepću). Čim je studija objavljena, kreatori deepfake-a su počeli da popravljaju nedostatke, što je dodatno otežalo otkrivanje. Istraživanje koje je osmišljeno da pomogne u otkrivanju deepfake-a na kraju pomogne da se deepfake tehnologija učini boljom, što je nekako logično jer AI tehnologija zasnovana na mašinskom učenju zapravo uči iz grešaka.
Verujem da ćemo u jednom trenutku dobiti antideepfake program koji će moći da detektuje lažni video ili drugi sadržaj. Kao što je to nekada bio antivirusni program za kompjuter. Do tada, budite srećni što niste dovoljno poznati da vas fejkuju, a ako slučajno jeste… držite se!