Što je stvarnost, a što varka? U ovoj priči one će se miješati. Želimo samo pokazati kako u današnje vrijeme naprednih tehnologija nije dovoljno vjerovati svojim očima. Jer softver je uz malu pomoć čovjeka u stanju jedno lice zamijeniti drugim. U filmu Nema zemlje za starce glavnu ulogu glumi Javier Bardem. No, odjednom mu ulogu preotima Arnold Schwarzenegger. Tomu Hanksu je, pak, ulogu života oteo John Travolta i postao Forrest Gump. Dogodio se deepfake ili duboka prevara. A ako jedan glumac može postati drugi, možda bih i ja mogao postati premijer?
Ja nisam glumac, a
multimedijalni umjetnik Vedran Tomac
nikad se dosad nije bavio deepfakeom ali razumije se u
videotehnologiju i idemo vidjeti može li me pretvoriti u nikog
drugog već premijera Andreja Plenkovića. Vedran
se baca na posao pomoću besplatnog i svima dostupnog softvera.
Obično se profesionalni deepfakeovi rade tjednima. On ima samo
četiri dana.
''Program pregledava sve snimke koje smo napravili u studiju,
uspoređuje s Plenkovićevim snimkama koje smo skupili s YouTubea
što smo mogli kvalitetnije i program ekstrakta svako lice, svaki
izraz i uspoređuje ga s tvojim izrazima'', objašnjava
Tomac.
Potrebno je jako računalo koje može mapirati lice i u svakoj
sličici moga lica naći sličnu ekspresiju koju je pronašlo kod
premijera.
''Bilo koji mulac koji se želi potruditi i može napraviti
kojekakav kaos, ali da bismo mi dobili nešto čim vjernije ti
bi trebao biti obučen kao Plenković, skinuti geste, govor i sve,
a tu je i problem glasa. Tu bi trebao imitator koji može skinuti
glas, zna se odjenuti, zna geste i tu bismo dobili velik postotak
identičnosti. Tu se još malo kuži razlika'', objašnjava Tomac.
Već smo vidjeli da se nekome krade identitet putem lažnog
predstavljanja, krivotvorenja potpisa, lažiranja e-maila ili
slično, ali da je nekome ukradeno lice, potencijalno i glas, to
je nešto novo i jako zastrašujuće. Zamislite da netko napravi
nešto slično dva dana prije izbora, ali umjesto benigne poruke
političaru napakira nešto doista skandalozno? Dok bi ovaj
objasnio da to nije on, već bi bilo prekasno.
''Moglo bi se manipulirati javnošću. Moglo bi dovesti do toga da
više ne vjerujemo medijima zato što sve što se stavi u medije,
može se krivotvoriti. To mi se ne sviđa. Ne sviđa mi se mogućnost
da netko koristi tehnologiju da progura svoje ciljeve, da progura
svoju političku opciju ili da nekog konkurenta izbaci iz igre.
Takve stvari mi se ne sviđaju'', kaže Siniša Šegvić sa Zavoda za
računalne i inteligentne sustave na FER-u.
On se bavi računalnim učenjem i računalnim vidom i pokazuje što
na FER-u sad razvijaju. Kao i u slučaju deepfakea, i kod razvoja
autonomne vožnje računalu je potrebno mnogo podataka kako bi čim
bolje učilo. Primjer je to kako se duboko učenje prvenstveno
razvija u dobre namjene.
''Tehnologija je neutralna. Onaj tko to razvija sigurno mu nije
stalo do toga da vara ljude jer ako želiš varati
ljude ima lakših načina za zaradu od razvijanja
tehnologije i varanja njome ljudi. Danas znamo da
duboki modeli mogu dovesti do toga da omoguće nekome da
krivotvori sliku ili video i dobro je da se te mogućnosti istraže
i ispitaju prije nego što ta tehnologija postane dovoljno
razvijena da prouzroči stvarnu štetu''.
Šteta je već počinjena. Prva upotreba deepfakea bila je u
pornoindustriji kad su autori na tijela običnih glumica stavljali
lica poznatih osoba poput Scarlet Johansson i
time privukli milijune klikova zbog čega su danas takvi sadržaji
zabranjeni. Zamislite da netko u takav video stavi vaše lice i
snimku proširi uokolo, a to je nešto što djeca mogu raditi kako
bi napakostila jedni drugima ne razmišljajući o mogućim
posljedicama.
''Ako će to biti commodity u smislu da će
svaka osoba moći za relativno jeftine novce dobiti vrhunsku lažnu
snimku, moći ćete se osvećivati ženama, ljubavnicama, poslovnim
partnerima, konkurentskim firmama i ljudi će morati u značajnoj
mjeri promijeniti svoje ponašanje. Morat će napraviti minimalnu
dodatnu provjeru kako bi utvrdili autentičnost jer kroz idućih
par godina će biti normalno da to možete koristiti kao privatna
osoba protiv nekog drugog'', upozorava Tomislav Androić,
stručnjak za računalnu sigurnost.
Danas je primjera deepfake videa prepun internet i možda ste na neke već dosad nasjeli. Dobra je stvar što se još uvijek, čak i kod profesionalno napravljenih deepfakeova, tu i tamo vidi da je nešto malo čudno- ako gledamo doista pažljivo jer trenirani smo za čitanje lica od dana kad smo se rodili.
''Vidi se da nisu pravi. Pogotovo oko očiju jer nas oči oduvijek
interesiraju. Zanima nas što taj drugi hoće od nas, želi li nas
mlatnuti toljagom ili s nama pregovarati o ljetini. To je nama
bitno i zato mi skužimo da se te oči ne ponašaju prirodno. Ljudi
još uvijek mogu prepoznati deepfakeove i oni još nisu dovoljno
dobri da zeznu ljude. Oni su zabavni, gledali ste možda video
gdje Trump i Putin zajedno pjevaju Imagine, ali još uvijek nisu
tako dobri da mogu prevariti ljude'', ističe Šegvić.
Samo, dokad će to biti tako u svijetu zatrpanom selfijima koji
aplikacijama za deep mogu dati sav potreban materijal?
''Tim algoritmima je potreban jako velik izvor informacija. Što
više informacija mi tim algoritmima dajemo dobrovoljno, to je
veća mogućnost da će oni postojati bolji i da se u vrlo kratkom
roku neće moći razlikovati od stvarnih slika. To je ono što će
nam se dogoditi sigurno brže od 10, a vjerojatno u manje i od pet
godina, da će ti algoritmi postati takvi da ih ljudskim okom
nećete moći razlikovati'', upozorava Androić.
Kako je reporter Potrage Dario Todorović
nakratko postao premijer, ali i predsjednik Sabora, kako deepfake
postaje sve uvjerljiviji i opasniji pogledajte u video prilogu: