Kada tehnologija izmakne kontroli

U digitalnom dobu u kom živimo tehnologije poput veštačke inteligencije postale su deo svakodnevnice. Nesumnjivo, jedan od najkontraverznijih proizvoda AI doba svakako su deepfake tehnologije – foto, video ili audio sadržaji koji mogu da učine da bilo ko kaže ili uradi bilo šta, bez da je to ikada zaista izgovorio ili učinio. Na prvi pogled, može da deluje i zabavno. Ipak, realnost je znatno mračnija.

Piše: Jovana Trifunović, konsultant u Egzakta Advisory

Termin deepfake je nastao 2017. godine, kada je korisnik Reddit-a sa pseudonimom u/deepfakes počeo da objavljuje video klipove u kojima su lica poznatih osoba, najčešće glumica, umetnuta u pornografske sadržaje. Popularnost ovih materijala rasla je tolikom brzinom da je ubrzo nastao i poseban subreddit kanal pod nazivom r/deepfakes, koji je za samo dva meseca okupio preko 50.000 pratilaca. Ubrzo su meta postale i osobe nepoznate široj javnosti i kanal je na kraju ukinut zbog kršenja pravila zajednice. Iako su ti rani deepfake-ovi, zbog tadašnje ograničene tehnologije, bili tehnički nesavršeni i u poređenju sa današnjim standardima gotovo naivni, još tada se moglo zaključiti da korišćenje tehnologije u ove svrhe nije benigno. Ipak, to nije sprečilo zloupotrebu deepfake alata, naprotiv, broj deepfake videa je, za svega nekoliko godina, odnosno od 2019. do 2023. godine zabeležio rast od oko 550% (Security hero), dok danas govorimo o stotinama hiljada deljenih sadržaja, od kojih je ogroman broj namenjen prevari, manipulaciji i/ili sramoćenju i diskreditaciji pojedinaca.

Eksplozija sadržaja ovog tipa rezultat je sve većeg broja pristupačnih alata i toga što danas svako ko ima računar, pristup internetu i osnovno znanje, uz pomoć besplatnih AI platformi, može generisati „video istinu“ za manje od 15 minuta. Posledice takve dostupnosti ozbiljne su i dalekosežne, a primeri zloupotreba su brojni. U nastavku izdvajam neke od meni najzanimljivijih slučajeva na koje sam naišla tokom istraživanja ove tematike.

Jovana Trifunović, konsultant u Egzakta Advisory

Jovana Trifunović, konsultant u Egzakta Advisory – Foto: Miloš Nadeždin

Zaposleni u jednoj multinacionalnoj kompaniji u Hong Kongu doveden je u zabludu zloupotrebom deepfake tehnologije, prilikom čega je, izvršavajući naloge „svog nadređenog“, prevarantima isplatio sumu od oko 25 miliona dolara (CNN, Finance worker pays out $25 million after video call with deepfake „chief financial officer“). Pored toga, sve je popularniji scenario „digitalnog zavođenja“, gde izvršioci pomoću lažnih identiteta razvijaju prividne romantične odnose sa žrtvama, iskorišćavaju njihovu emotivnu povezanost kako bi ih naveli da izvrše finansijske transakcije, nakon čega prekidaju svaki kontakt, i naravno – nestaju sa novcem (The star, How AI and deepfakes are taking romance scams to another level). Takođe, poznati su i primeri kreiranja i deljenja deepfake pornografskog sadržaja, kao i video ili audio materijala kojim se pojedinci diskredituju i/ili im se narušava reputacija. Deepfake sadržaj pronašao je put i do sudnica, a čuven je slučaj advokatske kancelarije iz Velike Britanije koja je saopštila da je u toku postupka koji se vodio radi vršenja roditeljskog prava sudu kao dokaz podnet deepfake audio snimak od strane jednog od roditelja (Brighton and Hove Law, The dangers of doctored “deep fake” evidence that is being submitted to Courts). Ovaj, ali i drugi slučajevi upotrebe deepfake-a u slične svrhe, jasno ukazuju na opasnost po integritet dokaznog postupka. Politička scena takođe nije ostala imuna na deepfake manipulacije koje mogu izazvati ozbiljne posledice, a jedan od primera je slučaj iz Slovačke iz 2024. godine (CNN, A fake recording of a candidate saying he’d rigged the election went viral. Experts say it’s only the beginning).

Nije teško zaključiti da niko nije u potpunosti siguran i da svako može postati meta sofisticiranih manipulacija, dok zakonodavstvo u mnogim zemljama ne uspeva da prati brzinu tehnološkog razvoja. Nažalost, deepfake sadržaji najčešće ne potpadaju pod postojeće definicije klevete, prevare ili kršenja autorskih prava, a i kada potpadaju, dokazivanje je sporo i mukotrpno.

Na sreću, pojedine države počinju da reaguju i uvode jasne pravne okvire. Pre svega, treba pomenuti da je donošenjem EU AI akta 2024. godine, između ostalog, uvedeno načelo transparentnosti i obaveza jasnog označavanja da je sadržaj modifikovan i da je objavljeni materijal nastao korišćenjem deepfake tehnologije. Ipak, uprkos značajnom iskoraku, EU AI aktom nisu obuhvaćeni mehanizmi za uklanjanje pojedinačnih deepfake-ova nakon što su objavljeni, kao ni brojne krivično-pravne implikacije. Ovaj nedostatak će, bar za sada, morati da „popune“ same države kroz nacionalne zakone – a Danska se tu ističe kao jedan od pionira. Naime, Danska vlada planira izmene Zakona o autorskim pravima kako bi ograničila kreiranje i širenje deepfake-ova generisanih pomoću AI alata (The Guardian, Denmark to tackle deepfakes by giving people copyright to their own features). Na ovaj način, šalje se nedvosmislena poruka da svako ima pravo na svoje telo, svoje crte lica i svoj glas. Takođe, predložene izmene Zakona o autorskim pravima, Dancima će, ukoliko se usvoje, dati pravo da zahtevaju uklanjanje neovlašćenog deepfake sadržaja, bez potrebe za dokazivanjem štete koju je taj sadržaj prouzrokovao. Očekuje se da će nacrt izmena biti predstavljen danskom parlamentu u oktobru 2025. godine, a ukoliko bude usvojen, stupiće na snagu do kraja marta 2026. godine – čime bi Danska postala prva evropska zemlja sa zakonom ovog tipa.

Danski pristup rešavanju problema neovlašćenog i malicioznog deepfake sadržaja šalje važnu poruku – bez obzira koliko tehnologija bila napredna i inovativna, ona nikada ne sme da se koristi kao sredstvo manipulacije niti da ugrožava dostojanstvo, privatnost i sigurnost pojedinaca. Predložena mogućnost brzog i efikasnog uklanjanja deepfake sadržaja, ukoliko zakon zaista bude usvojen, veliki je korak napred koji će žrtvama pružiti realnu šansu da pravovremeno reaguju i umanje štetu. Jer, kada je u pitanju digitalna bezbednost, brzina reakcije je često ključna. Ovaj danski zakon je definitivno primer koji bi i druge zemlje trebalo da slede, budući da je zaštita građana u digitalnom svetu danas važnija nego ikada pre.

Iako je jasno da su izmene i prilagođavanja zakona digitalnom dobu i novim rizicima od ključnog značaja, ne smemo zaboraviti ni ulogu tehnologije i edukacije. Deepfake sadržaji neće nestati – naprotiv, postaće sve sofisticiranija, pa je zato važno da uz pravne mere razvijamo i tehnološke alate (npr. za prepoznavanje deepfake-a) i podižemo svest ljudi. Samo kroz takvu kombinaciju možemo zaista zaštititi privatnost i sačuvati poverenje u digitalnom svetu.

Spremnost društva na ove izazove važnija je nego ikada, naročito imajući u vidu da danas „videti“ ne znači uvek i „verovati“. Zato je ključno da naučimo kako da budemo oprezni, da imamo efikasne alate koji nas štite, ali i da, paralelno, pratimo neprestani razvoj tehnologije.

Saznajte sve o dešavanjima u biznisu, budite u toku sa lifestyle temama. PRIJAVITE SE NA NAŠ NEWSLETTER

Izvor: BIZLife

Foto: Videoflow/Freepik

What's your reaction?

Ostavite komentar

Vaša adresa e-pošte neće biti objavljena. Neophodna polja su označena *

developed by Premium.rs | Copyright © 2025. bizlife.rs | Sva prava zadržana.

MAGAZINE ONLINE