Vesti
02. 04. 2025.
Kako da nas oči ne prevare: Aleksandra Ničić u Prompt-u nedelje o dipfejku i kako ga prepoznati u medijima
Većina ljudi uopšte ne može da identifikuje takozvani deep-fake odnosno video snimke i slike generisane veštačkom inteligencijom, koje su upravo i stvarane da bi obmanule ljude.
Testirani su državljani Velike Britanije i iz Sjedinjenih Američkih Država, ali verujemo da situacija nije drugačija ni u našoj zemlji. U emisiji Prompt nedelje gostovala je Aleksandra Ničić iz Udruženja novinara Srbije i doktorantkinja na Fakultetu političkih nauka, sa kojom smo razgovorali kako da nas oči ne prevare, odnosno kako da prepoznamo deepfake sadržaj.
Ničić na samom početku ističe rezultate regionalnog istraživanja koje je u vezi sa deepfake-om.
"Udruženje novinara Srbije je, zajedno sa Centrom za razvoj omladinskog aktivizma iz Sarajeva, Albanskim centrom za kvalitetno novinarstvo iz Tirane i Medija centrom iz Čaglavice, sprovelo istraživanje o upotrebi veštačke inteligencije među mladim novinarima i studentima novinarstva. To istraživanje je pokazalo – a ja ću se osvrnuti samo na deepfake – da većina novinara zapravo strahuje od deepfake sadržaja" kaže ona i obrazlaže:
"Kada su imali da navedu najveće rizike, polovina od ukupno 493 ispitanika navela je deepfake kao najveći rizik za našu profesiju, što definitivno odražava strah od deepfake sadržaja. Međutim, ono što je ohrabrujuće jeste da je 70 odsto ispitanika reklo da zna šta je deepfake, dok je oko 70 odsto takođe izjavilo – kao što i ja tvrdim – da ne bi moglo da garantuje da će svaki put prepoznati deepfake ".
Smatra kako nije dovoljna samo lična procena za prepoznavanje deepfake sadržaja, već su neophodni posebni alati.
"Nekad ne možemo u potpunosti verovati svojoj ličnoj proceni, pa je dobro da, pored ovih stvari koje sam navela — a to uključuje pogled, zamućene ivice, neprirodne pokrete usana ili kada su u pitanju stari generativni modeli koji generišu deepfake sa više prstiju nego što je to uobičajeno — koristimo i druge metode. Takođe je bitno da se konsultuju i alati, jer novinari moraju da proveravaju informacije iz više izvora", kaže ona.
Govoreći rizicima koje sa sobom nosi rasprostranjenost deepfake sadržaja, ona je ukazala na njegov uticaj u javnom informisanju.
"Najopasniji način na koji se deepfake koristi je upravo u javnom informisanju, jer, dok deepfake može biti vrlo koristan u umetnosti, na primer kroz specijalne efekte koji čine da filmovi izgledaju neverovatno, u novinarstvu je neprihvatljiv. To potvrđuje i Pariska povelja Reportera bez granica koja jasno kaže da je korišćenje sadržaja kojim se lažno predstavljaju stvarni pojedinci, odnosno kreiranje kompjuterski generisanih kopija koje deluju kao da su ljudi uradili nešto, iako to nisu, neprihvatljivo u novinarstvu — čak i ako se naznači da je u pitanju deepfake sadržaj", kaže sagovornica i nastavlja:
"S druge strane, Kodeks novinara i novinarki Srbije ne sadrži precizne odredbe o deepfake -u, ali kaže da svaki put kada se koristi sadržaj koji je generisan uz pomoć veštačke inteligencije, to treba jasno naznačiti".
Više o ovoj temi pogledajte u video prilogu.
Komentari (0)
ostavi komentarNema komentara.