Насловна  |  Актуелно  |  Вести  |  Шта је дипфејк (deepfake), моћно оружје у дезинформисању?
Povećaj veličinu slova Vrati na prvobitnu veličinu slova Smanji veličinu slova štampaj štampaj
 

Pošalji prijatelju

Вести

05. 08. 2022.

Аутор: Демостат/ Ивана Петронијевић Терзић Извор: Данас/ Демостат

Лажни снимци, дипфејк и демократија

Шта је дипфејк (deepfake), моћно оружје у дезинформисању?

Демократска странка недавно је на свом званичном Твитер налогу објавила видео снимак на којем председник САД Џо Бајден говори о прошлогодишњим немирима на Капитол хилу.

Снимак који траје 17 секунди подстакао је теоретичаре завере, али и десно оријентисане новинаре појединих медијских кућа у САД, да доведу у питање његову истинитост.

Они тврде да је видео дипфејк (deepfake), односно да је настао коришћењем вештачке интелигенције.

Дипфејк настаје када технологија научи како да опонаша некога. Користи вештачку интелигенцију да потпуно замени нечије лице или га у довољној мери измени.

У овом случају, поједини корисници друштвених мрежа сматрају да је Бајденово лице налепљено на тело глумца.

Верују да су у праву јер Бајден, како наводе, изгледа другачије на другом снимку који је објављен истог дана, али и зато што председник САД на спорном снимку не трепће.

То, међутим, није доказ да је видео дипфејк, јер и лица на дипфејк снимку могу да трепћу.

Случај, наравно, није јединствен. Снимак председника САД из 2021. на којем одговора на питања новинара у дворишту Беле куће покренуо је праву лавину теорија завера, од тога да је амерички председник снимљен испред зеленог екрана, преко тога да је слика компјутерски генерисана, до тврдње да је Бајден превише болестан да би се појавио у јавности, да је мртав или да користи дублера.

А заправо, у питању је била оптичка илузија, јер је Бајденова рука у једном моменту наизглед прешла преко микрофона новинара.

Има и оних који тврде да Бајден уопште и није председник и да због тога не може ни да буде на травњаку Беле куће. Појединци сматрају да Бела кућа хоће да заштити председника због његових година, лошег здравља или гафова у јавности.

Ни бивши председник САД Доналд Трамп није био имун на сличне теорије завере. Многи корисници друштвених мрежа тврдили су да је његов снимак испред Беле куће, на којем, између осталог, говори како је примио експериментални лек против ковида, лажан.

Такође, било је теорија да је снимак у којем признаје победу Џоа Бајдена на председничким изборима заправо дипфејк.

Постоји и дипфејк бившег председника Барака Обаме у којем он назива Доналда Трампа комплетним и потпуним ђубретом, а који је направљен како би се јавности скренула пажња на манипулације видео садржајем.

Од почетка рата у Украјини појавили су се лажни снимци у којима Владимир Путин објављује примирје са Украјином, а Володимир Зеленски говори о предаји.

Кратак сусрет са дипфејк технологијом имали су градоначелници неколико европских престоница када су преварени да преко видео позива разговарају са градоначелником Кијева, Виталијем Кличком. Градоначелница Берлина имала је заказан разговор на Вебекс платфроми за видео конференције са особом која је изгледала и звучала као Кличко.

Како је касније саопштено из њене канцеларије, није било назнака да у видео конференцијском позиву не учествује стварна особа. Сумња се родила после петнаестак минута када је наводни градоначелник почео да говори да украјинске избеглице у Немачкој варају државу због бенефиција и да би требало да се врате у Украјину како би ратовали против Русије.

И канцеларија градоначелника Мадрида је поднела пријаву полицији због некога ко се лажно представљао као Кличко у видео позиву са градоначелником.

Градоначелник Беча је чак објавио на Твитеру да је видео позивом разговарао са Кличком, али је твит убрзо обрисан и након тога објављено саопштење да је Михаел Лудвиг био жртва озбиљног случаја сајбер криминала.

Политичари стрепе од дипфејк технологије јер би могла бити коришћена за ширење лажи о њима и обману гласача. Коришћење дипфејк технологије може бити претња по унутрашњу политику у некој земљи, демократију, дипломатију и националну безбедност.

Иако наредни пример није дипфејк, јасно показује зашто се политичари прибојавају лажних снимака и „лажних вести на стереоидима”, какав је дипфејк.

Наиме, ради се о снимку председнице Представничког дома америчког Конгреса Ненси Пелоси из 2019, на којем делује да је толико пијана да не може да говори.

Снимак је направљен на веома једноставан начин, успорен је на око 75 одсто нормалне брзине, док је тон њеног гласа прилагођен.

Снимак је подељен више милиона пута на друштвеним мрежама пре него што је откривено да је лажан. Поделио га је и Доналд Трамп.

Због овог случаја је заказана и расправа у Конгресу, а Фејсбук је био под притиском да уклони снимак са мрежа. Фејсбук то тада није урадио, али су смањили учесталост појављивања снимка и уз њега поставили вест која открива да је реч о лажној вести.

Као одговор на скандал, рекламна агенција „Canny“ направила је видео снимак у коме власник Фејсбука, Марк Закерберг, признаје да има потпуну контролу над украденим подацима милијарде људи и да контролише њихове животе и будућност. Тај видео је урађен помоћу дипфејк технологије и објављен на Инстаграму.

За сада постоји један потврђени случај када је политичка странка користила дипфејк видео како би утицала на грађане.

У мају 2018, фламанска социјалистичка партија објавила је дипфејк видео на друштвеним мрежама на којем Трамп наводно исмева Белгију јер и даље подржава Париски климатски споразум.

Видео је лош фалсификат – Трампова коса изгледа крајње необично, док му се уста чудно померају. Видео се и завршава Трамповим речима: „Сви знамо да су климатске промене лажне, баш као и овај видео”, иако та реченица није преведена и титлована.

Портпарол странке тада је рекао да је видео објављен како би странка скренула пажњу на неопходност деловања због климатских промена.

На крају, један снимак за који се сумњало да је дипфејк имао је великог утицаја на покушај државног удара у Габону 2019. године. Шта се заправо догодило?

На јесен 2019. године та афричка држава се суочила с чудном политичком кризом.

Председник Али Бонго је био ван земље на лечењу и није се појављивао у јавности. Будући да није било јасних одговора о његовом здравственом стању, јавност је сумњала, а неки су дубоко веровали, да је председник мртав.

После неколико месеци без икаквих информација, у децембру је објављено да је председник имао мождани удар, али да је добро и да ће одржати традиционално новогодишње обраћање.

Међутим, када је тај видео објављен, јавност није умирена, напротив. Многи су сумњали да се ради о дипфејк снимку и да је Бонго заиста мртав или да је потпуно неспособан да обавља дужност председника.

Бонгови критичари и политички противници били су убеђени да је снимак лажан. Фокусирали су се на два специфична аспекта – на то колико мало Бонго трепће током емитовања, као и на чињеницу да су његови говорни обрасци изгледали другачије у односу на друге видео записе, што су могући знаци дипфејка.

Недељу дана након објављивања видео снимка, војска Габона је покушала да изведе, испоставиће се, крајње неуспешан државни удар, уз оправдање да је снимак доказ да нешто није у реду с председником.

Док се већина медијског извештавања о лажним видео снимцима и дипфејку фокусира на могуће ужасне сценарије њиховог коришћења у САД или другим западним земљама, заправо би такве лажне вести могле да изазову највећи хаос у земљама у развоју, које су често дом крхких влада и недовољно дигитално писмених грађана.

Дезинформације у неким земљама могу довести до пуча, родно или етнички мотивисаног насиља, угрожавајуц́и стабилност читавих држава.

Дипфејк би могао постати оруђе аутократских влада за дезинформисање и угњетавање грађана. Није тешко замислити да диктатор лажира видео снимак неког страног лидера који прети његовој земљи, како би уплашио становништво у складу са својим ауторитарним начином владања. Могућности злоупотребе су несагледиве.

Коментари (0)

Остави коментар

Нема коментара.

Остави коментар

Молимо Вас да прочитате следећа правила пре коментарисања:

Коментари који садрже увреде, непристојан говор, претње, расистичке или шовинистичке поруке неће бити објављени.

Није дозвољено лажно представљање, остављање лажних података у пољима за слање коментара. Молимо Вас да се у писању коментара придржавате правописних правила. Коментаре писане искључиво великим словима нећемо објављивати. Задржавамо право избора или скраћивања коментара који ће бити објављени. Мишљења садржана у коментарима не представљају ставове УНС-а.

Коментаре које се односе на уређивачку политику можете послати на адресу unsinfo@uns.org.rs

Саопштења Акције Конкурси