УНС вести
19. 02. 2025.
Са медијске радионице у Сарајеву: Вештачка интелигенција бар још 50 година неће заменити новинаре
Како вештачка интелигенција мења медије, које су позитивне и негативне стране њене употребе, које платформе вештачке интелигенције (АИ) је могуће користити у истраживачком новинарству и шта је дипфејк (deepfake) биле су теме радионице “Како користити вештачку интелигенцију у новинарству” одржане у Сарајеву.
О овим темама говорили су Фахир Канлић, сарадник Интернационалног универзитета у Сарајеву, Александра Ничић, новинарка сајта УНС-а, Катарина Маринковић, новинарка Медија центра Чаглавица и мастер односа с јавношћу, као и Емирјон Сења, новинар и професор новинарства на Универзитету БЕДЕР у Тирани.
Радионицу у Сарајеву организовало је Удружење новинара Србије (УНС) у сарадњи са Албанским центром за квалитетно новинарство из Тиране (ACQJ), Центром за развој омладинског активизма из Сарајева (ЦРОА) и Медија центром из Чаглавице.
Фахир Канлић рекао је на радионици да је питање које се најчешће поставља - да ли ће вештачка инелигенција земенити новинаре? По његовом мишљењу не - бар још 50 година. Међутим, Канлић наводи да је са појавом вештачке интелигенције 14 одсто запослених у ИТ сектору добило отказе.
Канлић је навео и да су у земљама Западног Балкана велики проблем заштита и поверљивост података, као и законодавство.
„Регион још увек има проблем и са граматички компликованим језицима, јер је велики број алата на енглеском језику“, навео је.
АИ је, по његовим речима, трансформисао медије уводећи револуцију у креирању садржаја, анализу, али је довео и до хиперпродукције садржаја, јер се због вештачке интелигенције готово истоветан садржај шири друштвеним мрежама.
Фахир Канлић сматра да је појава вештачке интелигенције утицала и на новинаре, јер се на тржишту више не тражи формално образовање, већ новинари који познају АИ алате.
Канлић је додао и да у Босни и Херцеговини око два одсто медија користи алате вештачке интелигенције, углавном за превођење или проверу граматичке исправности.
Такође, сматра да ће у будућности доћи до ближе сарадње новинских кућа и ИТ фирми, јер ће новинарима бити потребни алгоритми генерисани према њиховим потребама.
Као примере овакве сарадње Александра Ничић навела је платформе на којима се објављују интерактивни чланци, за које, како је рекла, Ројтерсов институт за истраживање новинарства у најновијем истраживању наводи да ће бити све учесталији у новинарству ове године.
У питању су, како је рекла, текстови који темељно анализирају одређен проблем, феномен или појаву, али за разлику од класичних чланака, омогућавају и интеракцију са имагинарним АИ новинаром који им појашњава детаље из текста.
Овај тип иновација које је вештачка интелигенција увела у новинарство илустровала је и примером интерактивних чланака који су се појавили у магазину Тајм.
Они истовремено омогућују сумирање чланка, гласовну комуникацију и дописивање са АИ новинаром. Најављен је, додала је, и следећи корак, када ће читалац добијати одговоре клонираним гласом новинара.
Када је реч о АИ алатима које новинари користе у свом свакодневном раду, Ничић је рекла да постоје генеративни алати - који креирају нови садржај и аналитички, који на основу анализе великих количина података, идентификују трендове и проверавају чињенице.
„Савет је да се приликом употребе генеративних модела представите и кажете: ‘Ја сам новинар/новинарка и потребна ми је информација за креирање садржаја, а затим и да укратко опишете тему’. Ипак, битно је да нипошто да не дајете поверљиве информације или откривате личне податке. Што више података (који нису поверљиви) откријете, то ће и резултат бити бољи“, каже Александра.
Она истиче да је препорука за новинаре да траже линк ка датој информацији, што сваки генеративни модел има као могућност од краја прошле године.
Такође, истиче да се генеративни модели могу користити за прилагођавање стила писања, а ту је посебно издвојила алат Клод (Claude).
АИ алати омогућавају и генерисање видеа, али по речима Ничић, граница која се не сме прелазити је генерисање стварних личности. Она је истакла да АИ алате не треба користити за лажно представљање реалних личности, а то је и препорука из Париске повеље о употреби АИ, коју су објавили Репортери без граница.
Она је истакла и позитивну улогу аналитичких АИ алата, нарочито када је у питању транскрипција, додавање титлова у видео-снимцима, претварање фотографија у текст и изолација шумова у видео садржајима…
Емирјон Сења рекао је да је у новинарству увек присутно питање да ли треба објављивати оно што публика тражи или оно што јој је стварно потребно.
Ипак, како је додао Сења, добро је познавати читалачке преференције, а за ту намену, на примерима је показао АИ алате који се користе за проверу колико су неке теме присутне на друштвеним мрежама.
Као алат посебно важан за ту намену намену издвојио је Buzzsumo. Овај алат прати како се одређени линк дели на друштвеним мрежама и за шта се све употребљава, како би анализирао трендове.
Емирјон Сења рекао је да ма колико се мисли да нема цензуре у коришћењу АИ алата, она и те како постоји. Када је, како је навео, на кинеском Deepseek-у поставио питања о Тајвану, одговор је био- питајте нешто друго.
Такође, Сења је показао примере фотографија које су манипулацијом АИ техникама добиле сасвим други контекст.
Упозанао је учеснике радионице и са апликацијама које им могу помоћи у креирању форографија, али и провери њихове аутентичности.
Рекао је и да највише манипулације АИ садржају постоји у рубрици шоу-бизнис.
Он је присутнима показао како да користе АИ алате за анализу великих скупова података и за њихову визуализациу, посебно се осврнувши на Flourish.
Катарина Маринковић објаснила је присутнима да осим лажних видео записа, вештачка интелигенција може креирати лажне фотографије, као и аудио записе који звуче потпуно аутентично. Све то, како је навела, представља дипфејк садржај.
По њеним речима намена дипфејка су преваре, али и политичке манипулације. Зато је упозорила да новинари никако не треба да објављују непроверене видео снимке, нарочито са друштвених мрежа.
Катарина је присутне упознала и са алатима којима се могу детектовати дипфејк видео снимци, међу којима је и InVeed.
Као примере дипфејка присутнима је показала видео-садржај у коме се компјутерски генерисане копије Доналда Трампа и Џозефа Бајдена грле, као и видео-снимак у коме копија Барака Обаме вређа Трампа.
Дипфејк, како је рекла, има и позитивну примену, а пример су филмски ефекти и “оживљавање” реалних личности попут Алберта Ајнштајна ради забаве. Ипак, генерисање оваквог садржаја недопустиво је у дневној информативи.
Како је вештачка интелигенција утицала на рад новинара, Катарина је илустровала примером из своје матичне куће - Медија центра Чаглавица. Маринковић је рекла да су недавно имали двоје стажиста који су били технолошки писмени и са терена су се враћали са текстовима креираним АИ алатима, али је додала да ови алати нису одговарали на пет основних новинарских питања.
“У новинарству постоје пет питања на које новинари треба да одговоре у свакој вести. Ако нема одговора на њих, нисте добили вест са терена. А вештачка интелигенција још увек не може толико напредно да ради”, закључила је Катарина.
Овај пример је, навела је Маринковић, показатељ да вештачка интелигенција не може да замени новинаре.
Коментари (0)
Остави коментарНема коментара.