Вештачка интелигенција и медиуми – Влијанието на deepfake и генеративните видеа врз јавната перцепција 

Published by

on

Unnamed (25)

Елеонора Крстевска 

Вовед 

Во последно време сѐ почесто наидувам на содржини на интернет за кои не можам веднаш  да утврдам дали се вистински или не. Особено ме фасцинираа видеа кои изгледаат сосема  реално, но подоцна дознав дека се креирани со помош на вештачка интелигенција – таканаречени deepfake видеа. Оваа технологија, што комбинира компјутерска визија и  машинско учење, станува сѐ поприсутна во медиумите, социјалните мрежи и дури и во  политиката. Истражувајќи подетално, открив статии кои објаснуваат како генеративната  AI не само што може да симулира човечко лице и говор, туку и целосно да измами  публика со цел да предизвика одредена реакција или перцепција. 

Она што особено ме загрижува е фактот што многу луѓе не можат лесно да препознаат  дали видеото што го гледаат е реално или лажно. Ова ја доведува во прашање нашата  способност како општество да разликуваме вистина од манипулација, особено кога тие  содржини се шират брзо и масовно. Од друга страна, мора да признаам дека технологијата  е навистина импресивна и има потенцијал да се користи и за добри цели – на пример, во  едукација, филмска индустрија или во медицински симулации. 

Во оваа семинарска работа ќе се обидам да ја разгледам двојната природа на deepfake и  генеративните видеа: од една страна нивната технолошка иновативност, а од друга – нивната моќ да влијаат на јавната перцепција, довербата во медиумите и самата  дефиниција на вистината. 

Што претставува генеративна вештачка интелигенција? 

Генеративната вештачка интелигенција ( Gen-AI) претставува напреден облик на AI што  има способност да создава оригинална содржина: текст, слики, видеа, аудио и програмски  код, како одговор на кориснички инструкции. Наместо само да препознава податоци, оваа  технологија „генерира“ нови, автентични изрази базирани на огромни количини  претходно обработени информации. 

Основата на генеративната AI се моделите на длабоко учење, кои симулираат како  функционира човечкиот мозок. Преку анализа на шаблони, контексти и односи во  податоците, тие можат да креираат логична и креативна содржина. Најпознатиот пример е  ChatGPT, кој во 2022 година стана симбол на глобалниот пробив на оваа технологија. 

Gen-AI функционира во три клучни фази: 

1. Тренирање на моделот со огромна база на податоци, 

2. Фино прилагодување според специфична цел, 

3. Генерирање и подобрување на резултатите преку анализа и повторно учење. Во последната деценија, се развија неколку типови на модели кои го овозможуваат ова: 

∙ VAEs (варијациски автоенкодери) – за препознавање и генерирање слики, ∙ GANs (генеративни спротивставени мрежи) – за фотореалистични видеа и слики, ∙ Трансформери – основа на најмоќните генеративни AI системи денес. 

Иако нуди огромен потенцијал за иновации,  

продуктивност и автоматизација,  генеративната AI исто така отвора прашања  поврзани со дезинформации, етика и  злоупотреба, особено кога се користи за  создавање deepfake содржини.

Што претставуваат deepfakes? 

Deepfake е технологија базирана на вештачка интелигенција и длабоко учење (deep  learning), која создава лажно убедлива медиумска содржина што изгледа како да  прикажува вистински луѓе во реални ситуации. Со други зборови, некој може да изгледа  или звучи како да кажува или прави нешто што никогаш не го сторил. 

Технологијата користи генеративни спротивставени мрежи (GANs) – каде еден алгоритам  (генератор) создава лажни содржини, а друг (дискриминатор) се обидува да ги разликува  од вистинските. Ова натпреварување меѓу двата модели резултира со содржини што често  не можеме да ги разликуваме од реалноста. 

За разлика од класичните филтри, кои најчесто се очигледни и безопасни, deepfakes се  дизајнирани да измамат. Нивниот реализам ја урива границата помеѓу вистината и  измамата. 

Видови и техники на deepfakes се: 

∙ Слики: Манипулација или создавање лица што не постојат. 

∙ Видеа: Прецизно синхронизирање на лицето и движењата за лажно претставување. ∙ Аудио: Клонирање на гласови со користење на звучни обрасци. 

Потенцијални добри примени на deepfakes се среќаваат во филмови, образованиеуметност и игри. Може да се користат за повторна употреба на ликови (на пример,  дигитално враќање на актери), симулации на историски настани, или за создавање  мултијазични видеа и визуелни ефекти. 

Проблемот настанува кога deepfakes се користат за: 

∙ Ширење дезинформации – како лажни политички говори или измамнички вести. ∙ Онлајн измами и идентитетски кражби – на пример, лажно видео од роднина што  бара итна финансиска помош. 

∙ Нарушување на углед и приватност – преку манипулирани компромитирачки видеа.

Во еден случај, deepfake беше искористен за да се имитира гласот на директор на  компанија и да се измами друг менаџер да префрли над 200.000 евра на лажна сметка. 

Во иднина, AI ќе се користи и за откривање deepfakes, со алатки што можат да препознаат  манипулации кои човечкото око не ги забележува. Но клучно е и самите ние да бидеме  медиумски писмени и критички настроени кон сè што гледаме или слушаме онлајн. 

Примери на влијание врз медиумите и јавната перцепција 

Реален случај на измама 

Во 2019 година, директор на британска енергетска компанија добил телефонски повик од,  наизглед, својот германски шеф. Гласот звучел автентично, со препознатлив акцент и  интонација. Му наредил да префрли 220.000 евра. Подоцна се откри дека станувало збор  за deepfake глас, создаден со помош на вештачка интелигенција. Иако автентичноста на 

технологијата подоцна била оспорена, инцидентот јасно покажа дека такви измами се  можни и веројатни. 

Овој случај ни укажува дека секоја дигитална трага: глас, видео, слика, може да биде  искористена како основа за манипулација. „Сѐ што објавуваме на интернет треба да го  сметаме за потенцијален тренинг-податок за AI системи,“ предупредува истражувачот  Халси Бургунд од MIT. 

Уметнички експеримент што ја измами јавноста 

Истата година, MIT разви deepfake видео со поранешниот американски претседател  Ричард Никсон. Користејќи автентичен говор и текст од недоставен говор (наменет ако  слетувањето на Месечината не успееше), создадоа лажно видео кое ги збуни гледачите.  Иако авторите биле отворени за неговата вештачка природа, некои луѓе поверувале дека е  вистинито. 

Проектот имал за цел да ја подигне јавната свест за тоа колку лесно можеме да бидеме  измамени од визуелно и звучно уверлива содржина.

Примена во игри и дигитална интеракција 

Компанијата Modulate развива „voice skins“ – синтетички гласови што играчите можат да  ги користат во онлајн игри. Играчите можат да изберат глас што одговара на нивниот  аватар или да го прикријат својот вистински идентитет. Ова особено им помага на ранливи  групи лица кои често се мета на вознемирување. 

Овој пример покажува дека deepfake технологијата не мора секогаш да биде негативна – може да понуди и нови можности за приватност, изразување и заштита во дигиталниот  простор. 

Deepfake и новинарството 

Денес, дезинформацијата не мора да биде внимателно осмислена лажна вест. Со неколку  клика и AI алатка, може да се генерира аудио, слика или видео со нечиј лик или глас,  поставен во лажен контекст. Ова ја доведува во прашање довербата во медиумите, бидејќи  станува сè потешко да се разликува што е реалност, а што е синтетичка измама. 

Новинарите, но и публиката, се соочуваат со предизвик: како да веруваат на она што го  гледаат или слушаат, кога фалсификатот изгледа речиси совршено.

Почетоци и еволуција на deepfakes во медиумите 

Технологијата на deepfake се појави во 2017 година на Reddit, а само една година подоцна,  актерот Џордан Пил објави видео во кое се имитира гласот и ликот на поранешниот  претседател Барак Обама. Тоа беше првиот јасен сигнал дека генеративната AI може  сериозно да ја наруши границата меѓу реалност и измама. 

Првично користени за забава, deepfakes брзо се претворија во алатка за манипулација – од  измами преку „лажни роднини“ до политички видеа насочени кон јавноста.  

Последици врз јавната перцепција 

∙ Дезинформација се шири полесно и побрзо преку видео и слики. 

∙ Јавната доверба во медиумите сè повеќе еродира. 

∙ Точноста и кредибилитетот на новинарството се доведени во прашање. 

Deepfake технологијата го менува начинот на кој ја примаме и процесираме  информацијата. Тоа е директна закана за новинарската етика и демократското право на  вистина. 

Влијание врз новинарските практики 

Предизвици во верификацијата 

Во ерата на генеративната AI, класичните новинарски методи за проверка на факти, како  споредување извештаи и проверка на извори сè почесто стануваат недоволни. Новинарите  мора да користат нови, напредни дигитални алатки за да го разликуваат вистинското од  лажното. Особено пред објавување на видео или аудио материјал, потребна е  дополнителна верификација на автентичноста

Потреба од нови вештини 

Во новиот медиумски контекст, новинарите треба да бидат обучени не само во класични  техники на известување, туку и во дигитална форензика, анализа на метаподатоци и  препознавање синтетички медиуми. Ова е клучно за справување со AI-креирана содржина. 

Потврда на изворот 

Технологии како Blockchain (блокчејн) се користат за потврда на автентичноста на  дигитални материјали уште во моментот на создавање. Тоа помага да се спречи нивна  понатамошна манипулација. 

Јавна едукација и медиумска писменост 

Дури и најдобрите алатки не можат целосно да го спречат ширењето на лажни видеа.  Затоа е важно граѓаните да бидат медиумски писмени, да знаат како да препознаат  манипулација и да се однесуваат критички кон содржината што ја гледаат и слушаат. 

Етички и правни аспекти на deepfake технологијата Измами и манипулација преку deepfake 

Deepfake содржината, аудио или видео, создадена со помош на вештачка интелигенција претставува сериозен ризик за општеството. Овие материјали можат: 

∙ Да шират дезинформации, правејќи да изгледа дека некој изјавил нешто што не го  кажал. 

∙ Да нанесат штета на угледот на јавни личности или обични луѓе. 

∙ Да инвадираат приватност, преку лажно претставување во чувствителни ситуации. ∙ Да предизвикаат психолошка траума, особено кај жртвите на сексуализирана или  насилна содржина. 

Секој ваков случај го нарушува јавниот интерес и го разнишува довербата во медиумите и  дигиталните комуникации.

Безбедносни ризици: хакери и deepfake злоупотреба 

Лесната достапност на deepfake алатки им овозможува на хакерите да креираат  реалистични измами. Ваквите видеа често стануваат вирални пред да бидат разобличени,  оставајќи сериозни последици: 

∙ Фишинг напади и ширење малициозен софтвер преку лажни видеа. ∙ Криптокрадење (cryptojacking): уреди се претвораат во алатки за рударење  криптовалути без знаење на корисникот. 

∙ Нарушување на корпоративна безбедност: преку манипулирани повици или  пораки, вработените можат несвесно да откријат лозинки, финансиски или лични  податоци. 

Социјалните мрежи се богат извор на слики и видеа, што овозможува тренирање на GAN  модели и создавање високо реалистични фалсификати. 

Препознавање и одбрана од deepfake содржина 

Иако deepfakes стануваат сѐ посовршени, постојат сигнали кои можат да помогнат во  нивно откривање како: несовпаѓање на усните и аудиото, ненадејни промени во светлина  или позадина, изрази на лицето што не одговараат на емоцијата, технички артефакти – заматување, пикселизација, метаподатоци што откриваат уредување, алатки за анализа,  како специјализиран deepfake-детектор.

Потреба од нов пристап во сајбер безбедноста 

Соочени со заканите што ги носат deepfakes, организациите мора да воведат обука за  вработени, да следат активности на уреди, да ажурираат BYOD политики и да користат  AI-базирани безбедносни системи. 

Овие чекори го намалуваат ризикот од човечки грешки и ја зајакнуваат одбраната против  манипулации во реално време. 

Законски и регулаторни предизвици 

Во моментов постојат само ограничени закони поврзани со deepfake содржина.  Недостатокот на правни механизми значи дека жртвите често немаат јасен начин да се  заштитат или да добијат надомест. 

Решение би било воведување: 

∙ Федерален закон за право на јавен идентитет, со статус на интелектуална  сопственост 

∙ Одговорност на платформите што не отстрануваат deepfake содржини ∙ Меѓународна соработка, со усогласени законски стандарди за борба против оваа  глобална закана 

Паралелни пристапи за справување со проблемот 

Покрај законите, потребни се и практични решенија како: 

∙ Реално-временска автентикација на медиумска содржина (на пр. преку blockchain  или алатки како „Controlled Capture“); 

∙ Проекти за јавна свест – како иницијативата „Detect Fakes“ од MIT; ∙ Едукација и медиумска писменост, за граѓаните полесно да препознаваат лажна  содржина. 

Подемот на генеративната AI и deepfake технологијата отвора сериозни прашања за  приватност, безбедност и етика. Само преку сеопфатен пристап: законски, технолошки и 

образовен можеме ефикасно да се справиме со ризиците. Соодветна регулатива, заеднички  протоколи и јавна свест ќе бидат клучни за заштита на дигиталниот интегритет и  слободата на изразување во иднина. 

Можни решенија и препораки 

Технолошки алатки за откривање на deepfake 

Со постојаниот напредок на технологијата, потребни се и соодветни алатки за нејзино  навремено откривање. AI-базирани системи се веќе во употреба за препознавање лажна  содржина преку анализа на визуелни, аудио и метаподатоци. 

∙ Примери на алатки: Pindrop® Pulse™ Inspect – алатка за реално-временска анализа  на гласови, или системи што детектираат неусогласеност во движењата на лицето и  изразите. 

∙ Технологии за верификација: Blockchain и „Controlled Capture“ создаваат  дигитален отпечаток на медиумот уште при неговото создавање, со што  овозможуваат проверка на автентичноста подоцна. 

Важно е овие алатки да се имплементираат не само кај медиумите, туку и во  образованието, судството и бизнис секторот.

Едукација и подигнување на јавната свест 

Постоечката јаз меѓу технолошкиот напредок и јавната свест претставува сериозен ризик.  Истражувањата покажуваат дека многумина, без разлика на возраст или професија, не  можат да препознаат лажна од реална содржина. 

∙ Целна група: Возрасни, наставници, ученици, но и политички лидери и медиумски  професионалци. 

∙ Препорака: Воведување на медиумска писменост и критичко размислување во  образовниот систем и јавните информативни кампањи. 

Едукацијата мора да биде инклузивна и прилагодена за технолошки помалку писмени  групи, со фокус на социјални аспекти и довербата кон извори. 

Регулаторни рамки и глобална соработка 

Технолошката трка меѓу креирање и детекција на deepfake содржини бара адаптивен и  координиран правен пристап: 

∙ Регулаторен предлог: Воспоставување на меѓународно усогласени стандарди и  правна рамка која ќе го регулира создавањето, објавувањето и одговорноста за  deepfake содржини.

∙ Потреба од соработка: Академските институции, владините тела и индустриските  лидери мора да работат заедно во развој на политики и технолошки решенија. 

Овие рамки ќе овозможат борба против злоупотреба, заштита на поединци и зачувување  на јавната доверба. 

Заштита на демократијата и медиумската доверба 

Deepfake содржините имаат потенцијал да влијаат врз изборни процеси и да ја нарушат  демократската стабилност преку манипулации и лажни наративи. 

∙ Пример: Фалсификувано аудио од Бајден во 2024 година што ги обесхрабрува  гласачите е случај кој покажува колку лесно може да се загрози јавната перцепција. ∙ Ризик: Пад на довербата во медиумите и институциите ако јавноста не може да  разликува што е вистина. 

Решението не е само во технички алатки, туку и во постојана едукација и создавање на  култура на проверка, сомнеж и одговорна комуникација. 

Deepfake технологијата нема да исчезне, таа ќе стане сè помоќна и подостапна. Затоа,  решенијата мора да бидат долгорочни, интегрирани и мултидимензионални: од  технолошки системи и законска регулација до масовна едукација. 

Само со здружени напори можеме да изградиме отпорно општество, подготвено да се  соочи со дезинформации, да ја зачува вистината и да ја заштити демократијата во  дигиталната ера.

Заклучок 

Во дигиталната ера, генеративната вештачка интелигенција и deepfake технологијата  донесоа не само технолошки иновации, туку и сериозни предизвици за медиумите, јавната  доверба и демократските процеси. Со способноста да создаваат целосно лажни аудио и  видео содржини, овие технологии ја замаглуваат границата помеѓу вистина и  манипулација. 

Преку анализата на конкретни случаи, од политички дезинформации, измами со  синтетички гласови, до лажни медиумски извештаи, се согледува колку лесно јавноста  може да биде доведена во заблуда. Традиционалните методи за проверка веќе не се  доволни. Потребна е нова, мултидисциплинарна стратегија: употреба на напредни алатки  за детекција на фалсификати, воведување на етички и законски рамки, како и масовна  едукација и медиумска писменост кај населението. Без разлика дали станува збор за  новинар, студент, или обичен корисник на интернет, секој има улога во препознавањето и  спречувањето на дезинформации. 

Доколку општеството не ги адресира овие предизвици соодветно, ризикуваме да влеземе  во ера на општа недоверба. Но, доколку ја искористиме истата технологија што ја создава  заканата, за одбрана, образование и транспарентност , тогаш можеме да изградиме  посилен дигитален систем, отпорен на манипулација. 

На крајот, не станува збор само за технологија, туку и за одговорност, индивидуална и  колективна. Да ја зачуваме вистината, да ја заштитиме демократијата и да ја обезбедиме  иднината на етичкото информирање.

Библиографија 

https://mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained

https://www.mckinsey.com/featured-insights/mckinsey explainers/what-is-generative-ai 

https://www.ibm.com/think/topics/generative-ai
https://www.baeldung.com/cs/deepfakes-ai
https://security.virginia.edu/deepfakes

https://www.npr.org/2024/12/21/nx-s1-5220301/deepfakes-memes artificial-intelligence-elections 

https://identitymanagementinstitute.org/the-deep-trouble-with deepfakes/ 

https://www.lexisnexis.com/blogs/en-au/insights/rolling-deepfakes generative-artificial-intelligence-privacy-regulation 

https://repository.stcloudstate.edu/cgi/viewcontent.cgi?article=1199& context=msia_etds 

https://levelblue.com/blogs/security-essentials/deepfakes-are-a problem-whats-the-solution 

https://www.wakeforestlawreview.com/2024/03/saving-face-the problem-with-deepfakes-and-how-to-solve-it/