„Deepfake“ технологијата како облик  на дигитално насилство 

Published by

on

Download (6)

Автор Деан Настевски 

Апстракт 

Оваа семинарска работа се фокусира на растечката злоупотреба на „deepfake“ технологијата како облик  на дигитално насилство, со посебен акцент на родовите аспекти и влијанието врз жените. Иако вештачката  интелигенција носи бројни придобивки, нејзината темна страна се манифестира преку фалсификувани  видеа кои често се користат за дискредитација, уцени и психолошка траума. Преку анализа на актуелни  примери, правни рамки и улогата на технолошките платформи, семинарската работа нуди критички осврт  на општествената неподготвеност да се справи со овој феномен. Воедно, се истакнува потребата од  едукација, превенција и пристап за заштита на ранливите категории – особено жените, кои и во  дигиталниот свет остануваат непропорционално изложени на насилство. 

I. Вовед  

Во последните неколку години, технологијата напредува со брзина што некогаш  ја гледавме само во научно-фантастични филмови. Вештачката интелигенција (ВИ),  некогаш замислена како алатка што ќе ни го олесни секојдневието, денес е реалност што  влијае врз речиси секој аспект од нашите животи. Но, додека некои ја слават нејзината  моќ – со право, бидејќи навистина носи многу иновации – други, и тоа со основан страв,  ги злоупотребуваат начините на кои таа се користи, особено кога станува збор за  злоупотреби што можат да имаат сериозни последици по индивидуалната безбедност и  човечкото достоинство. 

Една од најзагрижувачките и најопасните појави поврзани со ВИ е т.н. „deepfake“  технологијата – способноста со помош на алгоритми да се создадат видеа и аудио  записи кои изгледаат и звучат целосно реално, но се лажни. На прв поглед, тоа можеби  изгледа како нешто “забавно” – некој ќе направи видео со ликот на позната личност,  некој друг ќе направи пародија. Но, вистинската темна страна на оваа технологија доаѓа  до израз кога се користи за манипулација, заплашување и деградација на личности – најчесто жени. 

Жените, особено јавните личности, активистките, новинарките, па дури и обични  девојки што некако станале “жртва на алгоритмот”, се сѐ почесто мета на „deepfake“ нападите. Во огромен дел од случаите, тие се вметнати во порнографска содржина без  нивна согласност. Тоа не е само дигитална злоупотреба – тоа е родово базирано  насилство, прилагодено на 21-от век. Тоа е нешто што остава последици како траума,  руши репутации, и понекогаш доведува до повлекување од јавниот живот, па дури и до  обиди за самоубиство. 

Овде мора да се запрашаме: дали сме толку заслепени од „чудата“ на  технологијата, што заборавивме да поставиме граници? Дали регулативите заштекуваат,  или едноставно не постојат? Колку брзо оди технолошкиот напредок, толку поспоро  реагираат институциите. А за жал, жените се тие што плаќаат најскапо. 

Одговорноста, се разбира, не паѓа само на технологијата или на нејзините  креатори. Го споделуваме сите ние – и како граѓани, и како корисници, и како општество  што често молчи кога некој ќе биде изложен на ваков тип на дигитална злоупотреба.  Треба да почнеме отворено да зборуваме – не само за „deepfake“ како појава, туку и за 

тоа зошто токму жените се главната мета. Зошто постои толкава опсесија со  контролирање, изложување и срамење на женското тело, дури и во виртуелен контекст? 

Оваа семинарска работа има за цел да го отвори токму тој разговор. Ќе се  осврнам на тоа како функционира оваа технологија, какви се родовите импликации од  нејзината злоупотреба, кои се постојните правни рамки како реагираат платформите, и  што можеме да направиме – од едукација и дигитална писменост, до регулатива и  технолошки решенија. Ова не е само технички проблем – ова е етичко, социјално и  родово прашање, и токму затоа мора да му пристапиме сериозно и  интердисциплинарно. 

Во време кога се залагаме за родова еднаквост, неопходно е да не дозволиме  технологијата да стане нов облик на потиснување. „Deepfake“ не е само технолошка  „играчка“ – тоа е оружје во погрешни раце, и време е да почнеме гласно да зборуваме  за тоа. 

II. Главен дел  

Што се длабоки лажни технологии и како функционираат Кога првпат ќе слушнеш за длабоки лажни „deepfake“ технологии, можеби ќе ти  звучи како нешто од некој холивуд филм – технологии што можат да создадат видеа во  кои луѓе зборуваат или прават работи што никогаш всушност не ги направиле. И  вистината е: тоа не е филмска фантазија, тоа е реалност. 

Deepfake е комбинација од зборовите „deep learning“ (длабоко машинско учење  – гранка од вештачка интелигенција) и „fake“ (лажно). Со други зборови, станува збор за  технологии што со помош на сложени алгоритми и невронски мрежи можат да создадат  лажни, но многу убедливи содржини. Замисли некој да го искористи твоето лице и глас  и да те „стави“ во видео каде зборуваш нешто што никогаш не си го кажал/а, или, уште  полошо, те става во порнографска содржина – без твое знаење и без твоја согласност.  Тоа е длабоката и вознемирувачка моќ на „deepfake“! 

Ова функционира главно преку тренинг на алгоритми што учат од илјадници, па  и милиони слики или видеа од одредена личност. Колку повеќе материјал има (на  пример, од некоја јавна личност), толку полесно е алгоритмот да ја „научи“ мимиката,  движењата, начините на зборување и изразите на лицето. Потоа, сето тоа се „лепи“ врз 

некое друго видео, често порнографско или контроверзно, и – ете ти „вистина“ што  всушност е лага. 

Можеби најстрашниот дел е што овие технологии стануваат сѐ подостапни.  Некогаш беа ограничени на експерти со сериозна компјутерска моќ. Денес, со неколку  кликови можеш да најдеш апликација, па дури и веб-сајт што ти нуди да направиш  „deepfake“. Тоа значи дека секој со интернет-врска и малку злобна намера може да ја  користи оваа технологија како средство за манипулација, уцена или понижување. 

Ако се прашуваме зошто ова е проблем – одговорот е очигледен. „Deepfake“ не е  само некоја играчка. Тоа е алатка што во погрешни раце може да уништи животи,  репутации, па дури и изборни процеси или меѓудржавни односи. Но уште поважно – тоа  е алатка што најчесто се користи против жени. Статистиките покажуваат дека огромен  дел од „deepfake“ видеата, околу 98%, што кружат на интернет се со сексуализирана  содржина и од нив околу 99% имаат жени како главни ликови – без нивна дозвола, без  нивно знаење, без никаква контрола [1]. 

И тука не можеме да не го поставиме прашањето – зошто технологијата толку  брзо се развива, а заштитата на човековото достоинство заостанува? Зошто е полесно да  направиш фалсификат отколку да го тргнеш од интернет? Зошто институциите и  платформите реагираат дури кога ќе настане скандал, а не превентивно? 

„Deepfake“ технологиите се симбол на времето во кое живееме – време каде  вистината е ранлива, а реалноста може да се фалсификува со неколку реда код. Но исто  така, тие се и аларм кој не смееме да го игнорираме. Затоа што ако денес е некоја јавна  личност, утре може да бидеш ти, твоја сестра, пријателка, професорка или кој било друг. 

Технологијата сама по себе не е зла – но не е ни неутрална. Зависи од тоа во чии  раце се наоѓа. И ако веќе живееме во дигитална ера, време е да развиеме и етика за  нејзино користење, и системи за заштита на жртвите, особено кога се работи за родово  базирано насилство маскирано како “иновативна технологија”. 

Родови аспекти на злоупотребата на „deepfake“ технологијата Ако навистина сакаме да разбереме зошто „deepfake“ технологијата е толку  проблематична, мора да погледнеме под површината. Ова не е само прашање на 

технолошка злоупотреба – ова е родово прашање, и тоа сериозно. Не можеме да  зборуваме за „deepfake“ без да зборуваме за тоа кој е жртва, а кој е сторител. И да  бидеме искрени – најчесто жртвите се жени, а сторителите мажи. 

Секако, не постои технологија што по нормала напаѓа само една група. Но, она  што е важно е како општеството ја користи. И токму тука се гледа родовата нееднаквост.  Во практика, „deepfake“ видеата што најмногу циркулираат не се лажни прес конференции на политичари или смешни пародии на познати личности – туку  порнографски видеа со лица на жени, лепени без нивна согласност врз туѓи тела. Тоа е  дигитална форма на сексуално насилство, и мора така и да ја нарекуваме. Оваа форма  на сексуално насилство може да се истакне со спомнувањето на најголемата платформа  за порнографски содржини „MrDeepFakes“ која што пред скоро беше затворена [2].  

Постои една длабока и искрено вознемирувачка реалност: жените се третираат  како дигитална сопственост. Како слики што некој може да ги земе, да ги преобликува и  да ги изложи без срам. А тоа е само продолжение на долгата историја на  објективизација, сексуализација и контрола врз женските тела – само сега, во дигитална  форма. 

И што е најиронично? Наместо овие технологии да се користат за напредок,  едукација или иновации, многумина ги користат за повторно да ја зајакнат  патријархалната динамика – мажот ја има контролата, жената е предмет. Во еден дел од  интернетот каде треба да владеат слободата и креативноста, „deepfake“ станува само  уште една алатка за репродуцирање на истите стари форми на угнетување. 

Да бидеме конкретни – познатите жени се првите што страдаат. Актерки,  новинарки, активистки…На „MrDeepFakes“ платформата што ја спомнав погоре, според  статистики во Ноември 2023 имало околу 43000 видеа, биле гледани 1.5 милијарди пати,  и 95.3% од главните ликови на видеата биле познати жени [3]. Секоја што се појавува  јавно, автоматски станува потенцијална цел. Но не се само тие. Секојдневни жени,  студентки, наставнички, па дури и тинејџерки, се појавуваат на лажни видеа што ги  гледаат илјадници, а понекогаш и милиони луѓе. 

Институциите пак најчесто – каснат. Законите не можат да стигнат до брзината со  која напредуваат овие технологии. Полицијата не знае што да прави, судството се 

двоуми, а жртвите остануваат во срам и тишина. Многу малку жени ќе пријават дека  некој им направил „deepfake“ порнографско видео. Тоа е бидејќи срамот паѓа врз нив,  не врз насилникот. Наместо солидарност, добиваат осуда. Наместо заштита, добиваат  молк. 

Затоа мора да престанеме да ја гледаме deepfake технологијата како „интересна“  или „иновативна“, туку да ја третираме како прашање на дигитална безбедност и родова  правда. Ако дозволиме жените да бидат дигитално силувани, понижувани и  контролирани, тогаш сме далеку од вистинската еманципација. 

Правни рамки и предизвици 

Ајде да бидеме искрени: технологијата напредува со светлосна брзина, а  законите? Па, тие често се влечкаат некаде далеку позади. Особено кога станува збор за  „deepfake“ технологијата, која се користи за создавање на лажни, но убедливи видеа и  слики, често со сексуална содржина, без согласност на жртвите. Тука најчесто страдаат  жените. И тоа не е случајност. 

Во САД, неодамна беше донесен законот „Take It Down Act“, кој го криминализира  споделувањето на интимни слики без согласност, вклучувајќи и оние создадени со  помош на вештачка интелигенција [4]. Овој закон бара од платформите како „Facebook“ и „Instagram“ да ги отстранат таквите содржини во рок од 48 часа по пријавата. 

Во Велика Британија, новите закони предвидуваат затворска казна до две години  за оние што создаваат или споделуваат сексуални „deepfake“ содржини [5]. Но,  повторно, се поставува прашањето: дали овие закони се применуваат ефикасно и што е  со другите земји? 

Во Австралија, ситуацијата е алармантна. Во еден случај, маж создаде над 100  deepfake слики на жени, вклучувајќи и јавни службенички, користејќи фотографии од  нивните профили на социјалните мрежи [6]. И што се случи? Ништо. Бидејќи законите  таму не го криминализираат создавањето на такви слики без согласност, освен ако не се  споделени или не се користат за уцена . 

И тоа е проблемот. Во многу земји, законите не се доволно ажурирани за да се  справат со оваа нова форма на дигитално насилство. Жртвите се оставени без заштита, 

а сторителите често поминуваат неказнето. Тоа испраќа порака дека е во ред да се  злоупотребуваат технологиите за да се повредат другите, особено жените. 

Покрај тоа, процесот на пријавување и отстранување на ваквите содржини е  комплициран и трае долго. Жртвите често се соочуваат со срам, вина и недоверба од  страна на институциите. А платформите често реагираат бавно или воопшто не  реагираат. 

Затоа, потребни се поефикасни и сеопфатни закони кои ќе ги заштитат жртвите и  ќе ги казнат сторителите. Потребна е и едукација на јавноста за опасностите од  „deepfake“ технологијата и нејзината злоупотреба. И, најважно, потребна е поддршка за  жртвите – правна, психолошка и социјална. 

Не можеме да дозволиме технологијата да се користи како оружје за угнетување  и повредување на другите. Време е да преземеме одговорност и да создадеме  дигитален свет каде што секој ќе се чувствува безбедно и заштитено.  

Едукативни и превентивни мерки 

Ако нешто научивме од брзиот развој на технологијата и злоупотребите што ги  носи, тоа е дека не можеме да се потпираме само на закони и регулативи кои доаѓаат  предоцна. Потребен ни е системски пристап што започнува од едукација. И тоа не само  класична едукација во смисла на предавања по информатика, туку широка,  општествена, критичка едукација – едукација која ги учи младите како да препознаат  дезинформации, како да анализираат медиумска содржина и како да се заштитат себеси  и другите од дигитално насилство. 

Мораме отворено да зборуваме за тоа што претставуваат „deepfake“  технологиите, какви опасности носат и кој најмногу ги чувствува последиците од нив. А  реалноста е дека жените и девојките се најчестите жртви. Не е доволно само техничко  знаење – потребна е емпатија, критичко размислување и општествена свест уште од  најрана возраст. Затоа вакви теми мора да влезат и во основното и во средното  образование, не само на ниво на изборен предмет, туку како дел од редовна програма  за дигитална писменост и граѓанско образование.

Воедно, треба да се работи и со возрасната популација. Колку луѓе денес не знаат  дека сликата што ја гледаат на интернет можеби не е реална? Или пак дека некој може  за неколку минути да „создаде“ видео кое изгледа како нивната ќерка да зборува нешто  што никогаш не го изговорила? Институциите, медиумите, училиштата – сите имаат  улога во кревање на јавната свест. Не е ова тема што треба да ја „туркаат“ само  невладините организации еднаш годишно кога ќе има некоја меѓународна кампања. 

Важно е и како ги едуцираме инженерите, програмерите, истражувачите.  Одговорноста не е само кај „лошите корисници“ туку и кај оние што ги создаваат  алатките. Универзитетите мора да вметнат етички компоненти во секој ИТ и инженерски  факултет. Технологијата не е неутрална, и мораме да престанеме да се однесуваме како  да е. Ако студентите учат како да развијат алгоритам, нека учат и какви последици тој  алгоритам може да има. 

И на крај, мораме да го зајакнеме системот за поддршка на жртвите. Тоа вклучува  пристап до психолошка помош, правна поддршка, како и социјална рехабилитација.  Жртвите на „deepfake“ напади често се игнорирани, исмејувани или оставени сами да се  справуваат со трауми што интернетот не ги заборава лесно. А токму тоа е она што прави  штетата уште поголема – тишината и недејствувањето. 

Технолошки решенија и одговорност на платформите Додека deepfake технологијата сè повеќе напредува, технолошките компании  продолжуваат да се однесуваат како да се неми набљудувачи. Сакаат да профитираат од  напредната вештачка интелигенција, но кога таа истата технологија ќе се искористи за  понижување на нечиј дигнитет – особено на жени – тогаш одеднаш сите се повикуваат  на „слобода на изразување“ или „технички лимити“. Тоа е лицемерие. 

Ниту една платформа денес нема изговор да не распознава „deepfake“ содржина.  Постојат алатки за откривање манипулирани видеа и фотографии – не се совршени, но  се подобруваат секој ден. Компаниите како „Meta“, „Google“ и „X“ (поранешен „Twitter“)  имаат ресурси, луѓе, и моќ да ги имплементираат овие технологии, но го прават тоа само  кога притисокот станува неподнослив – обично после скандал или јавна реакција. Тоа е  реактивен, а не превентивен пристап.

Модерацијата на содржина и детекцијата на злоупотреби не смеат да бидат  оставени на алгоритми сами по себе. Потребна е комбинација од машинско учење и  човечки надзор, со јасни протоколи и брза реакција. Зошто? Затоа што штетата што може  да ја направи едно видео за само неколку часа е непоправлива – особено кога се работи  за интимни и понижувачки содржини кои ги уништуваат животите на девојки, жени,  активистки, новинарки. 

И не е проблемот само во тоа што тие содржини се објавуваат – проблемот е што  платформите дозволуваат тие да се шират, да се коментираат со морбидна радозналост  и да останат онлајн дури и кога жртвата моли за нивно бришење. Нема доволно јасни  процедури за пријавување на „deepfake“ содржини, а често одговорот е автоматизиран,  без вистинска проценка. 

Платформите мора да преземат одговорност како креатори на јавен дигитален  простор. Тоа значи: 

• Воведување задолжителни алатки за верификација на автентичноста на самото  видео, 

• Поголема транспарентност во алгоритмите што одлучуваат што ќе се прикаже и  што ќе се сокрие, 

• Соработка со институции и организации за заштита од дигитално насилство, 

• Финансиско инвестирање во развој на етички алатки за борба против  злоупотреба на AI. 

Не е прифатливо платформите да профитираат од „engagement“, додека  истовремено жртвите се борат со анксиозност, јавен срам и траума. Ако можат да  направат алгоритам што ќе ни понуди реклама за чевли по само едно спомнување,  тогаш можат и да препознаат експлицитна „deepfake“ содржина со лице на реална  личност. 

Сè додека не постои вистински притисок – и од јавноста и од регулаторите – платформите ќе продолжат со нивните активности. Но штетата што ја прават не може да  се избрише со некој формулар. Потребна е промена на културата на дигиталната  одговорност.

10 

Препораки за идни дејствија 

Доста е веќе да се зборува за проблемите како да се некакви далечни сценарија.  „Deepfake“ злоупотребите не се нешто што се случува „некому, некаде“ – тие се реална  закана, особено за жените кои се активни онлајн, јавни личности или, едноставно, имаат  нечија љубомора или омраза насочена кон нив. Затоа, препораките за идни дејствија не  треба да бидат формалност, туку приоритет за сите – од државни институции, до  технолошки компании, медиуми и граѓанското општество. 

Прво и основно, мора да се зајакне законската регулатива. Законот треба јасно  да дефинира што претставува дигитално сексуално насилство, „deepfake“ содржина, и  какви казни следуваат. Сега имаме правен вакум – полицијата нема доволно алатки,  обвинителството нема доволно јасни основи за гонење, а жртвите остануваат оставени  сами на себе. Мора да постојат специјализирани единици во институциите кои ќе се  справуваат токму со ваков вид дигитални злоупотреби. 

Второ, образованието и јавната свест мора да се третираат како темел на  решението. Не може младите да растат со став дека „па тоа е само видео, ништо  страшно“. Мора да се зборува за дигитална етика, за приватност, за последици. Не со  заплашување, туку со едукација. Училиштата треба да вклучат теми за родова еднаквост,  сајбер безбедност и критичка медиумска писменост – не како изборен предмет, туку  како суштински дел од воспитниот процес. 

Трето, платформите – и тоа без одложување – мора да воведат јасни политики за  отстранување и превенција на „deepfake“ содржина. Не е доволно само да се наведат  „услови на користење“ – потребни се конкретни алатки, достапни на локални јазици, со  човечка поддршка, а не само автоматизирани пораки. Ако сакаат да бидат глобални  лидери, тогаш нека преземат и глобална одговорност. 

Четврто, потребна е поддршка за жртвите. Правна, психолошка, финансиска ако  треба. Не може некоја девојка да изгуби работа, пријатели, достоинство, само затоа што  некој анонимен кретен одлучил да ѝ монтира видео. А потоа институциите само да  креваат раменици. Мора да постојат механизми за брза реакција, центри за помош,  бесплатна правна поддршка.

11 

И најважно од сè – потребно е колективно ангажирање. Не може само неколку  организации да го влечат товарот. Универзитети, новинари, ИТ секторот, феминистички  движења – сите треба да се поврзат, да создадат заеднички стратегии и да не дозволат  „deepfake“ технологијата да стане уште една алатка за тивко и перманентно насилство. 

Ако не се реагира сега, последиците ќе ги чувствуваме уште долго. И не само како  поединци, туку како општество кое одлучило да молчи додека жените се бришат,  понижуваат и напаѓаат преку најмодерните дигитални алатки на денешницата. 

III. Заклучок  

Во едно време кога технологијата напредува со забрзано темпо, а вештачката  интелигенција станува составен дел од секојдневието, мора да признаеме дека не сме  сите еднакво заштитени. „Deepfake“ технологијата, иако во својата основа може да биде  иновација што инспирира, во реалноста сè почесто се претвора во оружје за дигитално  насилство – особено насочено кон жените. И тоа не е случајност, тоа е одраз на длабоко  вкоренетата родова нееднаквост која само го менува својот облик, но не и суштината. 

Она што особено загрижува е тоа што општеството, институциите, па и  технолошките гиганти уште не се соочуваат како што треба со проблемот. Додека  жртвите се соочуваат со срам, анксиозност, загуба на работа или дури и самоубиствени  мисли, одговорните страни нудат половични решенија, бирократски одговори и глуво  молчење. Нема доволно закони, нема доволно едукација, нема доволно емпатија. 

Потребна е радикална промена во начинот на кој се гледа на дигиталната  безбедност. Прво, треба да се престане со романтизирање на технологијата како нешто  неутрално. Не е неутрална кога се користи речиси исклучиво за понижување и напаѓање  на жени. Второ, мора да се сфати дека не може слободата на изразување да биде  изговор за дигитално силување преку фалсификувани видеа. И трето, не смее да се  очекува жените сами да се борат со ова – потребен е систем, со јасни механизми, казни  и поддршка. 

Сè додека дозволуваме AI технологијата да служи на патријархалните интереси,  нема вистински напредок. Не е доволно само да зборуваме за „инклузија“ и „етика“ на  конференции – потребна е акција. И тоа сега. Затоа што дигиталното насилство не е 

12 

виртуелен проблем. Тоа е реална траума со реални последици. А молчењето веќе  одамна не е опција. 

IV. Библиографија  

[1] Security Hero, „State of Deepfakes“, 2023. [Online]. Достапно на:  

https://www.securityhero.io/state-of-deepfakes/.

[2] Layla Ferris, „AI-generated porn site Mr. Deepfakes shuts down after service provider  pulls support“, 2025. [Online]. Достапно на: https://www.cbsnews.com/news/ai-generated porn-site-mr-deepfakes-shuts-down/. 

[3] Catherine Han, Anne Li, Deepak Kumar, Zakir Durumeric, „Characterizing the  MrDeepFakes Sexual Deepfake Marketplace“, 2025. [Online]. Достапно на:  https://arxiv.org/pdf/2410.11100. 

[4] TOI Tech Desk, „Donald Trump set to sign the bill that the First Lady Melania Trump  lobbied for, Act criminalizing …“, 2025. [Online]. Достапно на:  

https://timesofindia.indiatimes.com/technology/tech-news/donald-trump-set-to-sign-the-bill-that the-first-lady-melania-trump-lobbied-for-act-criminalizing-/articleshow/121276581.cms. 

[5] Ministry of Justice, Alex Davies-Jones MP, ,,Government crackdown on explicit  deepfakes”, 2025. [Online]. Достапно на: https://www.gov.uk/government/news/government crackdown-on-explicit-deepfakes 

[6] Dr Vincent Hurley, ,,Female public servants targeted in nude deepfake scandal – Daily  Telegraph Online”, 2025. [Online]. Достапно на: 

https://researchers.mq.edu.au/en/clippings/female-public-servants-targeted-in-nude-deepfake scandal-daily-te.

13