Кристијан Симоновски
ВОВЕД
Дигиталната ера донесе невидена трансформација во начинот на кој комуницираме, работиме и ја перцепираме реалноста. Сепак, брзиот развој на вештачката интелигенција (AI) отвори и една нова, темна врата за злоупотреба, каде што границата помеѓу вистината и фикцијата станува речиси невидлива. Во центарот на оваа технолошка бура се наоѓаат т.н. Deepfakes (длабоки лажни содржини) – синтетички медиуми креирани преку софистицирани алгоритми кои можат да го манипулираат човечкиот лик и глас со застрашувачка прецизност.[1] Иако вештачката интелигенција ветува прогрес, за жените низ целиот свет таа често се манифестира како ново, дигитално оружје на патријархатот, редефинирајќи го родово базираното насилство во 21-от век.
Родово базираното насилство не е нов феномен, тоа е системски проблем вкоренет во историската нерамнотежа на моќта помеѓу мажите и жените. Меѓутоа, со појавата на Deepfake технологијата, ова насилство добива нова димензија, дигитална објективизација без преседан. Она што започна како експеримент во лабораториите за компјутерски науки, денес масовно се користи за креирање неконсензуална порнографска содржина. Статистиките се поразителни: истражувањата на платформите за вештачка интелигенција покажуваат дека над 90% од сите Deepfake видеа на интернет се со експлицитна содржина, а жртвите во речиси сите случаи се жени[3]. Овие бројки не се само статистика; тие се индикатор за тоа како технологијата може да се користи за повторно воспоставување на контрола врз женското тело, овојпат во виртуелниот простор[2].
Главната карактеристика на оваа нова форма на насилство е нејзината трајност и лесна достапност. Во минатото, за да се уништи нечија репутација беше потребен голем труд, денес, со помош на неколку бесплатни апликации и една фотографија од социјалните мрежи, секој поединец може да креира лажна снимка која изгледа реално. За жртвата, последиците се катастрофални. Психолошкиот удар од гледањето на сопствениот лик во компромитирачки ситуации, иако тие се лажни, предизвикува траума еднаква на физичко насилство. Оваа појава создава нова форма на социјална изолација и дигитално замолчување на жените, особено на оние кои се јавно активни – новинарки, политичарки и активистки.
3
Дополнително, правните системи ширум светот, вклучително и во нашата земја, се соочуваат со сериозен предизвик. Традиционалните закони за клевета или вознемирување често не се доволни за да го опфатат специфичниот карактер на Deepfake насилството. Прашањето за сопственоста над сопствениот лик и правото на дигитален интегритет стануваат клучни правни и етички дебати на денешницата. Дали технологијата е неутрална алатка или пак таа во себе ги носи предрасудите на своите создавачи? Недостатокот на родова диверзитет во тимовите што ја развиваат вештачката интелигенција придонесува за тоа етичките заштитни механизми често да бидат заборавени или недоволно развиени.
Овoj тексѕ има за цел да го истражи пресекот помеѓу вештачката интелигенција и родовата моќ. Преку анализа на Deepfake технологијата, ќе се обидеме да одговориме на прашањето: Како оваа технологија се трансформира во оружје за угнетување? Трудот ќе ги разгледа психолошките ефекти врз жртвите, правните дупки во регулативите и потребата од нов, етички пристап кон развојот на AI. Во свет каде што „да се види не значи повеќе да се верува“, заштитата на родовиот интегритет станува еден од најголемите предизвици за човековите права во дигиталната ера.
4
1. Анатомија на Deepfake – Како вештачката интелигенција ја рекреира реалноста
За да ја разбереме социјалната опасност од Deepfake содржините, мора прво да го демистифицираме нивниот настанок. Терминот „Deepfake“ е кованица од зборовите „Deep Learning“ (длабоко учење) и „Fake“ (лажно). Оваа технологија не е обична фотомонтажа, таа користи напредни невронски мрежи кои се способни самостојно да учат и да ги имитираат човечките карактеристики со неверојатна прецизност.
1.1. Механизмот на GAN (Generative Adversarial Networks)
Срцето на повеќето Deepfakes се т.н. Генеративни противнички мрежи (GAN). Овој концепт, воведен во 2014 година, функционира преку систем на два алгоритми кои се во постојан конфликт:
Генератор (The Generator) креира слика или видео што изгледа што е можно пореално. Тој започнува со шум и случајни пиксели, обидувајќи се да ја реконструира формата на лицето на жртвата.
Дискриминатор (The Discriminator) претставува алгоритам кој делува како детектив. Тој ги споредува обидите на Генераторот со вистински фотографии и видеа. Ако Дискриминаторот препознае дека сликата е лажна, тој го „казнува“ Генераторот и го принудува да се подобри.
Овој процес на „учење преку конфликт“ се повторува илјадници пати додека Генераторот не стане толку добар што Дискриминаторот (а со тоа и човечкото око) веќе не може да ја разликува лажната содржина од оригиналот[1].
1.2. Процесот на замена на лица (Face-Swapping)
Во контекст на родово базираното насилство, најчесто се користи процесот на енкодирање и декодирање. Алгоритмот ги „крши“ карактеристиките на две лица (на пример, лицето на актерка и лицето на жртвата) во апстрактни податоци. Потоа, софтверот ја зема експресијата, движењето на усните и трепкањето од еден извор и ги „лепи“ врз физиономијата на жртвата.
5
Она што ја прави оваа технологија особено опасна денес е демократизацијата на алатките. До пред неколку години, за ваква манипулација беа потребни моќни суперкомпјутери и врвно познавање на програмирање. Денес, со помош на cloud computing и апликации достапни на „темниот интернет“ (Dark Web), процесот е автоматизиран. Потребен е само доволен број на фотографии од жртвата (кои лесно се собираат од Instagram или Facebook) за алгоритмот да го „научи“ нејзиниот лик[3].
1.3. Зошто Deepfakes се „успешни“?
Успехот на Deepfakes не лежи само во технологијата, туку и во нашата психологија. Човечкиот мозок е еволутивно програмиран да му верува на она што го гледа. Визуелниот доказ традиционално се сметал за „апсолутна вистина“.
Кога AI ќе креира видео каде што движењата на очите и гласот се совршено синхронизирани, кај набљудувачот се создава когнитивен ефект на вистинитост, дури и ако логички знае дека снимката е сомнителна. Токму овој спој на врвна технологија и психолошка манипулација ги прави Deepfakes најубиственото дигитално оружје против личниот и професионалниот интегритет на жените.

Слика 1 Како Deepfake креира видеа и слики од жртвите
6
2. Социолошки импликации – Deepfakes и дигиталната објективизација на жената
Иако вештачката интелигенција е теоретски „родово неутрална“, нејзината примена во реалниот свет често ги рефлектира и засилува постоечките моќни структури и предрасуди. Употребата на Deepfake технологијата за создавање неконсензуална порнографија не е случајност, туку продолжение на историската тенденција за контрола врз женското тело преку нови технички средства.
2.1. Ерозија на согласноста (Consent) во дигиталниот простор
Најкритичниот аспект на Deepfake насилството е целосното отсуство на согласност. Во традиционалните форми на сексуална објективизација, жртвата е третирана како објект, но кај Deepfakes, самата реалност на жртвата е киднапирана. Кога ликот на една жена е вметнат во експлицитно видео без нејзино знаење, тоа претставува форма на „дигитално силување“.
Иако физички контакт не постои, психолошката повреда, чувството на изложеност и повредата на приватноста се реални и длабоки. Ова ја редефинира согласноста, таа повеќе не е само прашање на физички чин, туку и прашање на контрола врз сопствениот дигитален идентитет.
2.2. Технологијата како инструмент за моќ и казна
Deepfakes често се користат како алатка за т.н. „порнографија од одмазда“ (revenge porn) или за замолчување на жени кои заземаат простор во јавната сфера.
Таков пример се новинарки и активистки. Честопати, за да се дискредитира професионалната работа на една жена, напаѓачите користат Deepfakes за да креираат срамни содржини кои го напаѓаат нејзиниот морал, наместо нејзините аргументи.
Социјална контрола е технологија која служи како предупредување за сите жени во дигиталниот простор, дека нивната репутација е кревка и може да биде уништена со неколку клика.
7
2.3. Машкиот поглед (The Male Gaze) во алгоритамското доба
Во родовите студии, терминот „машки поглед“ означува претставување на жените во визуелните уметности и литературата како објекти за машко задоволство. Deepfakes го доведуваат овој концепт до екстрем. Алгоритмите се тренираат на огромни бази на податоци од постоечка порнографија, која е веќе длабоко стереотипна и често насилна. На тој начин, AI не само што креира нови слики, туку и ги автоматизира и верификува патријархалните фантазии, правејќи ги жените достапни за визуелна консумација без нивна волја[2].
2.4. Психолошки ефекти: Дигитална траума
За разлика од обична клевета со зборови, Deepfake содржината е визуелна и висцерална. Жртвите често известуваат за:
– Губење на довербата во сопствената перцепција и во дигиталните платформи. – Социјална анксиозност и повлекување од јавниот живот (дигитално самоизолирање).
– Постојан страв дека „оригиналната“ вистина никогаш нема да биде целосно прифатена од околината, бидејќи лажната снимка продолжува да постои на серверите засекогаш.
3. Студии на случај – Кога технологијата станува реална закана
За да се разбере разорниот ефект на Deepfake технологијата, мора да ги погледнеме инстанците каде таа беше искористена за систематски напад врз жените. Овие примери покажуваат дека никој не е имун – од светски познати икони до млади девојки во образовниот систем.
3.1. Случајот со Тејлор Свифт (2024): Моќта на виралноста
На почетокот на 2024 година, експлицитни Deepfake слики од американската пејачка Тејлор Свифт се раширија на социјалната мрежа „X“ (поранешен Twitter), достигнувајќи милиони прегледи пред да бидат отстранети.
8
Овој инцидент предизвика масовен бран на дебати кои резултираа со итни повици до американскиот Конгрес за донесување на специфични закони за регулација на вештачката интелигенција. Истовремено, случајот послужи како непобитен доказ дека досегашната саморегулација на технолошките гиганти е недоволна за да се заштити дигиталниот интегритет на поединецот.
3.2. Рана Ал-Сајед (Rana Ayyub): Дискредитација на новинарството
Индиската истражувачка новинарка Рана Ајуб беше цел на масовен напад со Deepfake порнографско видео како одмазда за нејзиното известување за владината корупција. Во нејзиниот случај, Deepfakes не беа искористени само за сексуална објективизација, туку како стратешка алатка за политичка цензура и дискредитација на нејзиното истражување за владината корупција.
Користењето на дигитални лаги за поттикнување на омраза и виртуелен линч покажува дека овој тип на технолошка манипулација може многу лесно да ескалира во реална физичка опасност за жртвата, служејќи како моќно средство за замолчување на женските гласови во јавната сфера[4].
3.3. „Училишната епидемија“: Дигитално насилство меѓу врсниците
Можеби највознемирувачкиот тренд е т.н. „училишна епидемија“, каде употребата на Deepfake апликации станува секојдневие во средните училишта ширум светот, вклучително и во нашиот регион. Учениците често користат лесно достапни софтвери за да манипулираат со фотографиите на своите соученички, креирајќи содржини кои потоа се споделуваат во затворени дигитални групи.
Ова ја редефинира технологијата како нова и екстремно сурова форма на врсничко насилство (bullying), кое остава долготрајни последици врз менталното здравје на малолетничките. Леснотијата со која може да се генерира ваква содржина, често преку едноставни анонимни ботови на платформите како Telegram, го прави насилството сеприсутно и тешко за контролирање
3.4. Анализа на примерите: Заеднички именител
Иако овие жртви припаѓаат на дијаметрално различни социјални слоеви, од глобални ѕвезди до анонимни ученички, основниот модел на напад останува системски ист: перфидно искористување на женската сексуалност како најранлива точка за напад врз личната чест и човечкото достоинство. Оваа форма на насилство не цели само кон моментално понижување, туку кон долготрајна социјална стигматизација на жртвата, која често е принудена да се повлече од јавниот и дигиталниот простор заради зачувување на сопствениот мир.
Додека жртвите се соочуваат со реални и разорни последици по нивната кариера и ментално здравје, креаторите на содржините профитираат од параванот на дигиталната анонимност, создавајќи атмосфера во која технологијата станува инструмент за ефикасно замолчување на жените и зацврстување на старите патријархални механизми на контрола во новото, алгоритамско време.
Слика 2 Тејлор Свифт лута за Deepfake слики
10
4. Правни и етички предизвици – Регулирање на непознатото
Еден од најголемите предизвици со кои се соочува современото општество е фактот што вештачката интелигенција се развива експоненцијално, додека правната регулатива се менува со многу побавно темпо. Овој „правен вакуум“ создава плодна почва за сторителите да останат неказнети, вешто криејќи се зад анонимноста на интернетот и застарените законски дефиниции кои не го препознаваат специфичниот карактер на дигиталното насилство.
4.1. Проблемот на дефинирање: Клевета или сексуално насилство?
Во многу правни системи, Deepfakes сè уште погрешно се третираат само како форма на клевета или нанесување штета на угледот. Сепак, феминистичката јуриспруденција оправдано тврди дека неконсензуалниот Deepfake не е само напад врз апстрактната „чест“, туку директен напад врз телото и приватноста на жртвата.
Предизвикот лежи во тоа што ако законот го третира фалсификуваното видео само како „лажна вест“, тој суштински ја минимизира длабоката траума на жената. Потребна е итна преквалификација на овие дела во дигитално сексуално насилство, со цел жртвите да добијат соодветна институционална заштита.
4.2. Анонимност и јурисдикција
Спроведувањето на правдата е дополнително отежнато поради анонимноста и комплексната јурисдикција на глобалната мрежа. Креаторите на ваквите содржини често користат напредни алатки за прикривање на нивната дигитална трага, а фактот што сторителот, жртвата и серверот може да се наоѓаат во три различни држави, ја прави меѓународната правна соработка исклучително бавна и често неефикасна.
Овој недостаток на прекугранична регулатива им овозможува на насилниците да дејствуваат во простор каде што физичките граници не значат ништо, додека правните процедури заглавуваат во бирократски лавиринти.
11
4.3. Одговорност на платформите (Big Tech)
Овој проблем ја отвора и горливата дебата за одговорноста на големите технолошки социјални мрежи. Иако компаниите како Meta или X често се повикуваат на својот статус на неутрални посредници, сè погласни се барањата за нивна алгоритамска одговорност. Доколку алгоритмот на една платформа дозволува вирално ширење на насилна Deepfake содржина со цел поголем ангажман на корисниците, платформата престанува да биде само неутрален домаќин и станува соучесник во процесот на дигитално насилство, што наметнува потреба од нови етички и правни стандарди за содржините генерирани од вештачка интелигенција.
4.4. Македонски контекст и „Јавна соба“ како лекција
Во македонскиот контекст, случаите како „Јавна соба“ послужија како сурова лекција за итноста од законски измени. Иако преку Членот 144-а од Кривичниот законик се направија напори за санкционирање на злоупотребата на личните податоци и родово базираното насилство, сè уште постои евидентна правна празнина во дефинирањето на синтетички креираните содржини[5].
Без прецизна одредба која специфично ги опфаќа AI-генерираните материјали, постои реален ризик сторителите да го избегнат законот преку тврдења дека прикажаната содржина е само компјутерска анимација, а не повреда на реална личност.
4.5. Етиката во дизајнот (Ethics by Design)
Конечно, етичката дебата мора да се префрли од самото казнување кон концептот на превентивна етика во дизајнот. Ова подразбира дека инженерите и корпорациите имаат морална обврска да вградат заштитни механизми, како дигитални водни печати (watermarking), кои јасно би ја означиле секоја AI-генерирана содржина.
Прашањето за целосна забрана на апликации чија единствена цел е дигитална деградација на жените веќе не е само техничка дилема, туку суштински тест за нашите цивилизациски вредности во дигиталната ера.
12
ЗАКЛУЧОК
Истражувањето на пресекот помеѓу вештачката интелигенција и родово базираното насилство открива дека технологијата никогаш не е неутрална. Таа секогаш ги презема карактеристиките на општеството во кое се развива. Deepfake технологијата, како еден од најмоќните производи на денешницата, покажа дека иако има огромен потенцијал за иновации, таа истовремено стана најновото и можеби најопасното оружје за дигитална објективизација на жените во 21-от век.
Низ овој труд видовме дека Deepfakes не се само „лажни видеа“. Тие се инструмент за моќ кој директно го напаѓа женскиот интегритет, приватност и достоинство. Со автоматизирање на креирањето неконсензуална содржина, вештачката интелигенција го демократизираше насилството, правејќи го достапно за секој што поседува компјутер или паметен телефон. Студиите на случај потврдија дека жртвите, без разлика дали се јавни личности или обични граѓани, се соочуваат со трауми кои имаат реални психолошки, социјални и професионални последици.
Ефикасната борба против дигиталното родово насилство бара координиран одговор кој ги обединува правото, технологијата и образованието. Првенствено, државите мора итно да ги ажурираат законите за да ги препознаат Deepfakes како специфична форма на насилство врз телото и приватноста, наместо само како обична клевета. Паралелно со ова, одговорноста мора да падне и врз технолошките гиганти; неопходно е инженерите да развиваат заштитни механизми и алгоритми за детекција со иста брзина со која се усовршуваат алатките за манипулација. На крајот, сите системски мерки зависат од дигиталната писменост на општеството. Мораме колективно да развиеме критичка свест дека во ерата на вештачката интелигенција, визуелниот доказ повеќе не е апсолутна вистина, со што ќе ја демистифицираме моќта на дигиталното насилство.
Патот кон безбедна дигитална иднина не води низ забрана на технологијата, туку низ нејзина хуманизација и феминизација. Вклучувањето на повеќе жени и маргинализирани групи во развојот на алгоритмите е единствениот начин да се осигураме дека вештачката интелигенција ќе служи за прогрес, а не за засилување на старите патријархални предрасуди. Технологијата е огледало на нашите вредности, на нас останува да одлучиме дали во тоа огледало ќе гледаме иновација или угнетување.
13
Користена литература:
[1] Chesney, B., & Citron, D. K. (2019). Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, 107, 1753.
Достапно на: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954 [2] Wajcman, J. (2004). Technofeminism. Cambridge: Polity Press.
[3] Ajder, H., Patrini, G., Cavalli, F., & Cullen, L. (2019). The State of Deepfakes: Landscape, Threats, and Impact. Amsterdam: Deeptrace.
[4] UNESCO. (2022). The Chilling: Global trends in online violence against women journalists. Paris: United Nations Educational, Scientific and Cultural Organization.
Достапно на: https://unesdoc.unesco.org/ark:/48223/pf0000382502 [5] Кривичен законик на Република Северна Македонија
Достапно на: https://jorm.gov.mk/wp
content/uploads/2016/03/%D0%B7%D0%B0%D0%BA%D0%BE%D0%BD%D0%B8%D0% BA-%D0%BF%D1%80%D0%B5%D1%87%D0%B8%D1%81%D1%82%D0%B5%D0%BD- %D1%82%D0%B5%D0%BA%D1%81%D1%82.pdf
14
