Бехим Јакупоски
- Вовед
Родово базирано насилство е насилство што е насочено кон лице поради неговиот род, машки или женски или што диспропорционално влијае на лица од одреден пол.
Често поимите Родово базирано насилство и насилство врз жените се користат наизменично затоа што прифатено е дека во најголем дел од случаите на родово базирано насилство. Жртвата е од женски пол, но сепак тоа не го исклучува и обратниот случај.
Оваа тема е важна поради последиците на жртвата од ваквата појава, тие последии може да бидат психолошки, емоционални или сексуални или пак да му причинат економски губиток. Веќе постојат закони за спречување и казнување на ваквата појава но со развојот на технологијата се почесто и тоа насилство и кибер насилство или дигитално. Но, технологијата исто така ни овозможува полесно да се детектира или реши тој проблем, најмодерната и актуелна алатка за тоа нешто е вештачката интелигенција.
Во оваа семинарска ќе разгледаме дали и како ВИ може да помогне при родово базираното насилство и етичките и правни аспекти во тоа.
- Дефиниции и контекст
- Родов базирано насилство онлајн
Родово базирано насилство онлајн е извршување на насилство врз одредени лица според нивниот пол дигитално или преку интернет. Со растот на технологијата расте и насилството онлајн. Во овој тип на насилство спаѓаат појави како демнење, сајбер булинг, вознемирување, нарушување на приватноста, родово-базиран говор на омраза, споделување туѓи содржини, сексуална злоупотреба врз основа на фотографии или видеа и слично.
Обединетите нации ова го дефинираат како секој чин на насилство врз жените што е извршен, олеснет или чии последици се влошени со делумна или целосна употреба на инорматичката и комуникациската технологија (мобилни и паметни телефони, интернет, социјални мрежи, е-пошта и слично), којшто се насочени против жените само затоа што се жени или којшто несразмерно ги погодува жените.
- Вештачка интелигенција и нејзината улога
Вештачка интелигенција е гранка на компјутерската наука која се занимава со градење паметни машини способни за извршување задачи за кои обично е потребна човечка интелигенција.
Улогата на ВИ во родово-базираното насилство се сведува на автоматизирана детекција на штетни содржини, автоматско отстранување на тие содржини, предвидување на ризични ситуации и спречување на ширење на такви содржини.
Ова значи во делот од дефиницијата на ВИ за извршување задачи тие задачи да бидат детекцијата на насилнички содржини, нивното бришење и предвидување.
За вештачката интелигенција да може да ги извршува овие задачи треба да има пристап до лични податоци, фотографии, приватни пораки. Тука се поставува дилемата за Етички аспекти на користењето на ВИ против оваа појава. Исто така, прашање е дали воопшто правните закони овозможуваат користење на оваа технологија, тоа е правниот аспект.
- Етички аспекти
- Приватност и податоци
Технологии како вештачка интелигенција за да можат ефективно да детектираат појави на родово насилство онлајн и да го филтрираат тоа ќе треба да имаат пристап до повеќе информации од прифатливото денес. Ако има појава на сајбер булинг од родов аспект, за вештачката интелигенција да може тоа да го детектира, да го класифицира како родово насилство и да го отстрани мора таа иста вештачка интелигенција без ограничувања да има пристап до секоја порака меѓу испраќачите што според многумина е нарушување на приватноста. Пример за тоа е компанијата Meta, Meta објави дека вештачка интелигенција ќе ги скенира сите пораки испратени меѓу нејзините корисници и ќе скенира за знаци на булинг и насилство. Според голем дел од јавноста тоа е пристап до приватни информации и масовно следење. За да се реши тој проблем треба да има баланс меѓу дозволата на пристап на ВИ и приватноста на луѓето.
- Пристрасност и дискриминација
Моделите на ВИ често се тренираат на пристрасни податоци. Тие се тренираат на страници и извори каде што луѓето комуницираат меѓусебе и има пристрани податоци. На пример, ако податоците откаде што се тренира дадено ВИ се од одредени демографски групи, тогаш ВИ што е тренирана на тие извори може да ги дискриминира и игнорира жртвите од маргинилизираните заедници. Истражувања покажуваат дека ВИ алатки за препознавање говор на омраза имаат поголема стапка на грешки кај жените и малцински групи. Решение на ваквиот проблем е поголема контрола на изворите на тренирање на моделите на ВИ.
- Правни аспекти
- Заштита на податоци
Бидејќи ВИ за да се користи за овие цели треба да има пристап до приватни информации на луѓето, треба да се усогласи тоа со законите за заштита на податоци. На пример, користење на сензитивни податоци да се извршува со согласност од корисникот или да се анонимираат некако тие податоци. Сепак со таквиот пристап се намалува ефикасноста на вештачката интелигенција. И за ова треба да се најде баланс меѓу ефикасност на ВИ и заштита на податоци на корисниците.
- Правна одговорност
Исто така се поставува прашањето кој е одговорен ако ВИ направи грешка при неговата работа. Ако даден ВИ систем не успее да детектира насилство или го дозволи тоа насилство кој треба да е одговорен за тоа? Сегашните законски одредби не го имаат покриено ова прашање. За успешно да се имплементираат ваквите системи треба јасни законски решенија кои ќе обвинуваат некого при ваква грешка, како на пример креаторот на тој систем. Исто така се јавува проблем на вон гранични случаи на онлајн насилство. Ако ЕУ има едни закони против родово онлајн насилство а тоа насилство се случува меѓу човек од Европа и човек надвор од Европа се поставува прашањето кои закони би се користеле? Тие од Европа или надвор?
- Студии на случаи
- ВИ на Twitter за детекција на говор на омраза
Илон Маск по преземањето на Twitter во платформата воведе ВИ систем за откривање на говор на омраза со цел да се намали штетната содржина на Twitter. Според официјалните изјави од самата компанија бројот на штетни твитови е намален за околу 30% или барем видливоста на таквите твитови. Но сепак според други студии овој систем има и некои проблеми. Системот на Twitter се заснова на клучно-фразен пристап односно имаме одредени клучни зборови кои се класифицирани како говор на омраза. Таков пример се зборовите како: „patriarchy“, „break the patriarchy“ и други. Ваквите изрази ако се употреба не значи дека секогаш има говор на омраза а системот ги детектира како такви. Овој проблем може да се реши со подобрување на системот и овозможување да распознава и контекст на кажаното, како и зголемување на речникот на клучните зборови.
- Deepfake порнографија
Deepfake порнографијата е етичка криза каде што вештачка интелигенција се користи за креирање на убедливи, лажни сексуални видеа и слики на жени без нивна согласност што секако има огромни последици на жртвите како и нивната репутација. Првите случаи на ваквата појава датираат од 2017 година. Во 2019 година 96% од deepfake видеата беа со порнографска содржина, каде во 99% од случаите жртви беа жените. Државите веќе воведуваат строги законски одредби за борба против ваквата појава. Во декември 2023 година, Јужна Кореја усвои закон за забрана за поседување на вакви deepfake видеа и слики, казните достигнуваат до 5 години затвор. Во држави во САД исто така се воведија закони против оваа појава како што се Вирџинија и Калифорнија, а Обединетото Кралство исто така воведе одредби кои го криминализираат споделувањето на вакви содржини.
- Заклучок
Употребата на ВИ за борба против родовото насилство е моќна алатка, но сепак треба да се имплементира со согласност со постојните закони кои исто така треба да трпат модернизирање. Неопходно е да се задржи транспарентноста и заштитата на приватноста на луѓето. Сепак, ВИ е сеуште во нејзнините рани фази и со тек на времето ќе се подобрува во сите аспекти па така и во борбата со родовото насилство и родовото онлајн насилство.
Литература
- Европската конвенција за човекови права.
- Истражувања од организации како Amnesty International (2022) за AI и родови права.
- Академски трудови: Mittelstadt et al., „The Ethics of Algorithms“ (2016).
- Правни документи: GDPR (Член 22 за автоматизирано одлучување).
- https://eige.europa.eu/publications-resources/thesaurus/terms/1113?language_content_entity=mk
- УНДП МК
- https://glasprotivnasilstvo.org.mk/wp-content/uploads/2021/12/2-pager-KtK.pdf
- https://autogpt.net/metas-ai-messaging-the-privacy-concerns-you-should-know-about/
- https://www.them.us/story/twitter-hate-speech-decreased-report
- https://medium.com/%40jangdaehan1/ai-pornography-a-new-moral-frontier-or-a-sign-of-decay-87ef59e73d62
- https://legaljournal.princeton.edu/the-high-stakes-of-deepfakes-the-growing-necessity-of-federal-legislation-to-regulate-this-rapidly-evolving-technology/
- https://www.cbsnews.com/news/south-korea-deepfake-porn-law-ban-sexually-explicit-video-images/
