Родови разлики во „онлајн хејтот“ и  говорот на омраза во дигиталниот  свет 

Published by

on

Ведран Цингарски 

1. Вовед 

Со зголемената дигитализација на комуникацијата, интернетот стана простор  каде што говорот на омраза се шири со невидена брзина. Социјалните мрежи,  форуми и платформи за размена на мислења овозможуваат анонимност и брзо  ширење на дезинформации и навредливи содржини. Иако сите корисници  можат да бидат жртви на онлајн напади, истражувањата покажуваат дека  жените, небинарните лица и маргинализираните групи се особено изложени.  Според извештајот на Amnesty International, 23% од жените во светот изјавиле  дека биле изложени на онлајн злоупотреба најмалку еднаш, при што честопати  нападите се засновани на нивниот пол, раса или сексуална ориентација. Овој  тренд има сериозни последици врз психичкото здравје на жртвите, води кон  автоцензура и ограничување на слободата при изразување, особено кај  ранливите групи. Онлајн говорот на омраза не само што предизвикува  индивидуални трауми, туку и ја зајакнува дискриминацијата и нееднаквоста во  дигиталниот свет. 

Оваа семинарска работа има за цел да ги анализира родовите разлики во  онлајн говорот на омраза, улогата на вештачката интелигенција (ВИ) во  неговото препознавање и модерирање, како и потенцијалните решенија за  ублажување на овој проблем.

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

Вештачката интелигенција игра сè поголема улога во борбата против говорот  на омраза. Алгоритмите за обработка на природен јазик (NLP) и машинско  учење се користат за автоматско откривање на навредлива содржина. Меѓутоа,  системите за препознавање често се соочуваат со предизвици поврзани со  контекстот, сарказмот и културните разлики, што може да доведе до  неточности и пристрасности при модерирањето. На пример, студии покажуваат  дека алгоритмите понекогаш потешко препознаваат говор на омраза насочен  кон жените или LGBTQ+ заедницата, бидејќи тие се базираат на  предефинирани збирки на податоци кои можеби не ги рефлектираат сите  облици на дискриминација. 

2. Вештачката интелигенција и модерирањето на говорот на  омраза на интернет 

Вештачката интелигенција (ВИ) игра клучна улога во модерирањето на  содржината на интернет, особено кога станува збор за детекција и  отстранување на говорот на омраза. Со огромниот обем на податоци што  секојдневно се објавуваат на платформи како што се Facebook, X (поранешен  Twitter), YouTube, TikTok и Instagram, рачното модерирање е практично  невозможно. Поради тоа, алгоритмите за машинско учење (ML) и длабоко  учење (DL) се користат за автоматска анализа на текстуални, аудио и визуелни  содржини со цел да се идентификува и спречи штетната комуникација.

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

Модерните ВИ системи се дизајнирани не само да препознаат отворено  навредливи изрази, туку и суптилни форми на дискриминација и микроагресии.  Развојот на овие технологии стана особено важен во време кога онлајн  просторот игра голема улога во обликувањето на јавните мислења,  политичките дебати и општествените движења. 

2.1 Но како функционираат ВИ системите за модерирање? 

ВИ моделите за детекција на говор на омраза функционираат преку следните  техники: 

1. Натурален јазичен процесинг (NLP) 

Алгоритмите за NLP анализираат текстови и ги категоризираат врз основа на  нивната содржина, тон и контекст. Се користат техники како sentiment analysis  (анализа на чувства) за препознавање на навредлив или заканувачки јазик,  како и topic modeling за идентификување на тематски области поврзани со  омраза, расизам, сексизам или дискриминација. 

2. Машинско учење (ML) и длабоко учење (DL) 

Системите се тренираат на големи, внимателно означени збирки на податоци  што содржат примери на говор на омраза. Преку супервизирано учење,  моделите учат да препознаваат повторливи обрасци и индикатори на штетен  говор. Со примена на неуронски мрежи, моделите можат да интерпретираат  сложени лингвистички структури и дури да учат од нови трендови во јазикот. 

3. Анализа на контекстот 

Напредните системи се обидуваат да го разберат поширокиот контекст во кој  се користат зборовите. На пример, алгоритмите учат да прават разлика меѓу  позитивни изјави („жените треба да бидат почитувани“) и дискриминаторни  стереотипи („жените не се способни да управуваат со бизнис“). Ова е клучно за  да се избегнат погрешни класификации. 

4. Мултимодална анализа

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

Покрај текстуалните податоци, современите ВИ алгоритми анализираат и  слики, видеа и аудио записи за да откријат потенцијално штетни содржини. На  пример, со помош на компјутерски вид (computer vision) може да се  идентификуваат навредливи мемиња или симболи на омраза, додека со  обработка на аудио сигнал може да се препознаат говори со омраза во видеа  или подкасти. 

2.2 Предизвици и ограничувања на ВИ во модерирањето на говорот на  омраза 

Иако моделите за вештачка интелигенција значително придонесуваат кон  намалување на говорот на омраза, тие се соочуваат со неколку клучни  предизвици: 

1. Пристрасност во алгоритмите 

Ако моделите се тренирани на неурамнотежени податоци, тие може да  покажуваат пристрасност кон одредени групи. Истражувањата покажуваат дека  некои алгоритми полесно откриваат навреди насочени кон одредени етнички  или родови групи отколку кон други. Поради тоа, етичките принципи за  дизајнирање на правични ВИ системи се сè поважни. 

2. Фалш-позитивни резултати 

ВИ системите понекогаш неправедно цензурираат содржини што не се  навистина говор на омраза, како што се активистички дискусии, сатирични  објави или иронија. Ова може да доведе до ограничување на слободата на  изразување и да предизвика недоверба кон платформите. 

3. Јазични бариери и културни разлики 

ВИ алгоритмите најдобро функционираат на англиски јазик, додека на други  јазици (вклучително и македонскиот) може да имаат потешкотии со разбирање  на контекстот и идиомите, од простата причина дека моделите не се тренирани  на овие јазици. Дополнително, културните норми влијаат врз тоа што се смета 

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

за навредливо или неприфатливо, што го прави модерирањето уште  покомплексно. 

4. Манипулација на јазикот 

Корисниците често измислуваат нови начини да ја заобиколат автоматската  детекција, користејќи кодирани зборови, мемиња или извртување на  правописот. Поради ова, моделите мора постојано да се ажурираат за да  останат ефикасни. 

Иако ВИ технологиите се моќен сојузник во борбата против говорот на омраза,  тие не се совршено решение. Најефективен пристап е комбинација на  автоматизирано модерирање и човечка интервенција, каде што луѓето играат  клучна улога во финалната проценка на содржината. Исто така, потребно е  континуирано вложување во развој на фер, транспарентни и културно осетливи  ВИ системи за да се обезбеди побезбеден и инклузивен дигитален простор за  сите. 

3. Примери и анализи 

Пример 1: Жените во јавниот дискурс и онлајн нападите 

Анализите покажуваат дека жените, особено оние што се јавни личности – политичарки, новинарки, активистки – се почесто изложени на координирани 

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

онлајн напади, закани и говор на омраза. Според податоците на Amnesty  International, околу 25% од жените кои биле активни на Twitter (сега X)  доживеале некаква форма на онлајн злоупотреба. Дополнителни студии  укажуваат дека ваквите напади често вклучуваат сексуализирана содржина,  закани за физичко насилство и омаловажување врз основа на родот. 

Истражувањето на United Nations (UN Women) покажува дека онлајн  насилството врз жените има сериозни последици врз нивната ментална  благосостојба и учество во јавниот живот. Многу жени избираат да се  самоцензурираат или целосно да се повлечат од социјалните медиуми за да  избегнат малтретирање, што дополнително ја намалува нивната застапеност  во дигиталниот простор. 

Пример 2: Родова пристрасност во алгоритмите за модерирање 

Истражување на Филозофски факултет Скопје, Универзитет „Св. Кирил и  Методиј” -Скопје (проект aigender.net) покажа дека алгоритмите за детекција на  говор на омраза имаат родова пристрасност. Машините почесто го  идентификуваат и санкционираат говорот на омраза насочен кон мажи отколку  кон жени. Оваа нерамнотежа произлегува од фактот што моделите биле  обучени на податоци што не биле доволно репрезентативни за различните  форми на насилство врз жените, особено суптилните или културно специфичните форми на навреда. 

Дополнително, истражувањето на MIT Media Lab покажа дека системите за  автоматско препознавање на навредлив говор имаат потешкотии да разберат  суптилни, индиректни и контекстуално зависни напади што често се насочени  кон жени и малцински групи. Ова значи дека многу форми на онлајн  злоупотреба остануваат несанкционирани, додека, пак, некои невини изрази  погрешно се означуваат како прекршувања. 

Пример 3: Ризикот за малцинските заедници

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

Дополнително на родовата пристрасност, ВИ алгоритмите за модерирање се  соочуваат со предизвици во правилната идентификација на говор на омраза  насочен кон етнички, религиозни и сексуални малцинства. Истражување на  European Commission against Racism and Intolerance (ECRI) истакна дека онлајн  платформите често пропуштаат да ги идентификуваат и отстранат заканите  насочени кон овие заедници, што ја зголемува нивната изложеност на  дигитално насилство. 

Пример 4: Ироничен и сатиричен говор 

Ироничниот и сатиричниот говор претставува уште еден предизвик за ВИ  системите. На пример, твитови или мемиња што користат сарказам за да  критикуваат омраза понекогаш неправедно се цензурираат. Интересна студија  на Carnegie Mellon University покажа дека актуелните модели имаат тешкотии  да разберат сарказам и често создаваат фалш-позитивни резултати,  ограничувајќи ја слободата на изразување. 

4. Заклучок 

За да се подобри ефикасноста, неопходно е развивање на поинклузивни  модели на вештачка интелигенција кои ги земаат во предвид родовите и  културните разлики. Дополнително, комбинирањето на автоматските системи  со човечка модерација се покажува како најуспешен пристап за спречување на  грешки и за подобра проценка на контекстот. Меѓу потенцијалните решенија за  ублажување на проблемот со говорот на омраза се: 

Едукација на корисниците: Поголема дигитална писменост и развивање на  критичко размислување за препознавање и спротивставување на  навредливата содржина.

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

Зголемена одговорност на платформите: Компании како Meta, X (поранешен  Twitter) и TikTok мора да имплементираат построги правила и транспарентни  механизми за пријавување и санкционирање на говорот на омраза. 

Поддршка за жртвите: Обезбедување на психолошка и правна помош за  лицата кои се таргетирани. 

Законски реформи: Многу земји работат на усвојување на закони кои го  регулираат говорот на омраза на интернет, балансирајќи ги слободата на  изразување и заштитата на индивидуалните права. 

На крај, борбата против онлајн говорот на омраза мора да биде заеднички  напор на технолошките компании, граѓанските организации, владите и самите  корисници. Само преку мултидисциплинарен пристап можеме да создадеме  побезбеден и поинклузивен дигитален простор за сите.

10 

Родови разлики во онлајн хејтот и говорот на омраза во дигиталниот свет 

5. Библиографија 

1. MIT Media Lab. (2022). Character-level HyperNetworks for Hate Speech  Detection. https://amiradler.mit.edu/character-level-hypernetworks-hate speech-detection 

2. UN Women. „Accelerating efforts to tackle online and technology-facilitated  violence against women and girls“ https://www.unwomen.org/en/digital library/publications/2023/04/technology-facilitated-violence-against-women taking-stock-of-evidence-and-data-collection 

3. Amnesty International. (2021). Технолошкиот импакт на говорот на  омраза врз жените на социјалните медиуми. https://www.amnesty.org/en/ 4. AIGender. Пристрасност во машинското учење и нејзиното влијание  врз родовата еднаквост. https://aigender.net/ 

5. European Commission against Racism and Intolerance.( 2015) ECRI General  Policy Recommendation No. 15 on Combating Hate Speech 

6. Carnegie Mellon University. (2021). I May Mistake Chess Discussions as  Racist Talk. https://www.cs.cmu.edu/news/2021/ai-may-mistake-chess discussions-racist-talk

11