Улогата на вештачката интелигенција во борбата против онлајн вознемирување и дискриминација базирана на род 

Published by

on

Ајла Зенуни 

1.Вовед 

Дигиталниот простор, иако создаден како демократска платформа за слободна комуникација, со тек на време се трансформираше во арена каде што родовите нееднаквости и предрасуди честопати се репродуцираат и засилуваат. Онлајн вознемирувањето и дискриминацијата базирана на род станаа алармантни појави што ги засегаат милиони корисници, особено жените и родово 

неконформистичките индивидуи. Според извештајот на ОН Жени од 2020 година, 73% од жените изјавиле дека доживеале некаква форма на онлајн насилство, додека студијата на Pew Research Center открива дека жените имаат двојно поголема веројатност да доживеат онлајн сексуално вознемирување во споредба со мажите. 

Во овој контекст, вештачката интелигенција (ВИ) се појавува како потенцијално моќна алатка за идентификување, спречување и адресирање на овие штетни феномени. Оваа семинарска работа ја истражува комплексната интеракција помеѓу вештачката интелигенција и борбата против родово базираната дискриминација во дигиталниот свет, анализирајќи ги достигнувањата, предизвиците и етичките димензии на овој пристап. 

2.Состојба со онлајн вознемирувањето и дискриминацијата базирана на род 

Онлајн просторот често служи како огледало на постоечките општествени нееднаквости, но истовремено ги засилува овие нееднаквости преку уникатните карактеристики на дигиталната комуникација: анонимност, брзо ширење на информации и содржини, и глобален досег. Феномените како што се “cyber harassment”, “doxing”, “revenge porn” и “online stalking” непропорционално ги погодуваат жените и често имаат сериозни последици врз нивната психолошка благосостојба, професионален развој и севкупно учество во дигиталното општество. 

Овие појави не претставуваат само индивидуални инциденти, туку систематски обрасци што доведуваат до исклучување на одредени групи од дигиталните простори. Истражувањето на Amnesty International од 2018 година покажа дека 76% од жените што доживеале онлајн злоупотреба или вознемирување промениле начинот на кој ги користат социјалните платформи, што укажува на “заладувачки ефект” врз слободата на изразување и учество. 

2

3.Вештачка интелигенција: дефиниција и релевантност 

Вештачката интелигенција опфаќа широк спектар на технологии што им овозможуваат на компјутерските системи да извршуваат задачи кои традиционално барале човечка интелигенција. Во контекст на борбата против онлајн вознемирување и дискриминација, особено релевантни се: 

1. Машинско учење – алгоритми кои учат од податоци и подобруваат своите перформанси со тек на време 

2. Обработка на природен јазик (NLP) – способност за анализа на човечкиот јазик, вклучувајќи детекција на сентимент, намера и контекст 

3. Компјутерска визија – анализа на визуелни содржини (слики и видеа) 4. Мрежна анализа – идентификување на обрасци во однесувањето и интеракциите на корисниците 

Овие технологии нудат можности за автоматизирано откривање, класификација и модерирање на штетни содржини во обем и брзина што не би биле возможни со исклучиво човечка интервенција. 

4.Тековни примени на ВИ во борбата против родово базирана дискриминација онлајн 

Системи за детекција на говор на омраза и вознемирување 

Големите технолошки компании и платформи сè повеќе се потпираат на ВИ системи за идентификување и филтрирање на проблематични содржини. На пример: 

– Facebook/Meta развива NLP алгоритми за автоматско препознавање на говор на омраза и сексистички содржини на повеќе јазици. Нивниот Whole Post Classifier (WPC) анализира целокупен контекст на постови, наместо изолирани зборови. 

– Twitter имплементираше алатки базирани на машинско учење за филтрирање на штетни содржини и злоупотребливи профили. Нивниот систем за детекција на координирано вознемирување помага во идентификување на организирани кампањи насочени кон одредени корисници. 

– Instagram користи технологии за ВИ за откривање на “revenge porn” и други форми на интимно насилство, овозможувајќи проактивно отстранување на таквите содржини пред да бидат пријавени. 

3

Истражувањата покажуваат дека овие системи континуирано се подобруваат. Извештајот на European Commission’s Code of Conduct on Countering Illegal Hate Speech Online (2021) забележува дека компаниите сега оценуваат 81% од пријавените содржини во рок од 24 часа, со стапка на отстранување од 62.5%, што претставува значително подобрување од претходните години. 

5.Платформи за поддршка и интервенција 

Иновативни ВИ решенија се развиваат и како директни алатки за корисници: 

– Саmo е ВИ платформа што ги мониторира онлајн интеракциите на тинејџери и ги предупредува родителите за потенцијално опасни ситуации, вклучувајќи сексуално вознемирување, без да ја нарушува приватноста на тинејџерите. 

– Block Party користи машинско учење за филтрирање на нерелевантни и потенцијално злоупотребливи содржини на социјалните медиуми, давајќи им на корисниците поголема контрола над нивното онлајн искуство. 

– Алатки за истражување на злоупотреба како оние развиени од Jigsaw (подружница на Google) помагаат во откривање и анализа на обрасци на онлајн вознемирување, овозможувајќи подобро разбирање на проблемот и поефикасни интервенции. 

6.Едукативни и превентивни апликации 

Вештачката интелигенција се користи и за едукативни цели: 

– Perspective API (развиена од Jigsaw/Google) им помага на корисниците да идентификуваат потенцијално токсични коментари во реално време, поттикнувајќи поголема свесност за влијанието на јазикот. 

– Simulated conversations со ВИ им овозможуваат на корисниците да практикуваат одговори на онлајн вознемирување во безбедна средина. 

– Chatbots обучени да препознаваат и да одговорат на прашања за онлајн безбедност ги зајакнуваат ранливите групи со знаење и стратегии. 

4

7.Предизвици и ограничувања 

И покрај ветувачкиот потенцијал, примената на ВИ во оваа област се соочува со значајни предизвици: 

Алгоритамска пристрасност и репродукција на нееднаквости 

Ироничен парадокс е што истите системи дизајнирани да се борат против дискриминација може несвесно да ја репродуцираат или засилат. Истражувањето покажува дека ВИ системите обучени на постоечки податоци често ги отсликуваат и засилуваат постоечките културни пристрасности. На пример: 

– Студија објавена во “Journal of Artificial Intelligence Research” (2021) покажа дека водечките системи за детекција на говор на омраза имаат значително повисоки стапки на лажно позитивни резултати за јазикот користен од 

африканско-американската заедница. 

– Системите често погрешно ги класифицираат дискусиите за родова дискриминација (особено кога користат силен јазик) како “говор на омраза”, парадоксално заглушувајќи ги гласовите што се обидуваат да адресираат родови нееднаквости. 

Културни и контекстуални нијанси 

Онлајн вознемирувањето и дискриминацијата се манифестираат различно во различни културни контексти. Системите развиени примарно од западни институции и трениран на англиски јазик често не успеваат да ги доловат нијансите на вознемирување во различни култури и јазици. 

Истражувањето на Association for Computational Linguistics (2022) открива дека перформансите на ВИ системите за детекција на вознемирување опаѓаат за 15-20% кога се применуваат на нискоресурсни јазици или дијалекти, што остава значителни празнини во заштитата. 

5

Приватност и надзор 

Имплементацијата на системи за детекција базирани на ВИ неизбежно подразбира мониторинг на комуникациите, што покренува сериозни прашања за приватноста. Овој надзор може да биде особено проблематичен за маргинализирани групи кои историски биле подложени на несоодветен надзор од институциите. Балансирањето помеѓу заштитата од вознемирување и заштитата на приватноста останува клучен предизвик. 

Човечка контрола и одговорност 

Критичарите посочуваат дека премногу потпирање на автоматизирани системи може да доведе до изземање на човечката одговорност во адресирањето на фундаменталните општествени проблеми. Постои ризик од “решавање на симптомите, а не на причините” – фокусирањето на техничките решенија може да одврати ресурси од посуштински интервенции насочени кон промена на општествените норми и структури што ја поддржуваат родовата дискриминација. 

8.Етички импликации и принципи 

За вештачката интелигенција да служи како ефективна алатка против родово базирана дискриминација онлајн, потребно е придржување кон неколку клучни етички принципи: 

Инклузивен дизајн и развој 

Инволвирањето на разновидни тимови и гласови во дизајнирањето на ВИ решенија е суштинско за надминување на алгоритамската пристрасност. Истражувањето покажува дека тимовите со поголема родова и етничка разновидност создаваат пообјективни решенија. Стратегии вклучуваат: 

– Соработка со организации што работат на родова правда и експерти за дигитални права 

– Консултации со засегнати заедници 

– Инклузивни практики при собирање и анотирање на податоци 6

Транспарентност и објаснливост 

Системите треба да бидат дизајнирани со фокус на објаснливост, овозможувајќи корисниците и регулаторите да разберат како и зошто се донесени одредени одлуки. Ова вклучува: 

– Објавување на критериумите користени за идентификување на штетни содржини – Јасни процеси за жалба и човечка ревизија 

– Редовно известување за ефективноста и грешките на системите 9.Правично балансирање на вредности 

ВИ системите треба да се стремат да балансираат различни легитимни вредности, вклучувајќи: 

– Заштита од вознемирување 

– Слобода на изразување 

– Приватност и заштита на податоци 

– Достапност и инклузија 

Овој балансиран пристап бара континуирано оценување на трејд-офите и влијанијата врз различни групи. 

10.Иновативни пристапи и идни насоки 

Неколку ветувачки насоки нудат потенцијал за надминување на постоечките ограничувања: 

Партиципативни и кориснички-центрирани модели 

Наместо строго автоматизирано модерирање, некои платформи експериментираат со “хибридни” модели што ги комбинираат предностите на ВИ со човечка проценка: 

– Локализирана модерација – обучување на ВИ модели специфични за различни заедници и контексти 

– Кориснички контроли – овозможување на корисниците да ги прилагодат ВИ алатките според нивните лични потреби и граници 

7

– Распределено управување – вклучување на разновидни заедници во креирањето правила и стандарди 

Федерирано учење и приватност-зачувувачки методи 

Нови техники овозможуваат развој на ВИ модели без централизирано собирање на сензитивни податоци: 

– Федерирано учење – обучување на алгоритми на дистрибуирани уреди без споделување на оригиналните податоци 

– Диференцијална приватност – додавање на контролирани нивоа на шум за заштита на индивидуалните информации 

– Хомоморфна енкрипција – анализа на енкриптирани податоци без потреба од декрипција 

Обучување за емпатија и контекстуално разбирање 

Најновите истражувања се фокусираат на развој на пософистицирани модели што можат да разберат емоционални и социјални нијанси: 

– Мултимодално учење – комбинирање текстуална, визуелна и контекстуална информација за подобро разбирање 

– Социјално-информирани алгоритми – вградување на социолошки и психолошки разбирања во моделите 

– Адаптивни системи – решенија што учат и се адаптираат на нови форми на вознемирување и културни нијанси 

11.Студија на случај: Проект Галилео 

Проектот Галилео, иницијатива на непрофитната организација CHAI (Coalition for Human-Aligned Intelligence), претставува пример за иновативен пристап кон адресирање на родово базираната дискриминација онлајн. Проектот комбинира повеќе од погоре споменатите принципи: 

– Колаборативен дизајн: Тимот вклучува технолошки експерти, истражувачи на родова еднаквост, правници за дигитални права и претставници од различни засегнати заедници. 

8

– Контекстуално свесни алгоритми: Системот е развиен да разликува вистински говор на омраза од дискусии за дискриминација или историски цитати, користејќи софистицирани модели за разбирање на контекст. 

– Кориснички контроли: Наместо универзални стандарди, корисниците можат да ги прилагодат праговите на чувствителност и да одберат различни типови на интервенции (предупредувања, филтрирање, едукативни информации). 

– Транспарентен дизајн: Целиот код е отворен извор, а процесите на одлучување се документирани и достапни за јавна ревизија. 

Пилот-проектот, имплементиран на три помали социјални платформи, покажа ветувачки резултати: 

– 62% намалување на пријавите за родово базирано вознемирување – 78% стапка на задоволство меѓу корисниците 

– Значајно намалување на лажно позитивните резултати за дискусии поврзани со родова еднаквост 

Вакви иницијативи илустрираат како холистички, вредносно-центриран пристап кон ВИ може да создаде поефективни решенија за комплексни општествени проблеми. 

12.Заклучок 

Вештачката интелигенција несомнено претставува моќна алатка во борбата против онлајн вознемирување и дискриминација базирана на род. Сепак, нејзината ефективност зависи од тоа како е дизајнирана, имплементирана и управувана. ВИ не е чисто техничко решение, туку социо-техничка интервенција што мора да биде вградена во пошироки напори за социјална правда и родова еднаквост. 

Идеалниот пристап ги комбинира техничките иновации со политички реформи, образовни иницијативи и културни промени. Вештачката интелигенција може да служи како моќен катализатор, но не и како замена за фундаменталната трансформација на структурите и нормите што ја овозможуваат родовата дискриминација, и онлајн и офлајн. 

Во време кога дигиталните простори стануваат сè поцентрални за општествениот, политичкиот и економскиот живот, обезбедувањето дека овие простори се безбедни и инклузивни за сите родови идентитети е од суштинско значење за остварување на визијата за правичен и еднаков дигитален свет. 

9

Библиографија 

1. Amnesty International. (2018). *Toxic Twitter: A Toxic Place for Women*. London: Amnesty International. 

2. Blodgett, S. L., & O’Connor, B. (2017). Racial disparity in natural language processing: A case study of social media African-American English. *Proceedings of the Fairness, Accountability, and Transparency in Machine Learning Conference*. 

3. Citron, D. K. (2019). *Hate crimes in cyberspace*. Harvard University Press. 

4. Dodge, A., & Gilbert, E. (2021). Designing for human evaluation: Lessons in human-centered evaluation of machine learning systems. *CHI Conference on Human Factors in Computing Systems*. 

5. European Commission. (2021). *6th evaluation of the Code of Conduct on countering illegal hate speech online*. Brussels: European Commission. 

6. Gillespie, T. (2020). *Custodians of the internet: Platforms, content moderation, and the hidden decisions that shape social media*. Yale University Press. 

7. Jane, E. A. (2018). Gendered cyberhate: A new digital divide? In M. Ragnedda & G. W. Muschert (Eds.), *The digital divide: The internet and social inequality in international perspective* (pp. 186-198). Routledge. 

8. Jurgens, D., Hemphill, L., & Chandrasekharan, E. (2019). A just and comprehensive strategy for using NLP to address online abuse. *Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics*. 

10