Авторка Слободанка Караманова
Вовед
Во време кога сè поголем дел од нашата комуникација, социјализација и информирање се одвива онлајн, дигиталните алатки и вештачката интелигенција почнуваат да играат сè поголема улога не само во тоа како се изразуваме, туку и во тоа како се справуваме со чувствителни општествени прашања. Една од тие теми што сè уште предизвикува полемики и реакции е говорот на омраза насочен кон ЛГБТ+ заедницата. Како студент на предметот Вовед во родови студии, често размислувам за тоа дали технологијата ни помага или само дополнително ги комплицира овие предизвици. Од една страна, интернетот им овозможува на ЛГБТ+ луѓето да најдат поддршка, простор за изразување и заедница. Но, од друга страна, истиот тој простор често се користи за ширење говор на омраза, дискриминација и дигитално насилство. Во оваа семинарска работа ќе се обидам да истражам како дигиталните алатки и вештачката интелигенција можат да бидат искористени за препознавање, спречување, но и понекогаш – несвесно поттикнување на вакви форми на говор. Целта ми е да се добие појасна слика за тоа колку сме навистина подготвени да се соочиме со дигиталните предизвици од аспект на родова еднаквост и човекови права.
Во последните децении, интернетот стана составен дел од секојдневието – простор за учење, изразување, дружење и активизам. Но, паралелно со позитивните страни, се развиваат и негативни феномени, меѓу кои и дигиталната трансфобија. Овој термин се однесува на трансфобични практики и однесувања кои се јавуваат во дигиталната сфера, пред сè на социјалните мрежи, интернет форумите, медиумските платформи и други онлајн канали. Целта на оваа проектна задача е да се истражи што претставува дигиталната трансфобија, како се манифестира, да се прикажат практични примери и да се анализираат можните последици и решенија.
Говорот на омраза претставува една од најопасните појави во современото општество. Иако многумина го сметаат за „само зборови“, неговото влијание врз поединците и заедниците може да биде длабоко трауматично, долгорочно и деструктивно. Овој вид комуникација не само што ги напаѓа различностите – расни, етнички, верски, родови и сексуални – туку ги продлабочува поделбите, ја стимулира дискриминацијата и често претставува предворие на физичко насилство. Во секојдневниот живот, говорот на омраза е присутен на улица, во
3
училишта, на работни места, но особено доминира во онлајн просторот, каде што лесно се шири и тешко се санкционира.
Секојдневни форми на говор на омраза
Во секојдневните ситуации, говорот на омраза понекогаш се јавува во „блага“ форма – низ шеги, стереотипи или коментари што на прв поглед изгледаат безопасни. На пример, кога ученик е исмеван затоа што е „префемен“ или се носи „женски“, тоа е често нормализирано како „децата така си играат“. Но зад тие зборови стои јасна порака: различноста не е добредојдена. Таквото однесување може да доведе до психолошки последици кај жртвата – анксиозност, депресија, па дури и суицидални мисли. Тоа не е игра. Тоа е сериозен проблем.
На работното место, дискриминаторски ставови честопати се изразуваат преку игнорирање на одредени кандидати за работни позиции поради нивниот изглед, име или сексуална ориентација. Коментари од типот „не би сакал геј маж да работи со деца“ се не само навредливи, туку и опасни, бидејќи се засноваат на длабоко вкоренети предрасуди и целосна неоснованост. Ваквиот говор ги исклучува луѓето од целосно учество во општеството и го нарушува нивното основно човеково достоинство.
Говорот на омраза кон ЛГБТ заедницата
Особено сериозна е состојбата со говорот на омраза насочен кон ЛГБТ заедницата. И покрај напредокот во правата на овие лица во некои држави, многу ЛГБТ луѓе сè уште се соочуваат со системска дискриминација, навреди и закани, особено на јавни места и во медиумите. Во нашето општество, не е невообичаено да се слушне како некој вели „тоа не е природно“ или „тие се болни“, што не само што е невистинито, туку и промовира страв и омраза.
Медиумите, политичките говори и социјалните мрежи често дополнително го разгоруваат проблемот. Кога јавни личности или политичари користат реторика што демонизира одредена група – на пример, повикуваат на забрана на „геј парадите“ или тврдат дека хомосексуалноста е „западна закана“ – тие не само што го легитимираат говорот на омраза, туку и го охрабруваат. ЛГБТ лицата стануваат лесна мета – особено младите – и тоа во критичен период од нивниот психолошки развој и идентитет.
4
Улогата на интернетот
Интернетот, особено социјалните мрежи, игра двојна улога во ширењето на говорот на омраза. Од една страна, тој овозможува лесен и брз пренос на омраза, лажни информации и стереотипи. Платформи како Facebook, TikTok или X (поранешен Twitter) се преплавени со коментари што ги деградираат ЛГБТ лицата, често под маската на „слобода на говор“. Анонимноста и отсуството на непосредни последици ги охрабруваат луѓето да пишуваат нешто што никогаш не би го изговориле во живо.
Но од друга страна, интернетот исто така нуди простор за отпор и еманципација. ЛГБТ заедницата користи онлајн простори за да се организира, информира, поддржува и се бори против дискриминацијата. Преку едукативни кампањи, сведоштва и активистички видеа, многу луѓе добиваат прилика да ја разберат реалноста на овие лица и да променат ставови.
Вештачка интелигенција: дел од проблемот и решението
Новите алатки на вештачка интелигенција (ВИ) дополнително го усложнуваат овој феномен. Од една страна, ВИ може да се искористи за ширење на говор на омраза преку автоматизирано генерирање на содржини, длабоки фалсификати (deepfakes) и бот профили што шират дезинформации. Се случува ВИ модели да учат од пристрасни податоци, па да го репродуцираат и засилат говорот на омраза без намера, само затоа што „тоа го има во податоците“.
Од друга страна, токму ВИ може да биде клучен сојузник во борбата против оваа појава. Современи алгоритми можат да детектираат и филтрираат говор на омраза, да ги известат модераторите или автоматски да ги отстранат навредливите коментари. Дополнително, едукативните ВИ алатки можат да создаваат симулации, игри и интерактивни искуства што ги учат младите на емпатија, почит и прифаќање на различностите. Клучно е да се користи оваа технологија со етички стандарди, надзор и одговорност.
Борбата за правата на трансродовите лица мора да се води не само на ниво на физичко тело, туку и во дигиталниот простор, каде што телата стануваат предмет на набљудување, контрола и репродукција преку технологии како што се алгоритми и бази на податоци.
5
Се повеќе се потврдува потребата дека борбата за родова правда мора да ја вклучи и борбата против расистичките и капиталистичките структури кои ја претвораат технологијата во алатка за надзор, исклучување и насилство над маргинализираните групи.
Како пример каде употребата на последните достигнувања во технологијата и употребата на вештачката интелегенција во админитративните процеси се конфронтира со родовото препознавање на личноста и нејзината припадност ќе се елаборира накратко состојбата во Индија и тамошниот систем.
Индија: Од правна инклузија до алгоритамска репресија
Индија е класичен пример за комплексноста на правната и технолошката реалност за трансродовите луѓе. Иако Индија формално го признава третиот род и ги инклузира трансродовите лица во правни рамки, на терен се случува нешто спротивно. Преку примери како Националниот регистар на државјани (NRC) и Националниот орган за идентификација (Aadhaar), се покажува како биометриката, дигиталната документација и алгоритмите стануваат алатки за исклучување.
На пример, процесот на докажување државјанство преку NRC доведува до тоа трансродовите лица да се соочат со невозможни барања за „докази за континуитет на идентитетот“. Исто така, Aadhaar системот, кој користи биометриски податоци за верификација, често не ги препознава трансродовите лица, бидејќи нивниот изглед или глас може да не се совпаѓаат со податоците во системот. Овие алатки, кои наводно служат за вклучување и ефикасност, во практика стануваат средства за исклучување и невидливост.
Исто така неретко се потврдува и тенденцијата дека ВИ системите често ја репродуцираат трансфобијата, бидејќи се тренирани на податоци што се веќе исполнети со родови предрасуди. Алгоритмите за препознавање на лице, гласовна биометрика и дури и системите за автоматско преведување, често ги маргинализираат или „погрешно читаат“ трансродовите лица.
На пример, алгоритмите на ВИ можат автоматски да го „исправат“ изразениот род на трансродовите лица со оној што го очекуваат базите на податоци, а тоа има последици при добивање услуги, вработување, здравствена нега или правна заштита. Се поставува
6
прашањето: кому му припаѓа дигиталниот „одраз“ на трансродовите тела? И што значи тоа кога алгоритмите „одлучуваат“ кој сте, без да се има контрола врз тоа?
Бидејќи дискриминацијата во денешни услови се спречува, но и се развива истовремено во различни правци и на различни начини, во оваа семинарска работа со неколку страници ќе се осврнам и на дигиталната трансфобија како еден од најновите видови дискриминација на денешницата.
Што е дигитална трансфобија?
Дигиталната трансфобија претставува форма на дискриминација и говор на омраза насочена кон трансродовите луѓе во дигиталната сфера. Таа се манифестира преку разни онлајн активности кои имаат за цел да ги деградираат, негираат или омаловажат родовите идентитети на транс луѓето. Иако не е секогаш очигледна или директна, дигиталната трансфобија има реални последици врз менталното здравје, безбедноста и општествената положба на трансродовите лица.
Форми на дигитална трансфобија
1. Онлајн говор на омраза
Најчест облик на дигитална трансфобија е говорот на омраза – преку навредливи коментари, потсмевање, деградирачки мемиња или објави кои се шират преку социјалните мрежи. Често се користат термини кои ги негираат транс идентитетите или го претставуваат трансродовиот идентитет како „неприроден“ или „опасен“.
2. Deadnaming и misgendering
Ова се практики кога намерно се користи старото име на транс лице (deadnaming) или погрешна родова заменка (misgendering), со цел понижување и негирање на нивниот идентитет.
3. Алгоритамска цензура и дискриминација
Многу социјални мрежи автоматски ја блокираат или ограничуваат содржината на транс креатори, особено кога зборуваат за родов идентитет, транзиција или транс права. Иако често не е намерна, ваквата цензура ги маргинализира овие гласови.
7
4. Доксинг и онлајн малтретирање
Објавување на лични информации на транс луѓе без дозвола (доксинг) е форма на дигитално насилство. Оваа пракса води до заплашување, навреди, па дури и реални напади. Освен тоа, чест е и т.н. „cyberbullying“, особено кон млади трансродови лица.
5. Меме култура и длабоки фејкови (deepfakes)
Во некои случаи, транс луѓето се таргетирани преку навредливи мемиња или манипулирани видеа кои служат за исмевање и деградација. Ова дополнително ја зајакнува трансфобијата кај пошироката публика.
Практични примери
• TikTok – Во последниве години, транс инфлуенсери на TikTok забележале дека нивните видеа се избришани или „сенчесто забранети“ (shadowbanned), иако не прекршиле никакви правила. Алгоритмите погрешно ги класифицирале нивните содржини како „осетливи“.
• Twitter/X кампањи – Постојат примери кога трансродови јавни личности добиле илјадници навредливи коментари под организирани хаштагови. Често се користат стереотипи, навредливи слики и исмејување.
• Reddit и 4chan – На овие платформи, особено во анонимни форуми, се споделуваат трансфобични материјали, се охрабрува deadnaming и се планираат организирани напади на транс креатори на други платформи.
Последици од дигиталната трансфобија
Последиците може да бидат сериозни. Освен психолошките – анксиозност, депресија, губење на самодоверба – дигиталната трансфобија често води и до конкретни социјални и економски проблеми. Транс лица може да изгубат онлајн приходи (на пример преку demonetization), да бидат изолирани, па дури и да бидат нападнати во реалниот живот поради доxинг. Дополнително, постојаното присуство на омраза на интернет ги тера многу трансродови млади лица да се повлечат од јавниот простор.
8
Вештачката интелигенција- позитивни и негативни ефекти врз ЛГБТ+ заедницата
Последните години, социјалните медиуми се доминантна арена за размена на информации, јавно изразување и формирање на јавно мислење. Иако тие претставуваат моќна алатка за афирмација на ЛГБТ+ идентитетите и создавање заедници, истовремено тие се користат и како платформи за ширење говор на омраза, особено кон трансродовите лица. Трансфобијата, како форма на дискриминација, често се манифестира преку навредливи коментари, дезинформации, отфрлање на родовиот идентитет и закани. Оваа дигитална трансфобија е олеснета и засилена од алгоритмите што го фаворизираат контроверзниот и сензационалистички говор.
Алгоритмите што ги движат платформите како Twitter/X, TikTok, Facebook и YouTube се дизајнирани за да го максимизираат ангажманот на корисниците, а не нужно да промовираат етички однесувања. Како резултат на тоа, содржини што предизвикуваат силни емоции — вклучително и омраза — се појавуваат почесто и допираат до поголема публика. Трансродовите лица стануваат мета на координирани напади, „deadnaming“, и лажни наративи за нивната „опасност“ или „неприродност“, при што алгоритмите не прават разлика помеѓу навредливиот и легитимниот говор. Дополнително, влијателни јавни личности со големи следбенички бази често шират трансфобични ставови без последици, што само ја нормализира омразата.
Во борбата против овој облик на дигитална омраза, вештачката интелигенција се користи сѐ повеќе како алатка за автоматска модерација на содржина. Преку техники како обработка на природен јазик (NLP), некои системи, како Google Perspective API, се способни да препознаат „токсични“ или навредливи коментари. Социјалните мрежи користат свои сопствени модели, засновани на машинско учење, за автоматско отстранување на трансфобични изрази и симболи. Во некои случаи, оваа технологија успешно спречува ширење на отворен говор на омраза, особено кога е јасен и директен.
Сепак, постојат значајни ограничувања. ВИ честопати не е во можност да го разбере контекстот — на пример, кога трансфобичниот говор е завиен во сарказам, шеги или се користи „кодирана“ омраза. Дополнително, системите може несоодветно да цензурираат легитимни дискусии за транс искуства, ако содржината содржи клучни зборови што се погрешно интерпретирани како навредливи. Недоволното присуство на ЛГБТ+
9
перспективи во процесот на развој и обука на моделите води до тоа ВИ да не ги препознава суптилните, но штетни форми на трансфобија.
Затоа, неопходно е ВИ да се развива во насока на етичка и инклузивна технологија. Тоа вклучува обучување на алгоритмите со податоци што ја вклучуваат транс заедницата, развивање на објасниви модели (explainable AI) кои ќе дозволат транспарентност во модерацијата, како и комбинирање на автоматската детекција со човечка проценка. Платформите треба да инвестираат во механизми што не само што блокираат штетна содржина, туку и активно промовираат едукација и поддршка за трансродовите луѓе.
Во заклучок, социјалните медиуми играат двојна улога – како простор за оснажување и како алатка за ширење на трансфобија. Вештачката интелигенција има потенцијал да придонесе за заштита на трансродовите лица, но само доколку се применува внимателно, одговорно и со вклученост на самата заедница што се обидува да ја заштити. Само така може да се создаде дигитална средина која не само што го намалува говорот на омраза, туку и ја поттикнува еднаквоста и прифаќањето.
Вештачката интелигенција има потенцијал да ја обликува иднината на комуникацијата и интеракцијата во дигиталниот свет, но без соодветна обука и контрола, таа може да ја реплицира и засили постоечката дискриминација. Примерот со јужнокорејскиот четбот Ли Луда, кој само по неколку недели од создавањето беше суспендиран поради употреба на говор на омраза кон ЛГБТК+ заедницата, јасно го покажува ова. Ли Луда ја учеше својата комуникација од огромен број реални разговори, а во нив се криеа и хомофобични и навредливи пораки што ги пренесе во своите одговори. Овој случај илустрира како вештачката интелигенција, без критичка проценка и етички рамки, може ненамерно да биде средство за ширење на штетни стереотипи.
Покрај несаканите ефекти, технологијата со вештачка интелигенција може да биде злоупотребена и намерно, преку лажни профили, ботови и манипулирани медиумски содржини што се користат за дестабилизација и насочен напад кон ранливите заедници, вклучувајќи ја и ЛГБТК+ заедницата. Со оглед на тоа што многу корисници не можат лесно да препознаат производена или лажна содржина, овие практики создаваат простор за ширење на дезинформации и говор на омраза. За ЛГБТК+ лица, кои интернетот често го
10
користат како единствен или главен извор за поддршка и информации, ова претставува сериозна закана за нивната безбедност и благосостојба.
Спречувањето на говорот на омраза и дискриминацијата во дигиталниот простор бара системски и проактивен пристап, кој вклучува развој на напредни алатки за препознавање и блокирање на штетни содржини, едукација за медиумска писменост и имплементација на цврсти политики што ги штитат правата на ЛГБТК+ заедницата. Вештачката интелигенција може да стане моќна алатка за создавање безбедни и инклузивни онлајн простори, но тоа ќе се случи само ако внимателно се справиме со ризиците од пристрасност, приватност и дезинформации. Само така можеме да изградиме дигитален свет каде сите ќе бидат прифатени и почитувани, без оглед на својот идентитет
Заклучок
Дигиталната трансфобија претставува сериозен и сѐ повеќе распространет проблем во современото општество, особено во дигиталната сфера каде што онлајн говорот на омраза, дискриминацијата и насилството кон трансродовите лица се интензивираат и повторуваат. Интернетот и социјалните мрежи, како двострана меч – овозможуваат простор за слобода на изразување и заедништво, но истовремено и средство за ширење на предрасуди, стереотипи и омраза.
Вештачката интелигенција, како нова и моќна технологија, може да биде како дел од проблемот, така и дел од решението. Ако не се применува соодветно, таа може да го засили постојниот говор на омраза и да создаде нови форми на дискриминација, но ако се развива и користи етички, инклузивно и транспарентно, може значајно да помогне во препознавање, филтрирање и намалување на штетните содржини.
За да се постигне вистинска дигитална инклузија и почитување на трансродовите лица, неопходен е системски пристап кој ќе ги вклучи како заедница, така и институции, технолошки компании и општеството во целина. Образованието, законската заштита, развојот на соодветни технологии и политиките за модерирање на содржини се клучни чекори во остварување на оваа цел. Само со здружени напори можеме да создадеме дигитален простор кој не само што ги почитува разликите, туку и ги вреднува и штити човековите права на сите, без оглед на родовиот идентитет.
11
Во крајна линија, дигиталната средина треба да биде место каде што секој може да се изрази без страв од омраза и дискриминација — и каде што технологијата ќе биде во служба на правдата и еднаквоста, а не на поделбите и потиснувањето.
Онлајн просторот се покажа како двојна алатка – од една страна, тој создава можности за видливост, поддршка, поврзување и пристап до релевантни информации и ресурси; од друга страна, тој носи реални закани во форма на сајбер насилство, изложеност на говор на омраза и зголемен ризик од психолошки притисоци. Преку социјалните мрежи, многу ЛГБТК+ поединци првпат наоѓаат чувство на заедништво и прифаќање, особено оние кои живеат во средини каде што отворената идентификација може да биде опасна. Онлајн заедниците и платформите не само што овозможуваат размена на искуства и поддршка, туку и играат важна улога во градењето личниот и колективниот идентитет. Сепак, истите тие простори често се местото каде што дискриминацијата и стереотипите добиваат нова форма и брзина на ширење, оставајќи долготрајни психолошки последици кај поединците. Затоа, од суштинско значење е дигиталните алатки да се користат свесно и одговорно, при што поддршката од заедницата, институциите и политиките за заштита на ранливите групи ќе биде клучна во обезбедувањето на безбеден и охрабрувачки онлајн простор за сите.
КОРИСТЕНА ЛИТЕРАТУРА
https://www.lgbttech.org/post/navigating-the-risks-how-ai-impacts-the-lgbtq-community HTTPS://LINK.SPRINGER.COM/ARTICLE/10.1007/S43681-024-00423-8#SEC8
12