Инклузија на небинарни и родово разновидни  перспективи во ВИ модели 

Published by

on

Ана Јанеска 

Вовед 

Како што вештачката интелигенција сè повеќе влијае врз општествените  норми и начинот на донесување одлуки, сè поважно e овие технологии да го  препознаваат и почитуваат целиот спектар на родови идентитети. Повеќето ВИ  системи досега се развивани врз основа на бинарни претпоставки за родот, што  само ја засилуваат рамката која ги исклучува и маргинализира небинарните и  родово разновидните луѓе. Овие ограничувања не само што создаваат чувство на  исклученост, туку и носат ризик од создавање системи кои не се безбедни,  правични и инклузивни. 

За да изградиме технологии кои служат на сите, мора да размислуваме  пошироко и поинклузивно уште во фазите на дизајн и развој. Во овој есеј се  разгледува зошто е клучно, од етичка и од техничка гледна точка, да се вклучат  перспективите на небинарните и родово разновидните поединци во дизајнот и  развојот на ВИ системи. Притоа, се разгледуваат истражувања од различни  области како компјутерска визија, обработка на природен јазик, гласовни  интерфејси и техники за генерирање податоци. Вклучувањето на овие перспективи  не само што ја подобрува точноста и применливоста на системите, туку  придонесува и за создавање поправедно дигитално општество. 

Дефинирање на небинарна и родова разновидност во контексти  на вештачка интелигенција 

Небинарните и родово разновидните идентитети опфаќаат богат и широк спектар на лични искуства и начини на самоидентификација што не се вклопуваат  во традиционалните, строго дефинирани категории на „машко“ или „женско“.  Овие идентитети можат да вклучуваат: родово квир, родово флуидни, агендер,  бигендер и многу други форми на изразување и постоење. За многу луѓе, родот не 

е фиксна точка, туку динамичен дел од нивниот идентитет што може да се менува  со време, контекст и личен развој. 

Препознавањето и вклучувањето на оваа разновидност не е само прашање  на социјална правда или етичка обврска, тоа е и можност за технолошки  напредок. Дизајнерите и инженерите на вештачка интелигенција се соочуваат со  предизвикот да создадат системи што точно и со почит ќе ја рефлектираат оваа  реалност. Меѓутоа, стандардните практики за означување на податоци честопати  ги сведуваат луѓето на една од двете опции, машко или женско, со што се  избришани оние чиишто идентитети не се вклопуваат во тие ограничени рамки. 

Таквите поедноставувања не само што се неточни, туку и потенцијално  штетни. Тие можат да доведат до грешки во препознавање, пристрасни алгоритми  и искуства кои исклучуваат цели групи луѓе. Доколку сакаме да изградиме  навистина инклузивна и правична технологија, мора да почнеме од основите, да  ги преиспитаме нашите модели, податоци и начинот на кој ја дефинираме  човечката разновидност. 

Предизвици на бинарно-центричните системи со вештачка  интелигенција 

Системите за вештачка интелигенција што се обучуваат на бази на  податоци означени со само машки и женски категории често манифестираат  сериозни пристрасности. На пример, технологијата за препознавање лица на  Amazon, Rekognition, покажала особено високи стапки на грешка при  идентификација на лица со потемна кожа и трансродови поединци. Овој пример  јасно покажува како алгоритмите изградени врз бинарни претпоставки не само  што не ги препознаваат сите луѓе точно, туку и дополнително ги зацврстуваат веќе  постоечките општествени предрасуди. 

Слични проблеми се јавуваат и кај јазичните модели. Небинарните заменки  често се игнорираат, погрешно се толкуваат или пак се поврзуваат со негативни  конотации, со што се зајакнува циснормативниот наратив во автоматизираната  обработка на текст. Овие недостатоци имаат реални последици, тие го  исклучуваат или погрешно претставуваат идентитетот на луѓето во дигиталниот 

простор. Токму затоа е клучно етичките и инклузивни практики да станат основа  при дизајнот и развојот на ВИ-системи. 

Студија на случај: Компјутерски вид и препознавање на лица Системите за препознавање лица многу често го одразуваат тесниот фокус  на бинарната поделба на пол. Најчесто користените бази на податоци не  вклучуваат доволен број небинарни и родово разновидни лица, што доведува до  алгоритми кои или неточно ги класифицираат овие поединци или целосно ги  игнорираат. Овој недостаток има реални последици за тоа како луѓето се  препознаваат, претставуваат и третираат во технолошките системи. Перило и  неговите соработници предложија 19 најдобри практики за справување со ваквите  пристрасности, вклучувајќи поинклузивни начини на собирање податоци,  анотации што ја зачувуваат приватноста, и редовно ревидирање на  потенцијалните пристрасности во системите. Сепак, користењето синтетички  слики како решение мора да се третира со голема претпазливост – иако тие можат  да помогнат во подобрување на застапеноста, исто така постои ризик да ги  реплицираат или дури и да ги засилат веќе постоечките нееднаквости, особено  ако потекнуваат од пристрасни оригинални податоци. 

Студија на случај: Интерфејси активирани со глас 

Гласовно активираните системи со вештачка интелигенција носат посебни  предизвици кога станува збор за инклузивноста на небинарните луѓе. Најчесто,  виртуелните асистенти доаѓаат со однапред избрани „машки“ или „женски“ глас,  без простор за изразување на родот надвор од тие две опции. Овие ограничувања  не се само прашање на удобност, туку директно влијаат на тоа дали небинарните  корисници ќе се чувствуваат препознаени и почитувани. Истражувања преку  интервјуа од Ринкон, Киес и Кат открија конкретни барања од страна на овие  корисници, како што се флексибилни поставки за темброт на гласот, можност за  користење избрани заменки и повисока чувствителност кон родовата  разновидност во комуникацијата. Вклучувањето на вакви функции не е само  технички предизвик, тоа е и прашање на вредности. За да изградиме системи што  навистина им служат на сите, потребен е дизајн што ја става инклузивноста на 

прво место и ги препознава различните искуства на корисниците како суштински  дел од технолошкиот развој. 

Студија на случај: Обработка на природен јазик 

Големите јазични модели често (и несвесно) го пресоздаваат светот како  што е претставен во податоците на кои се обучени, што значи дека родовите  норми вградени во општеството лесно се пренесуваат и во овие технологии.  Наместо да го преиспитаат бинарниот начин на разбирање на родот, овие модели  најчесто го прифаќаат како што е дадено. Со цел да се упати овој проблем,  Анаелија Овале и нејзиниот тим го развија TANGO – збирка податоци што  потекнува од искуствата и гласовите на трансродовата и небинарната заедница.  Преку оваа збирка, тие систематски ја анализираа појавата на погрешно родово  определување и други штетни последици кај системите за автоматско генерирање  на текст. Нивното истражување покажа дека моделите значително почесто  погрешно го определуваат родот на личностите кога се користат неозначени  заменки или еднина „тие“. Овие наоди јасно укажуваат на потребата од насочени  промени во начинот на кој ги тренираме и оценуваме јазичните модели, со цел да  се овозможи посензитивно и инклузивно разбирање на родот. 

Етички упатства и најдобри практики 

За да се изгради небинарна инклузивна вештачка интелигенција,  истражувачите препорачуваат вградување на принципите на правда, еднаквост,  разновидност и вклучување (JEDI) во текот на целиот животен циклус на  вештачката интелигенција. Клучните практики вклучуваат: 

1. Ангажирање на заедницата: Вклучување на небинарни поединци во  собирањето податоци, анотирањето и евалуацијата на моделот за да се  обезбеди дека искуствата што ги живеат го водат однесувањето на  системот. 

2. Флексибилни шеми за етикетирање: Заменете ги бинарните родови етикети  со повеќевредносни или кориснички дефинирани етикети што ја  одразуваат флуидноста на родот.

3. Транспарентност и согласност: Јасно документирајте ги изворите на  податоци, процесите на анотирање и наменетите случаи на употреба за да  ја одржите автономијата и приватноста на корисниците. 

4. Континуирано следење: Редовно ревидирајте ги распоредените модели за  стапки на погрешна класификација и штетно однесување, особено кон  небинарни корисници. 

Синтетички податоци: ветувања и стапици 

Генерирањето синтетички податоци сè почесто се разгледува како можен  одговор на недоволната застапеност на небинарни и родово разновидни  идентитети во постојните бази на податоци. Краток извештај за политики од  Универзитетот на Обединетите нации истакнува дека синтетичките податоци  можат да помогнат во пополнување на овие празнини, при што развојот на  вештачката интелигенција се движи во насока на правичност и усогласеност со  целите за одржлив развој. 

Сепак, важно е да се има на ум дека синтетичките податоци не се без ризик.  Бидејќи се базираат на веќе постоечки податоци, постои реална можност тие да ги  реплицираат или дури и засилат постојните пристрасности. Дополнително,  ваквите податоци често не ја пренесуваат комплексноста и автентичноста на  искуствата на реални луѓе, особено кога станува збор за чувствителни аспекти  како родов идентитет. 

Затоа, иако синтетичките податоци можат да бидат корисна алатка, тие не  смеат да бидат замена за вистинските гласови и искуства на заедницата.  Најдобриот пристап би бил комбинирање на овие технологии со активно учество  на луѓето што ги претставуваат тие идентитети, за да се создадат навистина  правични и инклузивни ВИ-системи. 

Центрирање на гласовите на заедницата 

Покрај техничките подобрувања, клучен чекор кон етички ориентирана  вештачка интелигенција е да се стават во центарот гласовите на небинарните и  родово разновидните луѓе. Не станува збор само за тоа како функционираат  алгоритмите, туку и за тоа кого слушаме додека ги градиме. Квир теоријата го 

доведува во прашање самото постоење на крути, фиксни категории, истакнувајќи  дека родот е многу покомплексен и променлив отколку што бинарните рамки  дозволуваат. Наместо да го гледаме родот како нешто што може да се  „класифицира“ еднаш засекогаш, квир перспективите предлагаат флуиден и  контекстуално зависен пристап. 

Овој начин на размислување отвора простор за поинклузивни и  флексибилни ВИ-системи. Партиципативниот дизајн, преку алатки како  работилници за ко-креирање, интервјуа и панели со луѓе со различни животни  искуства, им овозможува на развивачите да создадат технологии што навистина  одговараат на потребите и реалностите на заедниците што ги опслужуваат.  Ваквиот пристап не само што ја зголемува етичката одговорност, туку и ја  подобрува ефективноста на системите, бидејќи се темели на реални, живи  искуства наместо на абстрактни претпоставки. 

Заклучок и идни насоки 

Вклучувањето на небинарни и родово разновидни перспективи во моделите  на вештачката интелигенција е и морален императив и техничка неопходност.  Бидејќи вештачката интелигенција продолжува да посредува во социјалните  интеракции, од идентификување лица до генерирање текст, дизајнерите и  засегнатите страни мора да усвојат инклузивни практики за податоци, етички  упатства и континуирано ангажирање на заедницата. Идните истражувања треба  да истражат рамки за динамичко етикетирање, подобрени алгоритми за  откривање на пристрасност и интерсекционални пристапи кои ги земаат во  предвид расата, попреченоста и сексуалноста заедно со родовата разновидност.  Само со прифаќање на целосната комплексност на човечкиот идентитет,  системите со вештачка интелигенција можат да станат навистина правични и  почитувачки кон сите корисници. 

Референци 

Association for Computing Machinery. (2023). Towards gender-inclusive and non binary-aware AI: Addressing bias and fairness in machine learning models. ACM Digital  Library. https://doi.org/10.1145/3687251.3687255

Chen, M., Li, X., & Wang, L. (2025). Addressing gender bias in AI systems through non binary data augmentation. International Journal of AI and Ethics, 6(1).  https://doi.org/10.1007/s44163-025-00257-1 

United Nations University. (2024, March 7). Bridging the gender data gap: Harnessing  synthetic data for inclusive AI. https://unu.edu/macau/blog-post/bridging-gender-data gap-harnessing-synthetic-data-inclusive-ai 

Mehta, R., & Iqbal, M. (2024). Inclusive voice technologies: Reimagining smart  assistants beyond the binary. AI and Society. https://doi.org/10.1007/s43681-024- 00485-8 

Rincon, P., Kies, L., & Katt, B. (2024, March 14). Your smart assistant shouldn’t assume  your gender. Wired. https://www.wired.com/story/digital-assistant-smart-device gender-identity/ 

Cogent InfoTech. (2024). Addressing gender bias in facial recognition technology: An  urgent need for fairness and inclusion.  

https://www.cogentinfo.com/resources/addressing-gender-bias-in-facial-recognition technology-an-urgent-need-for-fairness-and-inclusion