Навигација низ AI: Предизвици со кои се соочуваат трансродовите и небинарните лица во алгоритамските системи

Published by

on

Baldwin recognition

Автор: Дино Гавровски

Вовед

Вештачката интелигенција (ВИ) сè повеќе ги обликува човечките искуства на длабоки и суптилни начини. Од курирање содржини до одлуки за вработување, од дијагностика на здравствената заштита до модерирање на социјалните медиуми, системите управувани од ВИ се длабоко вградени во ткивото на современото општество. Меѓутоа, како што овие технологии се шират, така се зголемуваат и загриженоста за нивната праведност, инклузивност и влијание врз маргинализираните групи. Меѓу нив, трансродовите и небинарните лица се соочуваат со уникатни и често занемарени предизвици. Овој есеј ги истражува различните начини на кои системите со ВИ ги зајакнуваат бинарните родови норми, ги маргинализираат неконформистичките идентитети и што може да се направи за да се поттикне инклузивноста.

Разбирање на родот во системите со вештачка интелигенција

Системите за ВИ се изградени врз математички модели обучени на огромни бази на податоци за препознавање на шеми и правење предвидувања. Фундаментална маана во овие системи е често едноставното и застарено разбирање на родот вградено и во податоците и во самите алгоритми. Повеќето апликации за ВИ – од препознавање на лица до обработка на јазик – по дифолт користат бинарен модел на род, класифицирајќи ги поединците строго како машки или женски. Ова исклучува сè поголем број луѓе кои се идентификуваат надвор од традиционалните родови бинарни елементи, како што се трансродови, небинарни, ародови и флуидни родови лица.

Ова исклучување не е само техничко ограничување – тоа ги одразува пошироките општествени структури и културните претпоставки кои влијаат на технолошкиот дизајн. Социологот Руха Бенџамин го опишува ова како „New Jim Code“, термин што се однесува на начините на кои дискриминаторските предрасуди се кодираат во технолошките системи под маската на објективноста. Во контекст на родот, ова значи дека програмерите честопати несвесно ги вградуваат традиционалните родови норми во алгоритмите, што доведува до бришење или погрешно претставување на различни идентитети.

Податоците што се користат за обука на ВИ системи често доаѓаат од извори што не ги претставуваат соодветно маргинализираните групи. На пример, медицинските збирки податоци може да го евидентираат полот доделен на лицето при раѓање, но не и неговиот тековен родов идентитет, што доведува до недоследни и неточни резултати во медицинските предвидувања базирани на пол. Покрај тоа, развивачите на вештачка интелигенција често го третираат полот како стабилна, видлива и непроменлива карактеристика. Овој поим е длабоко проблематичен за трансродовите и небинарните лица, чии искуства со полот може да бидат флуидни, самодефинирани и исклучени од физичкиот изглед. Кога системите за вештачка интелигенција се потпираат на визуелни знаци (како што се црти на лицето или висина/тон на гласот) за да го одредат полот, тие ги зајакнуваат стереотипите и ги поништуваат луѓето чии идентитети не се совпаѓаат со тие претпоставки.

Препознавање на лица и погрешна класификација на пол

Технологиите за препознавање на лица (FRT) добија широка употреба во области како што се надзор, безбедност и означување на социјалните медиуми. Сепак, студиите покажаа дека овие системи лошо функционираат кај родовите и расните малцинства. Трансродовите и небинарните лица се особено ранливи бидејќи нивната родова презентација може да не се совпаѓа со бинарноста на полот што ја очекува системот.

На пример, трансродова жена може да биде погрешно класифицирана како маж ако алгоритмот користи структура на лицето, глас или претходни внесови на податоци што не се совпаѓаат со нејзиниот тековен идентитет. Оваа погрешна класификација може да доведе до психолошка штета, дискриминација и губење на пристап до услуги.

Обработка на природен јазик и препознавање на заменки (Pronouns)

Обработката на природен јазик (NLP), основна област во вештачката интелигенција, е основа на системи како што се чатботови, алатки за превод и автоматски помагала за пишување. Многу NLP системи се борат да препознаат и соодветно да користат родово неутрални заменки како што се „тие/нив“ (They/Them )или неозаменки како „ze/hir“.

Ова ограничување може да резултира со погрешно родово означување во автоматизирани е-пораки, дигитални асистенти или онлајн формулари, дополнително отуѓувајќи ги небинарните корисници. Покрај тоа, на NLP системите честопати им недостасува контекстуалната чувствителност потребна за разбирање на индивидуалните преференции на заменки, што доведува до стандардни претпоставки кои ги бришат различните идентитети.

Собирање податоци и бинарни ограничувања, како всушност AI моделите учат

Многу системи со вештачка интелигенција започнуваат со собирање податоци преку формулари, анкети и кориснички профили кои нудат само две опции за пол. Оваа бинарна структура ги исклучува луѓето кои не се идентификуваат строго како машки или женски, што доведува до искривени збирки податоци и погрешно претставување.

Ваквите исклучувања влијаат врз точноста на алгоритмите и искуствата на корисниците. На пример, апликација за следење на здравјето која поддржува само бинарни внесувања на пол може да понуди неточни препораки за управување со хормонска терапија за трансродови лица. Поради ова се јавува нов проблем директно врзан со здравствениот систем и AI алатките.

Нееднаквости во здравствената заштита и вештачката интелигенција

Здравствената заштита е една од најперспективните и најчувствителните области за примена на вештачката интелигенција. Алгоритмите сега помагаат во дијагностицирање на болести, предвидување на исходите кај пациентите и препорачување третмани. Сепак, трансродовите и небинарните пациенти често се наоѓаат на маргините на ваквите иновации.

Недостатокот на инклузивни бази на податоци и дизајн на алгоритми чувствителни на пол значи дека алатките управувани од вештачка интелигенција може да ги игнорираат или погрешно да ги протолкуваат уникатните здравствени потреби на овие популации. На пример, дијагностичките алатки може да препорачаат третмани врз основа на претпоставки поврзани со полот доделен при раѓање, наместо на тековните медицински потреби поврзани со хормонска заместителна терапија (ХРТ), операции за потврдување на полот или проблеми со менталното здравје специфични за трансродовите искуства.

Електронските здравствени картони (ЕЗК), кои често се користат за снабдување со медицинска вештачка интелигенција, честопати наметнуваат стриктна бинарна структура пол/род и може погрешно да класифицираат или пребришат потврдни информации. Кога овие информации се внесуваат во системите за вештачка интелигенција, последиците вклучуваат несоодветни медицински предупредувања, игнорирани симптоми или дури и одбивање на грижа. 

Fig. 1

Слика 1: Глобален поглед од клинички студии кои користат AI

За да се ублажат овие нееднаквости, може да се преземат неколку чекори:

  • Инклузивни практики за податоци: Здравствените институции треба да собираат сеопфатни податоци за родовиот идентитет, осигурувајќи дека системите за вештачка интелигенција се обучени за разновидни и репрезентативни збирки на податоци.
  • Алгоритамска транспарентност: Програмерите треба да ги направат процесите на донесување одлуки за вештачката интелигенција транспарентни, овозможувајќи идентификација и корекција на предрасудите што влијаат врз трансродовите и небинарните пациенти.
  • Вклучување на засегнатите страни: Вклучувањето на трансродовите и небинарните лица во дизајнирањето и имплементацијата на алатките за здравствена заштита со вештачка интелигенција може да обезбеди дека овие системи ги задоволуваат реалните потреби на заедниците на кои им служат.
  • Политика и регулатива: Владите и регулаторните тела треба да воспостават упатства за да се осигурат дека апликациите за вештачка интелигенција во здравството не ја продолжуваат дискриминацијата и дека се одговорни за резултатите од еднаков третман.

Вработување и алгоритамска пристрасност

Вештачката интелигенција сè повеќе се користи во регрутирањето и управувањето со човечки ресурси. Алатките за проверка на биографии, проценките на личноста, па дури и евалуаторите на видео интервјуа се водени од машинско учење. Трансродовите и небинарните лица се соочуваат со системски неповолности кога овие алатки се обучени врз основа на историски податоци што вклучуваат пристрасности против нив.

На пример, ако алгоритам е обучен врз биографии каде што цисродовите мажи имаат поголема веројатност да бидат вработени, тоа може да ги казни биографиите што одразуваат небинарни идентитети или транзиции. Покрај тоа, претставувањето на полот во видео интервјуата може да доведе до пристрасни проценки на „професионализам“ или „културно вклопување“.

Модерирање на социјалните медиуми и содржини

Платформи како Instagram, TikTok, YouTube и Facebook се потпираат на автоматизирани системи за означување, потиснување или отстранување содржина што ги крши упатствата на заедницата. Иако овие системи се дизајнирани да ја намалат штетата – како што се говор на омраза, дезинформации или графичко насилство – тие честопати не успеваат да направат разлики, што доведува до нееднакво спроведување што непропорционално ги погодува маргинализираните корисници, вклучувајќи ги трансродовите и небинарните лица.

Платформите на социјалните медиуми користат вештачка интелигенција за модерирање на содржината и управување со интеракциите на корисниците. Објавите што дискутираат за транзиција, родова дисфорија или небинарни искуства понекогаш се означуваат како несоодветни или целосно се отстрануваат.

Ова бришење не само што ги замолчува маргинализираните гласови, туку придонесува и за дезинформациите околу родовата различност. Алатките за модерирање на вештачката интелигенција мора да бидат редизајнирани со поинклузивни податоци за обука и надзор за да се избегне понатамошна маргинализација на овие заедници.

Системите за модерација на вештачка интелигенција често означуваат содржина што дискутира за квир и транс идентитети, дури и кога е едукативна, афирмирачка или дел од активизам. Објавите што содржат термини како „секс“, „транзиција“, „квир“ или „гради“ може да бидат отстранети, забранети во сенка или ограничени од монетизација – дури и во контексти што се целосно соодветни. Овие автоматизирани филтри често го мешаат медицинскиот, анатомскиот или јазикот поврзан со идентитетот со сексуална или содржина за возрасни, неправедно казнувајќи ги креаторите и застапниците на ЛГБТК+ заедницата. 

Во остра спротивност, некои од најнасилните или вознемирувачките содржини – како што се видеата што прикажуваат вистински акти на насилство, вклучително и смрт – можат да се протнат низ филтрите за модерација. Како што можеби лично сте забележале на платформи како Инстаграм, видеата со насилство, вклучително и снимените смртни случаи, понекогаш остануваат необележани или остануваат активни со часови. Ова се случува скоро секоја година минимум еднаш. Покренува прашања за праговите што ги користат системите за вештачка интелигенција за да утврдат што претставува штета и што е дозволено.

Овие неуспеси укажуваат на критично прашање: Системите за модерација со вештачка интелигенција често се оптимизирани за обем и ефикасност, а не за нијанси или праведност. Во главно, ако одзумираме и ја видиме целосната слика, AI моделите кои се користат за модерација се плитки и неразработени. Тие даваат приоритет на препознавањето на обрасци на површинско ниво – клучни зборови, анализа на слики или скенирање на титлови – без да го разберат контекстот или намерата. Ова резултира со парадокс каде што графичкото насилство може да се занемари, но образовните објави за родовиот идентитет се казнуваат.

Надзор, приватност и безбедност за трансродови и небинарни лица

Како што споменавме претходно, технологијата на вештачката интелигенција се шири во спроведувањето на законот, транспортот и јавната инфраструктура, една од најитните загрижености е употребата на вештачка интелигенција во системите за надзор – особено за трансродови и небинарни лица. Овие системи, честопати напојувани од технологија за препознавање лица (FRT), биометриски бази на податоци и предвидливо полициско работење, имаат значајни импликации за личната приватност, телесната автономија и јавната безбедност.

Системите за препознавање лица веќе се широко користени на аеродромите, паметните градови, па дури и во некои јавни училишта. За трансродовите лица, овие технологии претставуваат и технички и етички предизвици. На пример, ако цртите на лицето на некого се промениле поради хормонска терапија или операции, FRT обучени на постари, бинарно означени податоци може погрешно да ги идентификуваат – означувајќи ги како сомнителни или „непрепознаени“. Уште полошо, за лицата чии официјални документи сè уште го одразуваат нивното мртво име или претходен маркер за пол, несовпаѓањата со тековниот изглед можат да предизвикаат контрола, одложувања или дури и конфронтација.

Во региони каде што законската заштита за ЛГБТК+ лицата е ограничена или отсутна, ваквите системи можат да станат алатки за угнетување. Автоматизираното означување и пријавување може да доведе до несакани излегувања, надзор, а во екстремни случаи и насилство. Трансродовите активисти и групите за права долго време предупредуваат дека без силни заштитни мерки, ваквите системи со вештачка интелигенција можат да се користат како оружје против маргинализираните луѓе под маската на безбедноста или националната безбедност.

Покрај тоа, алгоритмите за предвидливо полициско работење – оние што го предвидуваат криминалното однесување врз основа на минати податоци – честопати користат погрешни и пристрасни збирови на податоци. Овие алатки веќе покажаа расна пристрасност при таргетирање на црните и кафеавите заедници. Додавањето на родовиот идентитет во мешавината, особено ако транс или небинарни лица се погрешно претставени или означени непропорционално, покренува сериозни загрижености за човековите права. Системите за вештачка интелигенција не работат во вакуум – тие ги отсликуваат предрасудите на општествата што ги градат и обучуваат.

Улогата на технолошките корпорации и институционалната одговорност

Многу од проблемите идентификувани низ оваа тема се поврзани со еден централен проблем: недостатокот на институционална одговорност во начинот на кој се дизајнираат, обучуваат и распоредуваат системите за вештачка интелигенција. Големите технолошки компании честопати работат под огромен притисок за брзо иновирање и проширување на глобално ниво. Ова води кон давање приоритет на ефикасноста и досегот на пазарот пред етичките размислувања и инклузивноста.

Малку компании вклучуваат транс или небинарни лица во фазите на тестирање на развојот на вештачката интелигенција, ниту пак редовно се консултираат со организациите за права на ЛГБТК+ при обликувањето на политиката за податоци. Како резултат на тоа, системите за вештачка интелигенција кои длабоко влијаат на животите на луѓето често се создаваат во културни и институционални меурчиња на кои им недостасуваат разновидни перспективи.

Заклучок

Пресекот на вештачката интелигенција и родот е критична граница во борбата за дигитална еднаквост. Трансродовите и небинарните лица се соочуваат со уникатни ризици од технологии кои не ги признаваат или потврдуваат нивните идентитети. Како што вештачката интелигенција продолжува да се развива, така мора да се развиваат и нашите рамки за инклузија. Со центрирање на искуствата на маргинализираните заедници и вградување на етички практики за дизајн, можеме да обезбедиме технологиите за вештачка интелигенција да ги унапредуваат, а не да ги маргинализираат. Иднината на вештачката интелигенција мора да биде инклузивна, или ризикува да ги продолжи токму неправдите што има потенцијал да ги реши.

Библиографија

https://www.thoughtspot.com/data-chief/ep25/princeton-university-ruja-benjamin-on-bias-in-data-and-ai
https://www.pharmasalmanac.com/articles/the-gender-bias-built-into-ai-and-its-threat-to-womens-health
https://link.springer.com/article/10.1007/s44163-025-00257-1
https://www.unwomen.org/en/news-stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do-about-it
https://www.forbes.com/sites/jessedamiani/2019/10/29/new-research-reveals-facial-recognition-software-misclassifies-transgender-non-binary-people
https://research.google/pubs/misgendered-limits-of-large-language-models-in-understanding-pronouns
https://www.adalovelaceinstitute.org/report/the-computer-wont-do-that