Стефан Трајанов
Апстракт
Оваа семинарска работа ги истражува комплексните технички и етички предизвици кои произлегуваат од традиционалното, бинарно моделирање на родот во базите на податоци и информациските системи. Во ерата на дигитализација, каде што податоците го обликуваат нашето корисничко искуство и пристапот до услуги, застарените модели што го ограничуваат родот на „машки“ и „женски“ стануваат сè попроблематични. Работата ги анализира техничките ограничувања на овие модели, како што се нефлексибилноста на шемите на базите на податоци и проблемите со интегритетот на податоците. Истовремено, се истражуваат длабоките етички импликации, вклучувајќи го дигиталното „бришење“ на небинарните и трансродовите идентитети, ризиците за приватноста и безбедноста, како и улогата на овие податоци во создавањето и засилувањето на алгоритамска пристрасност. Конечно, работата нуди преглед на современи пристапи и решенија, вклучувајќи флексибилни модели на податоци и инклузивни практики во дизајнот на кориснички интерфејси, со цел да се изградат поправедни и попрецизни дигитални системи.
- Вовед
Информациските системи се темелот на модерното општество. Од социјалните мрежи и системите за електронско здравство, до платформите за вработување и финансиските институции, начинот на кој ги собираме, чуваме и обработуваме податоците за поединците има директно влијание врз нивните животи. Еден од најосновните, а сепак најпроблематичните податоци што се собираат е родот.
Историски, компјутерските системи се дизајнирани со претпоставка за бинарност – светот се состои од мажи и жени. Оваа претпоставка е вградена длабоко во архитектурата на софтверот, почнувајќи од наједноставната форма во базата на податоци: gender ENUM(‘Male’, ‘Female’).
Иако ова поедноставување можеби изгледало практично во раните денови на компјутерството, денес тоа претставува сериозен технички и етички проблем. Општественото разбирање на родот еволуираше и стана јасно дека родот е комплексен спектар, а не бинарна категорија. Сè поголем број луѓе се идентификуваат како небинарни, трансродови, родово-флуидни или поинаку родово-неконформирани.
Кога системите не можат да го рефлектираат овој реален спектар на идентитети, тие не само што прават техничка грешка со погрешно претставување на реалноста, туку и активно предизвикуваат штета. Тие ги прават невидливи цели групи на луѓе, ги принудуваат да изберат идентитет што не е нивен и создаваат подлога за системска дискриминација преку алгоритми кои се обучени на овие погрешни, бинарни податоци. Оваа семинарска работа ќе се фокусира на анализа на овој проблем од две перспективи: техничката – како да дизајнираме подобри, пофлексибилни и попрецизни системи, и етичката – зошто е императив да го направиме тоа.
- Проблемот со бинарниот модел
Коренот на проблемот лежи во редукционистичкиот пристап каде што општествениот конструкт на родот се сведува на две фиксни, меѓусебно исклучиви опции. Овој модел е неадекватен од повеќе причини:
- Непрецизно ја отсликува реалноста: За голем број луѓе, родовиот идентитет не се вклопува во категориите „маж“ или „жена“. Ова вклучува лица кои се идентификуваат како небинарни, родово-квир (genderqueer), родово-флуидни, а-родови (agender) и многу други. Принудувањето на овие лица да изберат една од двете опции е форма на погрешно родово определување (misgendering).
- Ги меша концептите за пол и род: Честопати, полето за „род“ во формуларите всушност прашува за биолошкиот пол доделен при раѓање, игнорирајќи го фактот дека полот (sex) и родот (gender) се различни концепти. Полот се однесува на биолошките карактеристики, додека родот е социјален и личен идентитет.
- Создава ригидност во системите: Откако бинарниот модел е вграден во основата на базата на податоци, станува исклучително тешко и скапо да се промени. Секоја промена бара миграција на податоци, ажурирање на корисничкиот интерфејс, API-јата и сите делови од системот што зависат од тој податок.
Овој застарен модел не е само техничка неточност, туку и извор на постојана фрустрација и чувство на исклученост за корисниците. Во најдобар случај, тоа е иритирачко; во најлош случај, може да доведе до одбивање на пристап до клучни услуги, како здравствена заштита или социјални бенефиции.
- Технички предизвици и решенија
Надминувањето на бинарниот модел бара промислен пристап кон дизајнот на софтвер на повеќе нивоа.
3.1. Дизајн на флексибилни шеми на бази на податоци
Наместо користење на едноставно ENUM или BOOLEAN поле, постојат неколку пофлексибилни алтернативи:
- Пристап со слободен текст (Free-text field):
- Опис: Се овозможува на корисниците самите да го внесат својот родов идентитет.
- Предности: Максимална флексибилност и инклузивност.
- Недостатоци: Тешкотии при агрегација и анализа на податоците поради варијации во правописот, јазикот и терминологијата (на пр. „небинарен“, „non-binary“, „nb“). Може да биде и мета за злоупотреба (спам внесувања).
- Пристап со повеќекратен избор и прилагодена опција (Multi-select with a custom option):
- Опис: Се нуди листа на најчести идентитети (на пр. Жена, Маж, Небинарен) со можност корисникот да избере повеќе опции или да внесе своја, доколку не е на листата.
- Предности: Комбинација од структурирани податоци (за анализа) и флексибилност.
- Недостатоци: Листата мора внимателно да се курира за да биде инклузивна, но не и преобемна.
- Пристап со повеќе полиња (Multi-field approach):
- Опис: Наместо едно поле „род“, се користат повеќе полиња кои даваат побогата слика. На пример:
- gender_identity (текстуално поле или избор од листа)
- pronouns (заменки, на пр. таа/нејзе, тој/нему, тие/ним)
- honorific (титула, на пр. Г-дин, Г-ѓа, Др., Мх.)
- Предности: Овозможува многу поголема прецизност и персонализација во комуникацијата со корисникот.
- Недостатоци: Покомплексен дизајн на базата и на корисничкиот интерфејс.
3.2. Влијание врз корисничкиот интерфејс (UI) и корисничкото искуство (UX)
Добриот дизајн на UI/UX е клучен за успешно имплементирање на инклузивно собирање на податоци за родот.
- Првото правило е да се преиспита дали податокот за родот е воопшто потребен за функционалноста на апликацијата. За многу услуги, родот е ирелевантен.
- Доколку податокот е неопходен, треба јасно да се наведе зошто се собира и како ќе се користи. На пример: „Го користиме податокот за род за да ви се обраќаме правилно и за анонимни статистички анализи со цел да ги подобриме нашите услуги.“
- Родовиот идентитет може да биде флуиден. Системот треба да им овозможи на корисниците лесно да ги ажурираат своите податоци во секое време.
- Етнички импликации
Техничките пропусти на бинарното моделирање имаат сериозни етички последици.
4.1. Бришење и непризнавање на идентитети
Кога еден систем не нуди опција за некој да го изрази својот вистински идентитет, тој систем испраќа јасна порака: „Ти не постоиш“ или „Твојот идентитет не е валиден“. Ова дигитално „бришење“ (erasure) е форма на симболичко насилство што ја засилува социјалната маргинализација со која трансродовите и небинарните лица се соочуваат секојдневно.
4.2. Приватност, безбедност и ризик од злоупотреба
Информациите за родовиот идентитет, особено за трансродовите лица, се исклучително чувствителни податоци. Доколку овие податоци не се чуваат безбедно, нивното протекување може да доведе до сериозни последици, вклучувајќи:
- Дискриминација: При вработување, изнајмување стан или пристап до услуги.
- Насилство и малтретирање: Откривањето на нечиј трансродов идентитет без согласност (outing) може да го изложи на ризик од физичко и психичко насилство.
- Правна злоупотреба: Во земји каде што трансродовите идентитети не се законски признати или се криминализирани, овие податоци можат да се искористат против поединците.
Поради ова, системите мора да имаат робусни безбедносни мерки и јасни политики за приватност.
4.3. Алгоритамска пристрасност и дискриминација
Многу системи за вештачка интелигенција (AI) и машинско учење (ML) се обучуваат на податоци собрани од постоечките системи. Кога овие податоци се засновани на бинарен и стереотипен поглед на родот, алгоритмите учат и ги засилуваат тие стереотипи. Примери за ова вклучуваат:
Алгоритам кој е обучен на историски податоци каде што инженерите биле претежно мажи, може да почне автоматски да ги дисквалификува апликациите од жени за технички позиции.
Системи за препознавање на лица честопати имаат значително повисока стапка на грешки кај жени со потемна боја на кожа, бидејќи се обучени на податоци каде доминираат бели мажи.
Платформите можат да прикажуваат стереотипни реклами, на пример, реклами за алати на мажи, а за производи за чистење на жени, засилувајќи ги традиционалните родови улоги.
4.4. Социјално-економско влијание и пристап до ресурси
Неможноста на информациските системи правилно да го моделираат родот не е само апстрактен проблем на идентитетот, туку има директни и мерливи социјално-економски последици. Кога дигиталниот идентитет на една личност не се совпаѓа со нејзиниот реален идентитет, тоа создава сериозни пречки за пристап до основни ресурси и учество во економијата.Модерните финансиски системи се во голема мера зависни од дигитална верификација на идентитетот, позната како KYC (Know Your Customer) процедури. За трансродовите лица кои се во процес на транзиција или кои имаат законски документи што не се совпаѓаат со нивниот изглед или родов идентитет, ригидните дигитални системи можат да го блокираат пристапот до основни услуги како отворање банкарска сметка, аплицирање за кредит или добивање осигурување. На пример, ако системот бара полот на личната карта да се совпадне со полето „род“ во апликацијата, а притоа нуди само бинарни опции, лицето може да биде автоматски одбиено, без можност за човечка интервенција или објаснување.
Пазарот на труд сè повеќе се потпира на автоматизирани системи за следење на апликанти (Applicant Tracking Systems – ATS). Овие системи ги скенираат биографиите и апликациите за клучни зборови и податоци пред тие воопшто да стигнат до човек. Доколку системот е дизајниран со бинарни претпоставки, тој може погрешно да ги класифицира или целосно да ги отфрли кандидатите чии профили не се вклопуваат во очекуваните категории. На пример, промената на името во биографијата може да предизвика недоследност со други записи, што системот го толкува како грешка или обид за измама. Ова создава системска бариера за вработување на родово-различните лица, без оглед на нивните квалификации.
Пристап до здравство и социјална заштита, односно ова е можеби најкритичната област каде што бинарното моделирање предизвикува директна штета. Здравствените информациски системи кои го поврзуваат пристапот до одредени услуги со биолошкиот пол можат да бидат опасни. На пример, трансродов маж на кого во системот му е доделен „машки“ род може да биде одбиен за гинеколошки преглед или скрининг за рак на грлото на матката, иако тоа е медицински неопходно. Спротивно, трансродова жена може да не добие потсетник за скрининг на рак на простата. Ваквите системски пропусти не се само административни грешки, туку претставуваат сериозен ризик по здравјето и животот на пациентите.
4.5. Губење на доверба во технологијата и создавање дигитален јаз
Покрај индивидуалната штета, неинклузивниот дизајн има и пошироки општествени последици, како што се ерозија на довербата во технологијата и продлабочување на дигиталниот јаз.
Може да створи проблеми кај довербата, кога членовите на една заедница постојано се соочуваат со системи кои ги игнорираат, погрешно ги претставуваат или им штетат, тие со право губат доверба во тие системи. Оваа недоверба не се однесува само на една апликација, туку се проширува на целиот технолошки екосистем. Маргинализираните корисници може да почнат да избегнуваат користење на дигитални услуги – од социјални мрежи до платформи за електронска влада – поради страв од дискриминација, малтретирање или едноставно поради заморот од постојаното соочување со системи кои не ги препознаваат. Ова ги исклучува од дигиталниот јавен простор и ги лишува од можностите што технологијата ги нуди.
Формирање нова форма на дигитален јазол, традиционално, дигиталниот јаз се дефинираше преку пристапот до хардвер (компјутери) и интернет конекција. Денес, се појавува нова, посуптилна форма на јаз, која се однесува на можноста за безбедно и автентично учество во дигиталниот свет. Имањето пристап до интернет е бесмислено ако секоја онлајн интеракција бара од вас да го негирате сопствениот идентитет. За родово-различните лица, дигиталниот свет не е секогаш безбедно место. Затоа, инклузивниот дизајн не е само прашање на „добар UX“, туку е предуслов за дигитална еднаквост. Како креатори на овие системи, инженерите и компаниите имаат етичка одговорност да не предизвикуваат штета (принцип на primum non nocere). Игнорирањето на потребите на милиони луѓе не е неутрален чин; тоа е активен избор кој ги одржува постоечките структури на нееднаквост. Со тоа што одбиваат да ги ажурираат своите застарени модели, технолошките компании стануваат соучесници во системската маргинализација. Преземањето одговорност значи проактивно ангажирање со засегнатите заедници, инвестирање во истражување и развој на инклузивни технологии и третирање на инклузивноста како основен, а не како дополнителен елемент на квалитетниот софтвер.
- Препораки и најдобри практики за инклузивен дизајн
Анализата на техничките и етичките предизвици не би била комплетна без да се понудат конкретни, практични чекори што можат да ги преземат инженерите, дизајнерите и компаниите за да изградат поинклузивни системи. Овој дел нуди сет на препораки и најдобри практики кои можат да послужат како водич за одговорно моделирање на родот.
5.1. Принципот на минимизација на податоци (Data Minimization)
Пред воопшто да се размислува за тоа како да се праша за род, најважното прашање што треба да се постави е: „Дали овој податок ни е воопшто потребен?“. Овој принцип, кој е и еден од темелите на Општата регулатива за заштита на податоците (GDPR) на ЕУ, налага дека треба да се собираат само оние податоци што се апсолутно неопходни за функционирањето на услугата.
- Практична имплементација: За секое поле за род во системот, тимот треба да може јасно да одговори:
- Која конкретна функционалност зависи од овој податок?
- Дали таа функционалност може да се постигне на друг начин, без да се собира овој податок?
- Дали вредноста што ја добиваме со собирање на овој податок го надминува потенцијалниот ризик и штета за корисникот?
Во голем број случаи (на пр. платформи за е-трговија, форуми, алатки за продуктивност), родот на корисникот е целосно ирелевантен. Елиминирањето на непотребното собирање на овие податоци е најефективниот начин да се избегнат сите поврзани проблеми.
5.2. Дизајн во соработка со заедницата (Community-Led Design)
Инженерите и дизајнерите, колку и да имаат добри намери, не можат секогаш да ги предвидат потребите и проблемите на заедниците на кои не им припаѓаат. Затоа, еден од најважните чекори е активно да се вклучат трансродови, небинарни и родово-различни лица во процесот на дизајнирање. Методи: Платени консултации, инклузивно корисничко тестирање, вработување на разновидни тимови.
5.3. Градење на флексибилна и транспарентна архитектура
Како што беше дискутирано во техничкиот дел, системите треба да бидат флексибилни. Но, покрај тоа, тие треба да бидат и транспарентни кон корисникот. Да има контрола на корисникот каде корисниците треба да имаат целосна контрола врз своите податоци. Ова вклучува не само можност за лесно ажурирање на својот родов идентитет и заменки, туку и грануларна контрола врз тоа кој може да ги види овие податоци. На пример, на социјална мрежа, корисникот можеби ќе сака неговите заменки да бидат видливи само за пријателите, а не за јавноста. Јасна комуникација, односно кога се бара податок за род, системот треба јасно и едноставно да објасни зошто го бара и како ќе го користи. Наместо генеричка порака, може да се користи специфично објаснување, како на пример: „Ве молиме, изберете ги вашите заменки за да знаеме како правилно да ви се обраќаме во нотификациите.“
5.4. Едукација и развој на внатрешни политики во компаниите
Промената мора да дојде и одвнатре. Технолошките компании имаат одговорност да создадат култура каде што инклузивноста е приоритет. Редовни обуки за сите вработени (не само за инженерите) за основите на родовиот идентитет, несвесната пристрасност и принципите на инклузивен дизајн. Развивање на детални внатрешни водичи (internal style guides) за дизајн и развој, кои вклучуваат конкретни примери и правила за тоа како да се третираат податоците за род, како да се пишува инклузивен текст во интерфејсот (UI copy) и кои технички решенија се препорачани. Овие водичи обезбедуваат конзистентност низ сите производи на компанијата и го олеснуваат процесот за новите вработени.
Со имплементација на овие практики, компаниите можат да направат значаен чекор од реактивно решавање на проблеми кон проактивно градење на технологија која е инхерентно праведна и ги почитува сите свои корисници.
- Заклучок
Моделирањето на родот во информациските системи е многу повеќе од техничко прашање; тоа е прашање на човеково достоинство, еднаквост и социјална правда. Како инженери и информатичари, имаме одговорност да градиме системи што се инклузивни, прецизни и етички.
Преминот од ригидни, бинарни модели кон флексибилни и инклузивни пристапи не е лесен. Тој бара промена во начинот на размислување, инвестиција во нови технологии и едукација на тимовите за развој. Сепак, придобивките се огромни. Со создавање на системи кои ја почитуваат и афирмираат разноликоста на човечките идентитети, ние не само што градиме подобар софтвер, туку придонесуваме кон создавање на поправедно и поинклузивно дигитално општество. Иднината на технологијата мора да биде инклузивна, или таа ќе пропадне во својата основна цел да им служи на сите луѓе.
Користена литература
За изработка на оваа семинарска работа, користени се сознанија и податоци од следниве извори. Препорачливо е да ги консултирате директно за подлабока анализа и цитати.
- “A Primer on Non-Binary Gender and Big Data” – MIT Center for Civic Media.
- Линк до литературата: https://civic.mit.edu/index.html%3Fp=1165.html
- “Guidelines for Gender Inclusive Design” – University of San Diego.
- “Ethical considerations for data involving human gender and sex variables” – arXiv.
- Линк до литература: https://arxiv.org/pdf/2401.01966
- “Gender Bias in Algorithms: How Research Practices Can Lead Change” – RRI Practice.
- “What Is Algorithmic Bias?” – IBM.
- Линк до литература: https://www.ibm.com/think/topics/algorithmic-bias
- “Toward a Nonbinary Model of Gender/Sex Traits | Hypatia | Cambridge Core” – Cambridge University Press.
