Родово неутрална или родово слепа? Критичка анализа на концептот на  непристрасен AI низ техничка, етичка, образовна и социолошка перспектива

Published by

on

6nnd1ujk

 

Авторка Мила Георгиева

Вовед 

Во последната деценија, вештачката интелигенција (AI) сè повеќе се користи во сектори  што директно влијаат врз секојдневниот живот, како од регрутација и медицинска  дијагностика, до образовни платформи и системи за правосудие. Обидувајќи се да избегнат  дискриминаторни практики, развивачите на AI системите често се стремат кон т.н. „родова  неутралност”, како еден вид гаранција дека алгоритмите нема да фаворизираат одреден род.  Дополнително и паралелно со тоа, често се користи и терминот „непристрасен AI”, кој  сугерира дека системите функционираат објективно, без влијание од предрасуди или  општествен дисбаланс. 

Но, дали „родова неутралност”, во контекст на вештачката интелигеција, навистина значи  еднаква и праведна застапеност за сите родови? Или пак, токму избегнувањето да се земат  предвид родови спецификации е тоа кое несвесно води до „родова слепост”? 

За да може да се даде одговор на овие прашања, потребно е прво да се разбере што значи  „род” во современ социјален и теоретски контекст. 

Родот не е само биолошка карактеристика, туку и комплексен општествен конструкт кој се  обликува преку историјата, културата, институциите и секојдневните односи на моќ. Тој  длабоко влијае врз тоа како луѓето се перцепираат, третираат и вреднуваат во општеството. Затоа, кога се вели дека некој систем е „родово неутрален”, во реалноста често се  подразбира дека се базира на машкиот, бел, западен, хетеронормативен стандард како  „нормален” или како „универзален”, додека сите останати искуства се маргинализираат или  целосно се игнорираат, сметајќи ги истите како секундарни. Овој феномен создава основа  за структурна нееднаквост која не се препознава лесно, но има длабоки импликации за  целокупната правичност на системите што користат AI. 

Ваквата нормализација на една перспектива како универзална, без критичко  преиспитување, може да доведе до тоа системите да изгледаат објективни, а всушност да ја  репродуцираат исклучивоста. Во дигиталниот контекст, тоа значи дека кога родот не се зема  предвид, се претпоставува дека истиот нема особено значење, а тоа е далеку од реалноста.

Родовата неутралност подразбира третирање на луѓето без оглед на нивниот род, одосно  избегнување на родови ознаки, претпоставки и диференцијации. Во дигиталниот свет, ова  често значи дека не се собираат или не се користат податоци за род, под претпоставка дека  тоа ќе го елеминира потенцијалот за пристрасност. Но, според дадени истражувања,  игнорирањето на родот не секогаш води кон правичност, особено ако податоците кои се  користат веќе носат историски родови пристрасности (Buolamwini & Gebru, 2018). 

Терминот „непристрасен AI” се однесува на алгоритми што носат одлуки без фаворизирање  на одредена група. Идеално, тие треба да се објективни, базирани на податоци и логика, а  не на човечки емоции или предрасуди. Сепак, повеќе студии укажуваат дека AI системите  ги учат и повторуваат пристрасностите што веќе постојат во податоците и општеството. На  пример, Bolukbasi и соработниците откриле дека јазичните модели можат да помогнат во  понатамошно спроведување на длабоки родови стереотипи, како поврзување на „жена“ со  „домаќинка“, а „машко“ со „инженер“ (Bolukbasi et al., 2016). Ова ја потврдува потребата за  внимателно преиспитување на терминологијата кога истата се користи во технологијата. 

Поврзаноста и проблемот 

Кога AI системите се опишуваат како „родово неутрални“ и „непристрастни“, тоа најчесто  значи дека не се користат податоци за род во процесот на одлучување. Но во реалноста,  таквиот пристап може да ги прикрие постоечките нееднаквости, бидејќи системите сепак  учат од податоци што ја рефлектираат родовата дискриминација. Со други зборови,  исклучувањето на родот од анализа не значи дека тој нема влијание, туку дека неговото  влијание останува невидливо и непрепознаено. Оваа т.н. „родова слепост“ може да  резултира со одлуки што не само што не се правични, туку и ја продлабочуваат  дискриминацијата. 

Како резултат, клучното прашање што се истражува во оваа семинарска работа е: Дали концептот на „родова неутралност“ во развојот на AI системи претставува навистина  правичен пристап, или станува збор за родово слеп пристап што ги занемарува  специфичните потреби и позиции на различни родови групи? Одговорот на ова прашање е 

клучен за иднината на технолошките решенија и нивната улога во градењето инклузивно  општество. 

Главен дел 

Историја на родовата неутралност 

Концептот на родова неутралност има комплексна историја, особено во контекст на  западниот феминизам и развојот на правните и технолошките системи. Во 1970-тите  години, родовата неутралност се појавила како еманципаторски концепт и обид за  елиминирање на дискриминацијата преку укинување на правните и општествените разлики  базирани на пол. На пример, жените бараат еднаков пристап до образование, работни места,  и јавни функции преку политики што не прават разлика помеѓу мажи и жени т.е., што се  однесуваат „родово неутрално“. 

Сепак, со текот на времето, особено во доменот на технологијата, овој концепт добива  поинакво значење. Во современите алгоритмички системи и вештачка интелигенција,  родовата неутралност често подразбира игнорирање на родот како варијабла или  променлива. Ова на прв поглед можеби звучи објективно, но всушност може да ги засили  постоечките нееднаквости.  

Техничка перспектива 

Иако идејата за непристрасен AI се базира на објективни пресметки, реалноста на техничко  ниво е далеку покомплексна. Алгоритмите не се создаваат независно од надворешни  влијанија. Напротив, тие се обучуваат врз податоци кои го рефлектираат општеството, а со  тоа и сите негови нерамнотежи, предрасуди и историја на дискриминација. 

Дел од пристрасноста која се појавува, лежи во самите сетови на податоци кои се земаат и  користат во понатамошниот развој и обука на ваквите модели . Така, бидејќи алгоритмот се  тренира врз историски податоци што содржат родови стереотипи или дисбаланс, тој ќе  научи да ги „репродуцира” истите како такви. До пристрасност во податоците за обука (data 

bias) доаѓа доколку, на пример, се користат податоци од работни огласи во технички  професии, каде жените се многу поретко застапени (Zou & Schiebinger, 2018). 

Друг тип на пристрасност е алгоритамската пристрасност. Самите модели можат да ја  засилат пристрасноста преку начинот на кој ја обработуваат и тежински ја оценуваат  информацијата. Така, дури и ако податоците се „чисти”, без пристрасност, моделите за  машинско учење може да направат корелации што нам ни изгледаат логично, но се  социјално проблематични. На пример, систем за регрутација учи дека „машки род” корелира со „повисока ефикасност” бидејќи историски повеќе мажи биле вработени во  одредени улоги отколку жени. 

Некои системи се обидуваат да надминат било каква пристрасност со тоа што не користат  податоци за род. Ова на прв поглед изгледа како разумна стратегија, но, она што тука е  заборавено, е дека родот е имплицитно присутен на друг начин. Односно, преку податоци  за име, стил на говор, интереси и слично. Со други зборови, дури и без експлицитно  собирање на податок за род, AI може индиректно да „погоди” или да проба да го погоди  родот и со тоа да го земе предвид при своите пресметки и предвидувања (Mehrabi et al.,  2021). 

Преку ова се доаѓа до заклучок дека доколку ваквите алгоритми не се обучени врз доволно  разновидни примери, резултатите ќе бидат пристрасни. Односно, алгоритмите ќе  функционираат подобро за доминантните категории, најчесто машки, белци и англо говорници. Ова е потврдено во анализата „Gender Shades”, каде систем за препознавање на  лице има најголема точност кај бели мажи (99%) и најмала кај темнокожи жени (65%) (Buolamwini & Gebru, 2018). 

Етичка перспектива 

Етичката перспектива отвара прашања за зошто пристрасноста на AI е проблем, кои се  последиците од тоа и кој сноси одговорност.  

Она за коешто сакаме да се залагаат AI системите и кон кое би сакале да придноесат е  всушност праведноста, преку тоа што ќе бидат над човеките предрасуди. Но, без поставена 

етичка рамка, тие само ги отсликуваат и повторуваат веќе-постоечките социјални  хиерархии. Родово неутралниот пристап, кој „го става родот на страна”, не земајќи го  предвид, може да направи повеќе лошо отколку добро. Истото може да доведе до тивка  дискриминација токму затоа што се занемарува специфичноста на родовите искуства. 

Еден од етичките проблеми со ваквите системи е што истите често функционираат врз  принцип на еднакво третирање наместо праведно третирање. Еднаков третман на нееднакви  позиции не води до еднакви резултати. Во најлош случај, родовата неутралност не само што  може да доведе до занемарување, туку и до злоупотреба. Така на пример, ако даден систем  се користи за проценка на кандидати за работа и притоа „не гледа” род, но истиот е обучен  врз податоци каде мажите се доминантни, тој ќе ја перцепира машката биографија како  повредна, дури и ако женските кандидати имаат слични или подобри квалификации. Ова  дава можност за и понатаму да се провлекува и создава структурна дискриминација во  општествените системи (Binns, R., 2018). 

Можеби посоодветен пристап, кон кој се стремат и современите етички рамки, е  инклузивната неутралност, при што не би се игнорирале разликите, туку истите би се  препознале со труд да се избалансираат. Значи, родот не треба да се гледа како нешто што  би довело до пристрасност, туку како етичка потреба за видливост, особено во системи кои  активно влијаат врз животот на луѓето и носат одлуки за нив (регрутација, земање кредит,  медицина итн.) (D’Ignazio, C., & Klein, L. F., 2020). 

Сепак, самите АI системи немаат никаква морална одговорност. Етичките прашања се  поставени за луѓето да ги одговорат, поспецифично оние што ги дизајнираат, спроведуваат  и лиценцираат ваквите технологии. Овие теми на разговор треба да се постојано актуелни,  во сите фази на развој. А притоа, треба активно да се поставуваат прашања за тоа кои  податоци се собираат, чии податоци недостасуваат, кој има корист од резултатите, а кој  трпи од последиците и сл. 

Образовна перспектива 

Образованието е алатка која ги обликува генерациите кои ќе ги дизајнираат, тренираат и  користат AI алгоритмите на иднината, и како таква треба внимателно да се користи. Преку 

претставување на AI и технологијата како „неутрални”, без доволна анализа на етичките,  родовите и социјалните импликации, се добиваат млади инженери со одлични технички  вештини, но без критичко размислување за општествената правичност. 

Во повеќето STEM програми, технологијата се учи преку формули и кодови, но нешто што  е многу значајно, а се игнорира, е социјалниот контекст и учењето преку вистински  примери. Ова само го потхранува веќе-постоечкото верување дека алгоритмите се  објективни, што води до некритичко прифаќање на „родовата неутралност” како идеал. Жените често се чувствуваат исклучени од културата на компјутерските науки, која го  нагласува „техничкото” како важно, а го занемарува и маргинализира „општественото” или  „емотивното”. Ова ја намалува шансата за етичките и родовите прашања да добијат 

простор, што всушност и понатаму ја одржува машката доминација во овие сфери (Margolis,  J., & Fisher, A., 2003). 

За да не се доведеме до ситуација каде „родовата неутралност” значи „родова невидливост”,  едукацијата за AI мора да вклучува етика, феминистички теории, критичка анализа на  податоци и разбирање на културните пристрасности (Costanza-Chock, S. , 2020). 

Во локален контекст, многу програми за информатика, компјутерски науки и инженерство  не содржат курсеви по етика или родова анализа. Истовремено, застапеноста на жени во  ИКТ сè уште е ниска, што води до два проблеми: машките перспективи доминираат во  дизајнот на технологијата и родово неутралниот јазик станува нормален, без да се  преиспита (Државен завод за статистика, Македонија, 2023). 

Социолошка перспектива 

Концептот на „непристрасен” или „родово неутрален” AI не е само техничко или етичко  прашање, туку и социолошко, поврзано со моќ, култура, институции и доминација. 

AI ги одразува вредностите и нормите на општеството кое го создава. Кога се вели дека  некој модел е родово неутрален, најчесто тоа значи дека тој го отсликува стандардниот  поглед на светот, кој често е машки, бел, западноцентричен и хетеронормативен. 

Во социолошки контекст, AI може да се сфати како нов тип на институционална моќ  бидејќи алгоритмите донесуваат одлуки кои претходно биле донесувани од луѓе, како оние  за тоа кој ќе добие кредит, кој ќе биде вработен, кој ќе биде прикажан во медиумите итн. Но, за разлика од луѓето, алгоритмите се сметаат за објективни, што значи дека нивните  одлуки поретко се оспоруваат, а тоа може да биде многу опасно. Така, ако даден AI  алгоритам е претставен како таков кој „не гледа” род, жените кои ќе бидат отфрлени од  дадена одлука немаат основа за жалба, бидејќи технологијата била непристрасна. Ова ја  прави дискриминацијата невидлива и придонесува за одржување на статус-кво (Eubanks,  V., 2018). 

Како што веќе беше наведено, многу AI системи се обидуваат да го игнорираат родот или  да го третираат како ризична категорија, што не е најдоброто решение. Социолошките  теории за родот, како оние на Judith Butler или Raewyn Connell, покажуваат дека родот не е  нешто што може да се „исклучи”. Тоа е структура што се пресликува на сите полиња на  живеење: образование, пазар на труд, здравство, медиуми и сл. (Connell, R., 2019). Ако AI го игнорира родот, тоа само ќе придонесе кон игнорирање на системските нееднаквости кои  влијаат врз начинот на кој жените и другите родови групи се третирани во општеството. 

Концептот на род како перформанс, како што го формулира Judith Butler, го менува  традиционалното сфаќање на родот како нешто фиксно и биолошки определено, и го  претставува родот како динамичен процес што постојано се создава и прикажува преку  нашите постапки, гестови и начини на однесување. Родот, според Butler, не е нешто што  човекот „е”, туку нешто што човекот постојано „прави” преку сопствените социјални  практики. 

Кога се пренесува овој концепт во сферата на вештачката интелигенција, се поставува  прашањето како алгоритмите учествуваат во овој перформанс на родот. Дали АI само ја  репродуцира родовата категорија, или пак, активно ја конструира и реизведува? 

АI алгоритмите кои често работат и со слики, говор или креативна содржина, често користат  податоци од интернет кои се полни со родови стереотипи. Така, запознаени сме со голем  број на виртуелни асистенти како Siri и Alexa, чии гласови и имиња се женски, а нивното  „однедување” е покорно и услужливо. Потоа, генеративни AI модели кои жените ги 

прикажуваат сексуализирано или генеративни модели кои на барање за „инженер” нудат  машки слики, а на „медицинска сестра” женски. Ова овозможува AI не само да ја отслика  досегашната слика за општеството и културата, туку и активно да ја вградува во иднината (West, S. M., Whittaker, M., & Crawford, K., 2019). Во тој контекст, AI системите можат или  да ја засилат доминантната родова бинарност, или да ги предизвикаат и трансформираат  традиционалните норми, ако намерно ги насочиме во таа насока. 

Без критичка свест и етички насоки, AI повеќе тежнее да го засили статус-квото, правејќи го перформансот на родот уште поконзервативен. Наместо да отвори простор за родова  флуидност, тој често ја „заклучува” во шаблони и стереотипи. Така, теоријата на Butler  станува корисна алатка за анализа и разбирање на улогата на AI системите, која може или  да одржува патријархална хиерархија или да отвори простор за промена. 

Стратегии за надминување на пристрасноста во AI 

Еден начин како може да се придонесе кон намалување на пристрасноста во AI е диверзитет  во развојните тимови кои ги развиваат овие системи. Според дадени истражувања,  диверзитетот во технолошките тимови не само што води кон повеќе иновативни решенија  и креативност, туку и го намалува ризикот од несвесната пристрасност. Жените,  небинарните лица и луѓето од различни културни средини нудат различна перспектива и  затоа тие можат да идентификуваат потенцијални родови слепи точки, уште во раните фази  на дизајн на системите (UNESCO 2020). 

Исто така, потребно е и алгоритмите редовно да се ревидираат од независни тела, како  социолози и правници, и транспарентност во врска со податоците кои се користат и начинот  на кој функционираат моделите. Ваквите практики ја зголемуваат одговорноста и  овозможуваат корисниците да разберат дали и како може да бидат дискриминирани (Raji, I.  D., & Buolamwini, J. 2019). 

Покрај техничките и етичките аспекти, клучна улога во намалувањето на родовата  пристрасност во АI ја имаат и политиките и регулативните рамки. Законодавците и  регулаторните тела мораат да воспостават јасни стандарди и обврски за транспарентност,  отчетност и вклученост во процесот на развој и примена на AI технологии. Ова вклучува

барања за инклузивни и разновидни сетови на податоци, како и за вклучување на експерти  од различни дисциплини, вклучително социјални науки, етика и родови студии. Само преку  координирани напори помеѓу развивачите, корисниците, научниците и законодавците,  може да се обезбеди дека AI системите ќе придонесат кон создавање на навистина праведно  и инклузивно општество. 

Уште една значајна практика е и инклузивниот дизајн кој подразбира активно вклучување  на маргинализираните групи во процесот на дизајн и теситрање на технологиите, со цел да  се осигури дека нивните потреби не се игнорирани или погрешно претставени (Costanza Chock, S. 2020). 

Заклучок 

Иако идејата за „родово неутрален” и „непристрасен” AI звучи привлечно и технолошки  напредно, во пракса таа често води кон занемарување на структурната нееднаквост и  репродукција на постоечките социјални и родови хиерархии. Бидејќи родот е длабоко  вкоренет општестевен конструкт, истиот не може „едноставно да се исклучи” или игнорира  без истото да има последици. Неговото игнорирање не води до правичност, напротив  придонесува до она што се наречува „родова слепост”. 

Алгоритмите се создаваат и функционираат во општествени услови што се веќе пристрасни  и како такви, без критички пристап и свесност за историски и културни искривувања, имаат  тенденција да ги зајакнат дискриминаторните обрасци наместо да ги надминат. Покрај  техничката страна, потребен е и сериозен ангажман од етичка, образовна и социолошка  перспектива. Затоа, инсистирањето на родово неутрален пристап, без инклузивен, родово  чувствителен и контекстуален развој на технологијата, не е само недоволно туку може да  биде и штетно. 

Вистинската праведност во AI не доаѓа од претпоставена неутралност, туку од  препознавање на разликите и активно работење на нивно балансирање. Само преку  диверзитет, транспарентност, критичка анализа и етичка одговорност во сите фази на дизајн  и примена, може да се изградат системи кои навистина служат на сите, наместо само на  оние кои и досега биле најмногу застапени. Дополнително, важно е да се промовира 

инклузија и учество на различни општествени групи при развојот на вештачка  интелигенција, со цел да се намалат асиметричните односи на моќ и да се овозможи  порамноправен технолошки напредок. Без таква свесност и посветеност, постои ризик за создавање на технологии кои ги одразуваат и засилуваат постоечките неправди, наместо да  придонесат кон нивно надминување. 

Референци 

1. Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities  in Commercial Gender Classification. 

2. Bolukbasi, T., et al. (2016). Man is to Computer Programmer as Woman is to Homemaker?  Debiasing Word Embeddings. 

3. Zou, J. & Schiebinger, L. (2018). AI can be sexist and racist – it’s time to make it fair.  Nature

4. Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A Survey on  Bias and Fairness in Machine Learning. ACM Computing Surveys

5. Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. In  Proceedings of the 2018 Conference on Fairness, Accountability and Transparency  (FAT*). 

6. D’Ignazio, C., & Klein, L. F. (2020). Data Feminism. MIT Press. 

7. Margolis, J., & Fisher, A. (2003). Unlocking the Clubhouse: Women in Computing. MIT  Press. 

8. Costanza-Chock, S. (2020). Design Justice: Community-Led Practices to Build the Worlds  We Need. MIT Press. 

9. Државен завод за статистика, Македонија (2023). Извештај за родова застапеност во  високото образование. 

10. Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and  Punish the Poor. St. Martin’s Press. 

11. Connell, R. (2009). Gender: In World Perspective. Polity Press. 

12. West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating Systems: Gender, Race  and Power in AI. AI Now Institute.

13. UNESCO. (2020). I’d Blush if I Could: Closing Gender Divides in Digital Skills Through  Education

14. Raji, I. D., & Buolamwini, J. (2019). “Actionable Auditing: Investigating the Impact of  Publicly Naming Biased Performance Results of Commercial AI Products.” AAAI/ACM  Conference on AI, Ethics, and Society. 

15. Costanza-Chock, S. (2020). Design Justice: Community-Led Practices to Build the Worlds  We Need. MIT Press.