Родови импликации на вештачката интелигенција: од алгоритамска пристрасност до феминистичка дигитална правда 

Published by

on

4odr9din

Автор Филип Пенчиќ 

Технологија и род – контекст на 21 век 

Во ерата во која дигиталните технологии стануваат неразделен дел од секојдневието, неизбежно се поставува прашањето: дали нивниот развој и употреба навистина се неутрални, или пак ја рефлектираат и репродуцираат структурната нееднаквост на општеството? Вештачката интелигенција, иако често претставувана како симбол на технолошки напредок и рационалност, не е изземена од социјалните матрици во кои се создава. Од податоците со кои се обучуваат алгоритмите, до профилот на инженерите и истражувачите што ги креираат, целиот процес на дизајнирање и имплементација на AI решенија е оптоварен со претходно постоечки родови, расни и економски хиерархии. Поради тоа, критичката анализа на односот меѓу AI и родовата еднаквост не е само академско прашање, туку и суштински етички и политички предизвик на современото општество. 

Родовата перспектива во технолошкиот развој честопати е игнорирана или сведена на декоративна компонента во стратегиите за “diversity and inclusion”. Но во суштина, прашањето не е дали жените треба да бидат вклучени во технолошките процеси, туку дали самите технологии се изградени така што овозможуваат фер и правична интеракција за сите групи во општеството. Доколку алгоритмите се обучуваат врз податоци што го рефлектираат историскиот патријархален контекст, тогаш резултатите што тие ги продуцираат може не само да ги продолжат, туку и да ги зајакнат веќе постоечките нееднаквости. Во таков контекст, прашањето на родот станува неразделен дел од етичката проценка на AI системите. 

Истражувањата на UNESCO (2022) и World Economic Forum (2023) укажуваат дека постои сериозен дисбаланс во родовата застапеност во доменот на AI и STEM

индустриите. Иако жените сочинуваат околу 50% од светското население, нивното учество во развојот на вештачката интелигенција се движи помеѓу 12 и 22%, во зависност од регионот и типот на организација. Овој дисбаланс не само што влијае на тоа кој има можност да учествува во технолошката револуција, туку и на тоа каков вид на технологии ќе бидат развиени и за кого. Технологијата, иако често замислувана како апстрактен и објективен ентитет, е општествен производ, создаден од конкретни луѓе со конкретни вредности и претпоставки. 

Особено загрижувачки е фактот што многу AI системи функционираат на начин што го засилува она што Shoshana Zuboff (2019) го нарекува “надзорен капитализам” – економски модел што ги комерцијализира личните податоци, вклучително и родови и демографски информации. Таквиот пристап не само што отвора нови форми на експлоатација, туку создава и цела инфраструктура на дигитална моќ, каде што субјектите не се само пасивни потрошувачи, туку и објекти на анализи, предвидувања и одлуки. Жените, особено од маргинализирани заедници, се несразмерно погодени од ова, бидејќи нивните податоци често се недоволно репрезентирани, но сепак употребени за одлуки што директно влијаат на нивните животи. 

Како одговор на овие процеси, во последните години се развиваат нови интердисциплинарни пристапи, како што се феминистичката технонаука и критичката алгоритамска студија, кои ја доведуваат во прашање претпоставената неутралност на технологијата. Овие пристапи ја насочуваат анализата не само кон техничките аспекти на алгоритмите, туку и кон нивниот социо-политички контекст, со што овозможуваат подлабоко разбирање на комплексната врска помеѓу технологијата, моќта и родот. На тој начин, тие создаваат простор за нови форми на технолошка правда, каде што дигиталните системи не само што ќе бидат ефикасни, туку и правични. 

Пристрасност во алгоритмите: Кога кодот ја репродуцира нееднаквоста

Пристрасноста во алгоритмите не произлегува од некоја намера за дискриминација, туку од структурни, историски и епистемолошки ограничувања што се вткаени во процесите на собирање, обработка и моделирање на податоци. Алгоритмите, по дефиниција, се правила или чекори што ги следат машините за да донесат некаква одлука или пресметка; сепак, тие правила не постојат во вакуум. Кога податоците што се користат за обучување на AI модели ја одразуваат историјата на нееднаквост, дискриминација и маргинализација, алгоритмите неизбежно ги наследуваат и повторуваат тие обрасци, често без никаква свест од страна на крајниот корисник или дизајнер. 

Во реалниот свет, ова има конкретни и мерливи последици. Пример за тоа е алгоритмот за рецидивизам што се користел во американскиот правосуден систем, познат како COMPAS, кој систематски доделувал повисоки ризици за повторно извршување на кривични дела кај афроамериканските обвинети во споредба со белците, иако таквите проценки не се засновале на објективни показатели за реална опасност (Angwin et al., 2016). Иако случајот со COMPAS најчесто се анализира низ призма на расната пристрасност, слични механизми можат да се забележат и кај родовата дискриминација, особено во системите за вработување, кредитирање и здравствена дијагностика. 

Во доменот на вработување, познат е примерот со Amazon, која разви алгоритам за автоматизирано скрининг на биографии, но по кратко време системот беше повлечен, бидејќи покажуваше тенденција да дисквалификува кандидати со женски имиња или искуства поврзани со жени (Dastin, 2018). Алгоритмот едноставно „научил“ дека историски најуспешните биографии во компанијата биле од мажи, што довело до автоматизирано занемарување на женските профили. Иако ова може да изгледа како случаен резултат на „објективно“ машинско учење, суштината лежи во тоа што AI ги рефлектира претходните вредности, приоритети и одлуки на општествата што го користат. 

Оваа форма на пристрасност е особено опасна поради нејзината невидливост. Корисниците на технологијата, вклучително и институциите, често претпоставуваат дека машинските одлуки се пообјективни или неутрални од човечките, што

дополнително ги зајакнува нивните последици. Овде се среќаваме со феноменот на „алгоритамски авторитет“, концепт кој означува дека резултатите од AI се перципираат како конечни, рационални и научни, иако се резултат на историски пристрасни структури (Gillespie, 2014). Жените и другите маргинализирани групи, во тој контекст, стануваат објекти на алгоритамски суд без можност за жалба или критичка рефлексија. 

Критичките теории за технологијата инсистираат дека решението не лежи само во „поправање на кодот“, туку и во ревизија на пошироките општествени рамки што овозможуваат таквите пристрасности. Неопходно е вклучување на различни гласови и искуства уште во раните фази на дизајнирање на алгоритамски системи. Само така може да се избегне таканаречената „пристрастност по дизајн“, која се јавува кога одредени категории на луѓе не се земени предвид при обликување на технолошките решенија. Истовремено, мора да се развијат и регулативи што ќе обезбедат транспарентност, одговорност и механизми за жалба при донесување алгоритамски одлуки што влијаат на животи, особено во сектори како што се здравство, образование и социјални услуги. 

Во такви услови, анализа на родовата пристрасност во алгоритмите не е само прашање на поправка на технички недостатоци, туку предизвик за поширока општествена трансформација. Таа бара интердисциплинарен пристап кој ќе ја 

обедини технолошката експертиза со етичката чувствителност, феминистичката теорија и критичката анализа на моќта. Со оваа свесност, може да се премине кон создавање на инклузивна дигитална инфраструктура, каде што алгоритмите нема да бидат средство за репродукција на стари хиерархии, туку алатки за нова правда. 

Родова застапеност во STEM и AI: Бариери и можности 

Прашањето за родова застапеност во STEM (наука, технологија, инженерство и математика), а особено во полето на вештачката интелигенција, не е само прашање на статистика или застапеност по бројки, туку и на вклученост, признатост и овластување на жените во клучните процеси на технолошка иновација. Иако

последните две децении се бележи благ раст на женското учество во техничките дисциплини, тие и понатаму се соочуваат со структурни, културни и институционални бариери кои ја ограничуваат нивната улога не само како учеснички, туку и како креаторки на иднината што AI ја обликува. Податоците на UNESCO (2022) покажуваат дека жените сочинуваат помалку од 22% од глобалната AI работна сила, што значи дека машините се создаваат, обучуваат и контролираат во голема мера од машка перспектива. 

Овие бројки, меѓутоа, не се само производ на лични избори или недостаток на интерес кај жените, туку резултат на длабоко вкоренети општествени очекувања, пристрасности и системски исклучувања. Од рана возраст, девојчињата се соочуваат со суптилни, но постојани сигнали дека технолошките и математичките полиња не се „за нив“ – преку училишни наставни планови, модели што ги гледаат во медиумите, па дури и начинот на кој се охрабруваат или обесхрабруваат да прашуваат, експериментираат и ризикуваат. Таа културна сегрегација се засилува на универзитетско и професионално ниво, каде што жените често мора да се докажуваат двојно повеќе за да стекнат исти нивоа на доверба, влијание и напредување. 

Овие бариери се особено изразени во поддисциплините на AI што имаат висока престижност – како машинско учење, длабоко учење и компјутерска визија – каде што жените се речиси отсутни како главни истражувачки автори или водечки инженерки во технолошките компании. Студиите покажуваат дека дури и кога жените навлегуваат во AI, тие се понекогаш ограничени на „меки“ сегменти како етика, комуникација или човечки фактори, додека „тврдото“ инженерство останува под доминантна машка контрола (West et al., 2019). Ова не само што го ограничува нивниот придонес, туку влијае и врз самата агенда на истражување – какви проблеми се сметаат за важни, кои перспективи се земаат предвид, и какви решенија се развиваат. 

Истовремено, се јавуваат и важни контрадвижења и иницијативи што ги отвораат вратите за поголема инклузивност и рамноправност. Мрежи како Women in AI, AI4ALL и Data & Society нудат платформи за образование, поврзување, менторство

и застапување на жени во технолошкиот простор. Универзитетите и невладините организации почнуваат да вклучуваат родови перспективи во своите програми за компјутерски науки и инженерство, признавајќи дека технолошката писменост не смее да биде одвоена од критичката рефлексија и социјалната одговорност. Иако 

ваквите напори честопати се маргинални и се соочуваат со отпор, тие се од суштинска важност за реконфигурација на дигиталната ера во правец на еднаквост и правичност. 

Сепак, потребна е подлабока трансформација што нема да се сведува само на зголемување на процентите на жени во AI, туку на темелно преиспитување на начинот на кој знаењето се создава, пренесува и вреднува. Родовиот идентитет не треба да биде само демографска променлива во статистиките на технолошкиот развој, туку извор на епистемолошка разноликост што го збогатува начинот на кој ги замислуваме и реализираме технолошките можности. Во таа смисла, не станува збор само за бројки, туку за визија – визија за AI што не репродуцира стара моќ, туку отвора простор за нови форми на праведна и инклузивна моќ. 

Само со интегрирање на овие аспекти на родова рамноправност во темелите на STEM и AI образованието, индустријата и политиките, може да се изградат системи кои не само што се поефикасни и поинклузивни, туку и посоодветни за сложените предизвици на нашето време. Жените не треба да се третираат како „недоволно застапена категорија“ што треба да се „вклучи“, туку како рамноправни носители на знаење, критика и иновација, чија перспектива е клучна за иднината на дигиталното општество. 

Етиката и родот: Вештачка интелигенција меѓу неутралноста и моќта 

Иако вештачката интелигенција често се претставува како неутрална, објективна и рационална технологија, бројни научни анализи покажуваат дека нејзините алгоритми се длабоко вкоренети во човечките, а со тоа и родови вредности, културни пристрасности и историски односи на моќ. Неутралноста на машините е мит што ја прикрива улогата на субјектите кои ги дизајнираат, обучуваат и

применуваат овие системи. Во етичката литература за AI се нагласува дека секој алгоритам, дури и кога е развиен со најдобри намери, имплицитно носи вредносни избори – кои податоци се користат, кои критериуми се сметаат за релевантни, каква е распределбата на ризик и придобивки меѓу различни социјални групи. Во случајот со родовата еднаквост, токму овие избори можат да репродуцираат историски дискриминации и да ги зацементираат преку механизми што се перципираат како технолошки и објективни. 

Особено е проблематичен фактот што поголемиот дел од податочните сетови што се користат за обучување на AI системи се базирани на минато човечко однесување, често исполнето со родови стереотипи и нееднаквости. На пример, истражувањата покажуваат дека алгоритмите за регрутација што се обучени врз податоци од корпоративниот сектор имаат тенденција да ги фаворизираат машките кандидати, бидејќи историски тие почесто биле вработувани на лидерски и технички позиции (Binns et al., 2018). Исто така, препознавањето на глас и лице покажува пониска точност кога се работи за женски субјекти, особено ако тие припаѓаат на етнички малцинства. Тоа не е само технички недостаток, туку етички проблем, бидејќи таквите системи имаат реални последици врз животот и можностите на луѓето. 

Етиката на AI, доколку се стреми кон автентична правичност, мора да вклучи родова перспектива во секој чекор од процесот – од дизајн до имплементација, од тестирање до ревизија. Потребно е да се воведат системи за одговорност што ќе гарантираат дека алгоритмите не дискриминираат, дека се транспарентни и подложни на јавна контрола. Но уште поважно, потребно е активно учество на жени и родови експертки во тимовите што развиваат AI, бидејќи етичкото размислување не може да се сведува на технички протокол, туку бара социо-културна чувствителност и вредносна рефлексија. Родот не е маргинален етички предизвик, туку централна категорија низ која се разоткриваат динамиките на нерамноправност што ја обележуваат дигиталната ера. 

Во оваа насока, мора да се признае дека етиката на AI не е доволна доколку се сведе на препораки, принципи и декларации. Без структурни промени во начинот на кој технолошките институции функционираат – вклучувајќи ги и технолошките

гиганти, академските центри и владините тела – секој етички кодекс останува празна реторика. Родово одговорната AI бара радикална транспарентност и инклузивност, што значи вклучување на маргинализирани гласови во самото срце на технолошката промена. Ова не е само етичко прашање, туку прашање на легитимитет, доверба и општествена стабилност во светот што сè повеќе зависи од автоматизирани одлуки. 

Образованието како простор за трансформација: Интеграција на род и технологија 

Во стремежот кон поинклузивна и родово правична дигитална иднина, образованието има централна улога како место каде што се формираат знаења, вредности и професионални идентитети. Формалното и неформалното образование во STEM дисциплините не смее да остане слепо на родовата димензија, туку мора свесно и активно да ја интегрира како основна компонента на критичката технолошка писменост. Ако учениците и студентите продолжат да учат алгоритми, програмирање и машинско учење како да се чисто технички вештини, без разбирање за нивната социјална и политичка рамка, ќе се одгледаат генерации инженери што создаваат неетични, пристрасни и исклучувачки системи, без дури да бидат свесни за тоа. 

Мултидисциплинарниот пристап што ги поврзува компјутерските науки со општествените науки и родовите студии може да отвори простор за подлабока анализа и еманципаторско дејствување. На пример, курсевите по етика во информатиката можат да вклучат студии на случаи каде што AI системи ја репродуцирале родовата нееднаквост, а студентите да дискутираат за нивните импликации и да предлагаат алтернативни решенија. Понатаму, наставните содржини треба да го нагласат придонесот на жените во историјата на технологијата – од Ада Лавлејс и Грејс Хопер до денешните истражувачки водечки фигури во AI – со што се рушат митовите дека технологијата е машки домен.

Во контекст на образовната политика, потребно е и структурно поддржување на девојчињата од мали нозе за да се вклучат во STEM, преку стипендии, менторски програми, летни школи и натпревари што ја комбинираат креативноста со технологијата. Истражувањата покажуваат дека чувството на припадност е клучен фактор за задржување на жените во технолошките кариери – а тоа чувство се гради преку културна промена, видливост и поддршка. Затоа, образованието не смее да се гледа само како производител на техничка работна сила, туку како простор каде што се изградени визиите за праведно и родово сензитивно општество. 

Покрај формалните образовни институции, улогата на медиумите, јавните наративи и онлајн платформите е исто така клучна во оформување на претставите за тоа кој припаѓа во технологијата и кој има право да ја обликува иднината. Ако овие простори останат исполнети со стереотипи и исклучувања, тогаш ниту најдобрата образовна програма нема да може да ги надмине. Токму затоа, потребна е општествена мобилизација која ќе ја поврзе образованата трансформација со поширокиот културен и политички контекст, во насока на вистинска дигитална еманципација. 

Нови хоризонти: Родова еднаквост во добата на интелигентни системи 

Во ерата на вештачката интелигенција, борбата за родова еднаквост добива ново лице, но и нови предизвици. Прашањето повеќе не е само како жените да бидат вклучени во технолошките процеси, туку како да се преосмисли самата природа на технологијата така што таа ќе биде одговорна, правична и инклузивна. Родово сензитивната AI не значи само вметнување на жени во постојните структури, туку трансформација на тие структури – промена на вредностите што ги движат алгоритмите, на прашањата што ги поставуваме во истражувањето, и на критериумите според кои ги мериме успесите на технолошкиот прогрес. Жените не се маргинален додаток на дигиталната револуција, туку суштински чинители чие искуство и знаење се неопходни за да се изгради праведна иднина.

Во тој процес, критичката рефлексија мора да биде водилка – не како интелектуална вежба, туку како политичка пракса на одговорност и ангажман. Нееднаквоста во технолошкиот сектор не е природна појава, туку последица на избори што ги правеле општества, институции и поединци. Промената на тие избори бара храброст да се размислува поинаку, да се преиспитуваат авторитетите и да се создаваат нови форми на знаење, колективност и дигитална демократија. Вештачката интелигенција, колку и да е моќна, не е автономна – таа е производ на човекот, и како таква, мора да биде подложна на вредносна дебата, граѓанска контрола и социјална визија. 

Истовремено, потребно е глобално размислување што ги вклучува не само западните модели, туку и перспективите од глобалниот југ, каде што жените се соочуваат со уникатни форми на дигитална нееднаквост, но и со креативни стратегии на отпор. Родовата еднаквост во AI не смее да се сфаќа како универзален модел што се применува насекаде, туку како контекстуализиран процес што ја зема предвид разноликоста на општествени, културни и економски реалности. Само преку таква интерсекциска и хетерогена перспектива може да се избегне колонијалната логика на технолошки „напредок“ што го игнорира или потиснува гласот на другите. 

Конечно, потребна е постојана будност – не само кај оние што ја развиваат AI, туку и кај сите што ја користат, критички ја набљудуваат или се погодени од неа. Родово сензитивната вештачка интелигенција не е крајна дестинација, туку траен процес на создавање дигитален свет во кој сите ќе имаат право да сонуваат, создаваат и одлучуваат. Во тој процес, прашањето за еднаквост не е само морално, туку и онтолошко: какви суштества сакаме да бидеме во дигиталната иднина што самите ја обликуваме?

Заклучок 

Размислувањата за родовата еднаквост во контекст на вештачката интелигенција не смеат да завршат со критика на постојните системи, туку треба да продолжат како повик кон идни акции, трансформации и истражувања. Потребно е оформување на интердисциплинарни рамки што ќе ги поврзат етичките, технолошките и општествените димензии на AI со јасни регулативи за транспарентност и отчетност. Дополнително, потребна е компаративна студија за влијанието на AI врз жените во различни социјални, културни и економски контексти – од глобалниот север до глобалниот југ. На крајот, креаторите на политики, научниците и општеството во целост мора да ја прифатат одговорноста дека дигиталната трансформација нема да биде праведна сама по себе – туку мора намерно и колективно да биде обликувана во таа насока. 

Табела: Застапеност на жени во AI по региони 

Регион Застапеност (%)
Северна Америка 23%
Европа 21%
Азија 15%
Африка 12%
Јужна Америка 17%

(Извор: World Economic Forum, 2023)

Библиографија: 

– Binns, R., Veale, M., Van Kleek, M., & Shadbolt, N. (2018). “’It’s Reducing a Human Being to a Percentage’: Perceptions of Justice in Algorithmic Decisions.” CHI ’18: Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems. 

– UNESCO. (2022). Gender equality and AI: A global perspective. https://unesco.org/ai-report 

– West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating Systems: Gender, Race and Power in AI. AI Now Institute. 

– World Economic Forum. (2023). Global Gender Gap Report. 

https://weforum.org/reports/global-gender-gap-report-2023

– Buolamwini, J., & Gebru, T. (2018). “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.” Proceedings of Machine Learning Research.