Авторка Михаела Николовска
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
1. Вовед
Тврдењето дека алгоритмите се неутрални е еден од најупорните митови на нашето време, дигитална реинкарнација на она што Донa Харавеј го дефинирала како „боговски трик“, односно претпоставка дека знаењето може да биде ослободено од контекст и пристрасност. (Haraway, 1988) Системите на вештачка интелигенција, кои често се претставени како меродавни гласови на вистината, всушност систематски ги кодираат и засилуваат родовите нееднаквости што тивко се проткајуваат низ нивните развојни екосистеми. Во свет каде што жените сочинуваат само 22% од професионалците во полето на вештачката интелигенција (Siddhi Pal, 2024), а македонските студентки се едвај 14% од дипломираните инженери (Fatime Hasani Reka PhD, 2024), овие технологии се развиваат во средини каде што машката перспектива не само што ги води техничките одлуки, туку и ја обликуваат самата природа на податоците што ги хранат истите системи.
Оваа структурна нерамнотежа не останува скриена – таа се вградува во самите алгоритми на вештачката интелигенција, кои стануваат невидливи архитекти на професионалната сегрегација. Комерцијалните платформи за препознавање на лица покажуваат стапки на грешка од 35% за жени со потемна кожа, во споредба со помалку од 1% за мажи со светла кожа.
(Buolamwini, 2019) Јазичните модели, пак, ги поврзуваат научните и техничките улоги со машки заменки, (Alessandro Fabris, 2020) како да е невозможно да се замисли жена како инженер, математичар или програмер. Но, последиците од оваа невидлива пристрасност одат подалеку од само репрезентација. Алгоритмот за регрутација на Amazon, на пример, автоматски ги казнувал
биографиите што го содржеле зборот “женско“, (Villar, 2025) додека за многу невработени жени, довербата во алгоритамските системи за вработување е значително пониска отколку кај мажите, не затоа што не веруваат во технологијата, туку затоа што технологијата не верува во нив.
Образованието игра клучна улога во разоткривањето на наклонетоста на алгоритмите, но само ако се обидеме да го надминеме техничкото знаење и се фокусираме на критичка дигитална писменост. Не е доволно младите да се учат како да програмираат, туку мора да се подготват да ги препознаваат и оспоруваат структурите на моќ вградени во технологијата. Истражувањата покажуваат дека 62% од жените кои добиваат специјализирана обука во вештачка интелигенција напредуваат до лидерски позиции во рок од две години. (Report of the Social and Human Sciences Commission (SHS), 2021) Овој
3
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
податок покажува дека соодветното образование може да биде алатка за системска промена. Локалните иницијативи како Platforma.AIGender.net ја поттикнуваат критичката свест за родовата еднаквост во технологијата и нудат ресурси што ги охрабруваат младите жени да се позиционираат како активни креаторки на технолошката иднина. (Платформа за вештачката интелигенција и родовата еднаквост, 2025) Интеграцијата на етичките препораки на UNESCO во наставните програми отвора можност за формирање генерација научници што не само што ги разбираат алгоритмите, туку и нивните социјални импликации.
2. Феминистичка епистемологија: Алгоритмите како социјални артефакти
Феминистичката епистемологија не се ограничува на техничките детали на вештачката интелигенција, таа ја открива нејзината длабока поврзаност со општествените структури што ја создаваат. Како што феминистичката филозофка Миранда Фрикер истакнува, епистемолошката неправда настанува кога маргинализираните групи се исклучуваат од процесите на создавање знаење, што резултира со технологии кои ги зацементираат доминантните структури на моќ (Fricker, 2007). Со други зборови, алгоритмите не се “неутрални алатки” – тие се социјални артефакти, создадени во специфични историски услови и односи на моќ. Оваа перспектива е клучна за да се разбере зошто системите на вештачка интелигенција често ги репродуцираат родовите, расните и економските нееднаквости на светот што ги имитираат.
Иако податоците за малата застапеност на жените во AI1 тимовите се добро познати (Women in Science), поретко се разгледува како оваа хомогеност ги обликува самите стандарди за “техничка компетенција“. Студијата на Сара Робертс за културата во техничките компании открива дека “техничкиот гениј“ не е неутрален концепт – тој е вкоренет во машко-доминантни норми на работа, комуникација и вреднување (Roberts, 2019). Жените кои работат во AI често се соочуваат со претпоставки дека нивните идеи се “помалку иновативни“ или “премногу емоционални“, што ги принудува да се прилагодат
1 Во текстот, термините „AI“ (Artificial Intelligence) и „вештачка интелигенција“ се користат наизменично и се однесуваат на истата појава.
4
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
кон машки стилови на изразување само за да бидат сфатени сериозно. На овој начин, се одржува епистемолошка хиерархија каде што женските перспективи остануваат маргинализирани, дури и кога се клучни за справување со сложени технолошки предизвици.
Прашањето за податоците е уште подлабоко од технолошкиот аспект. Како што истакнува Кетрин Д’Игнацио, “податоците никогаш не се сирови“ – тие се секогаш “извлечени“ од свет што ги рефлектира доминантните структури на моќ (D’Ignazio & Klein, 2020). На пример, студијата на Google за нивниот модел Gemini ( Gemini: Ethical AI Audit Report., 2024) открива дека дури и кога се користат “балансирани“ податоци, алгоритмите за генерирање слики постојано ги прикажуваат научниците и инженерите како мажи. Зошто? Бидејќи самата дефиниција на “баланс“ во податоците е веќе обликувана од културно вкоренети стереотипи за тоа кој изгледа “соодветно“ за одредена професија.. Ова не е грешка на алгоритмот, туку само одраз на светот што го имитира.
Оваа пристрасност е особено изразена кај големите јазични модели. Истражувањата на Емили Бендер ја откриваат “илузијата за енциклопедиска објективност” кај системите како GPT-4: иако тврдат дека го репрезентираат сето човечко знаење, тие всушност ја засилуваат историската и културна пристрасност вградена во нивните извори (Bender, Gebru, McMillan-Major, & Shmitchell, 2021). Кога GPT-4 бил прашан за највлијателните научници во историјата, 98% од предложените имиња биле мажи. Ова не е случајна грешка, тоа е системски проблем што произлегува од недостаток на диверзитет во тимовите и податоците.
Овие примери не се изолирани грешки, туку симптоми на епистемолошка криза во развојот на вештачката интелигенција. Како што тврди филозофката Хелен Лонгино, знаењето не е индивидуална, туку колективна постапка. Доколку колективите што ги создаваат алгоритмите се хомогени –
доминирани од машки перспективи – тогаш и резултатите ќе бидат фундаментално пристрасни (Longino, 2002). Затоа, деконструкцијата на алгоритмите не е само технички предизвик, туку и акт на социјална правда. Таа нè повикува да ги преиспитаме самите начини на кои го создаваме, вреднуваме и споделуваме знаењето.
5
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
3. Квантифицирање на родовата нееднаквост во STEM2 полето: Глобални шаблони и локалната реалност
Родовиот јаз во STEM полето не е историска реткост, туку жив феномен што продолжува да ги обликува образовните и професионалните патишта на глобално ниво. Според извештајот на UNESCO (Women in Science), жените сочинуваат само 28% од глобалната STEM работна сила и 30% од светските истражувачи – бројки што се уште пониски во вештачката интелигенција, каде жените се само 22% од професионалците. Овие статистики не се само апстрактни податоци, туку ја одразуваат секојдневната реалност на многу жени кои често сe навистина мал дел од истражувачите во овие полиња.
Корените на овој јаз се кријат во образовните патишта уште од раното детство. Глобално, само 3% од студентките избираат информатички науки, споредено со 8% во инженерство и 5% во природни науки. Во Северна Македонија, оваа диспаритет е подеднакво изразен: 14% од дипломираните инженери се жени според државниот завод за статистика, иако жените преовладуваат во вкупното запишување на факултет. Оваа дивергенција не е случајна, таа е производ на културни норми, институционални практики и наставни содржини што ги насочуваат девојките подалеку од STEM, реплицирајќи ги родовите хиерархии низ генерации. Последиците од ова исклучување се парадоксални и длабоко неправедни. Иако жените во STEM се 8% попродуктивни од мажите (Rivera León, Mairesse, & Cowan, 2017), тие се соочуваат со платен јаз од 23% и значително помали шанси за унапредување. Овој “продуктивен парадокс“ ја открива вистинската природа на структурните бариери: системот ги признава жените како компетентни, но ги казнува како лидери. Отсуството на женски модели за пример создава и празнина: колку помалку жени се видливи на врвот, толку потешко е младите девојки да си го замислат патот до таму.
Оваа непроценлива епистемолошка криза се манифестира и преку Марија Кири комплексот, феномен каде жените се чувствуваат принудени да надминуваат нереални стандарди за да ги оправдаат своите достигнувања
2 STEM (Science, Technology, Engineering, and Mathematics) е пристап во образованието кој нагласува учење и развој во областите на наука, технологија, инженерство и математика.
6
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
(Garc´ıa-Heras & Mazuelas, 2022). Студијата на UNDP за Македонија открива дека 70% од жените во STEM ги напуштаат областите поради предрасуди, нееднаква распределба на семејните обврски и дискриминација. Дури и оние кои остануваат, често се соочуваат со стаклен таван – невидлива бариера што ги ограничува на оперативни улоги додека мажите доминираат во извршните позиции (The Journey of Women in STEM: Insights and Recommendations from North Macedonia., 2023).
Слика 1: Стапка на жени во индустријата за анализа на податоци во Европа (Garc´ıa-Heras & Mazuelas, 2022).
Локалните иницијативи како Platforma.AIGender.net се обидуваат да ја прекинат оваа динамика преку феминистички информирани наставни програми и менторски мрежи. Меѓутоа, нивните напори често се судираат со длабоко вкоренети стереотипи на општеството. Како што потсетува извештајот на UNDP (2023), во Македонија девојките продолжуваат да бидат насочени кон “женски“ кариери, додека техничките полиња остануваат машки домени. Оваа поделба не е случајна – таа е производ на општество што ги учи девојчињата да ги согледаат своите способности низ призма на родови очекувања.
Упорноста на овој јазот, и покрај веќе докажаниот факт дека жените се способни, доведува до едноставен заклучок: STEM кризата не е технолошка, туку социјална. Не е доволно да се зголеми бројот на жени кои влегуваат во
7
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
овие полиња – мора да се трансформираат самите структури што ги одржуваат.
Слика 2: Репрезентација на жените во техничките истражувања (The Journey of Women in STEM: Insights and Recommendations from North Macedonia., 2023)
4. Алгоритамско ехо: Како пристрасноста се самоодржува
Воведувањето на вештачката интелигенција во процесите на донесување одлуки во образованието, вработувањето и јавниот живот создава нови механизми преку кои родовите предрасуди не само што се рефлектираат, туку и активно се засилуваат. Наместо да бидат неутрални судии, AI системите често функционираат како засилувач на постоечките социјални нееднаквости. Овој феномен е особено изразен во контекстот на STEM професиите, каде што недостатокот на жени и во работната сила и во податоците за обука на моделите создава јамка која се храни и валидира од самата себе, со што ги засилува родовите нееднаквости.
Наклонетоста на алгоритмите не е само прашање на репрезентација — таа директно влијае на пристапот до можности и кариерен напредок. Денес, голем број компании користат платформите за вработување базирани на вештачка интелигенција. Овие платформи докажано ги реплицираат и зголемуваат родовите разлики во регрутирањето и унапредувањето. На пример, една студија покажува дека високоплатени технички огласи се прикажуваат на речиси 5.000 мажи, но само на околу 400 жени – иако имаат слични квалификации (Lambrecht & Tucker, 2018). Проблемот не е во тоа дека некој
8
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
директно ги програмирал алгоритмите да бидат пристрасни, туку во тоа што тие учат од историски податоци кои веќе се полни со дискриминација. Така се создава затворен круг: жените поретко ги гледаат овие огласи, поретко аплицираат, и сѐ помалку се вработуваат во области каде нивната присутност е најпотребна.
Алгоритамското “вратарење“ се манифестира и на пофини начини. Автоматизираните евалуации на перформанси, системи за кредитна оценка се докажани дека кодираат родови и расни предрасуди, често без транспарентност или можност за приговор (Bogen, Rieke, & Ahmed, 2019). Овие случаи не се неизбежни, туку се последица на човечки избор. Избор од типот на кои податоци ќе се користат, кој ќе биде дел од тимот, и чии гласови ќе се слушаат при дизајнирање на политиките. Кога жените се исклучени од тие процеси, алгоритмите стануваат продолжение на истите стари бариери. Но ова може да се промени, треба да се вложи свесен напор да се вклучат маргинализираните групи, да се преиспита концептот на неутрална
технологија, и да се создаде AI што навистина рамноправно функционира за сите.
5. Интервенции во образованието: Локални примери и глобални можности
Вештачката интелигенција, како дел од STEM полето сè уште е преплавена со родови предрасуди, но упорноста на професорите и активистите докажува дека промената е можна. Зошто образованието е толку моќно? Затоа што тоа не е само место каде што се пренесува знаење – тоа е простор каде што се менуваат општествените норми. Кога студентите учат да ги препознаваат скриените предрасуди во алгоритмите и податоците, тие стануваат активни учесници во градењето на инклузивна иднина.
Локално, платформата Platforma.AIGender.net се истакнува како модел за феминистички информирано образование. Преку алатки за критичка писменост и дискусии за родовата еднаквост, студентите учат да поставуваат прашања кои никогаш не им ги поставиле: Зошто научниците во AI
генерираните слики се секогаш мажи? А како тоа изгледа на дело? Преку реални примери и практични вежби. На пример, Еден од клучните инструменти е ботот РЕСИ – првиот AI-асистиран чат-бот на македонски јазик што одговара на прашања за родова еднаквост и ги разоткрива скриените предрасуди во алгоритмите (Платформа за вештачката интелигенција и родовата еднаквост,
9
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
2025). Раните евалуации покажуваат дека учесниците развиваат критичка свесност за алгоритамската пристрасност и се поактивни во промовирање на инклузивни практики. Сепак, овие напори често се соочуваат со институционална инерција, па така иднината зависи од тоа дали институциите ќе се реформираат – или ќе останат заробени во минатото.
На глобално ниво, менторството и мрежите се клучни за кршење на бариерите за жените во STEM. Иницијативата Bioinfo4Women во Барселона комбинира истражување на родовите предрасуди во AI со креирање на меѓународни менторски мрежи. Преку студиски престои и соработка, оваа програма ги гради довербата и видливоста на жените во научните полиња
(Center, 2024). Слично, проектот African Girls Can Code во Африка го имплементира моделот на “искра на интерес“ – со воведување на девојчињата во програмирање и роботика рано во детството, тие ги кршат стереотипите уште пред истите да се вкоренат (Women, 2023).
Секој локален или глобален напор мора да биде поткрепен со структурни реформи. Препораката на UNESCO за етиката на AI (Report of the Social and Human Sciences Commission (SHS), 2021) е клучен чекор кон ова, ги обврзува земјите да вградат родова перспектива во секој чекор од развојот на технологијата. Најважната работа е да се претвори образованието во алатка за социјална правда. Суштината не е само во додавање нови модули, туку во преиспитување на начинот на кој се учи и предава. Кога студентите учат како да ги анализираат алатки како ChatGPT или да создаваат алгоритми што ги препознаваат и казнуваат разликите, тие не се само корисници на технологија, туку стануваат нејзини преобразувачи. Но, за оваа промена да биде возможна, институциите мора да се откажат од удобноста на статусот кво и да ја прифатат вистината дека технологијата не е само алатка, туку огледало на вредностите на оние што ја создаваат.
6. Кон рамноправни алгоритми: Активна рамка за промена
Постојаната родова наклонетост во вештачката интелигенција и STEM не е неизбежна одлика на технолошкиот напредок, туку производ на историски, културни и институционални одлуки. Надминувањето на овој предизвик бара систематски, повеќеслоен пристап што вклучува критичка свесност, техничка компетентност и институционална одговорност во сите фази на образованието и професионалниот развој. Врз основа на претходните анализи, оваа рамка ги поставува трите нивоа за изградба на можност за еднаквост:
10
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
6.1. Прво ниво: Критичка AI писменост низ сите нивоа на образование
Првото ниво е развојот на критичка дигитална писменост за вештачка интелигенција на сите образовни нивоа. Ова значи интегрирање на теми за наклонетост на алгоритмите, феминистичка епистемологија и социјалните импликации на технологијата од основно до високо образование. Студентите треба да научат да ги дисектираат алгоритмите, спроведувајќи оценување на реални податочни множества и учествувајќи во дебати за етичкиот момент на вештачката интелигенција. Со опремување на учениците со алатки за критичко размислување, образовните институции можат да создадат генерација научници кои се не само технички вешти, туку и свесни за моќта и пристрасноста со која може да се соочат. Успехот на Platforma.AIGender.net покажува дека критичката рефлексија е најмоќна кога се комбинира со техничка обука и локално релевантни ресурси.
6.2. Второ ниво: Инклузивни менторски мрежи
Второто ниво е воспоставувањето инклузивни менторски мрежи кои ги поврзуваат жените и другите маргинализирани групи со ментори и професионални заедници. Таквите мрежи обезбедуваат клучна поддршка за справување со чувството на исклученост, надминување на пречките како ниска самодоверба и градење на социјален капитал потребен за професионален напредок. Глобални иницијативи како STEM Sistah Network (STEM Sistah Network) и Bioinfo4Women (Center, 2024) покажуваат дека менторството не е само размена на знаење – тоа е акт на епистемолошко ослободување што гради доверба и видливост на жените. Во Македонија, ова значи вклучување на менторски програми во универзитетските кампуси и индустриските партнерства, со што се создава континуирана поддршка од адолесценцијата до лидерските позиции.
6.3. Трето ниво: Проверка на наклонетост и институционална транспарентност
Третото ниво се фокусира на систематските механизми за откривање и адресирање на пристрасност. Како што AI системите стануваат сеприсутни, нивниот развој и употреба мора да бидат предмет на строги и редовни проверки. Ова вклучува обука за спроведување на анализи пристрасност во алгоритмите и податочните множества, како и воспоставување на јасни
11
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
процедури за пријавување на дискриминација (Boateng & Boateng, 2025). Глобалните политички рамки како препораката на UNESCO за етиката на вештачката интелигенција (Report of the Social and Human Sciences Commission (SHS), 2021) даваат насоки, но нивната ефикасност зависи од тоа како ќе се адаптираат локално. На пример, во Македонија, ова би значело вклучување на модули за проверка на пристрасност во обуката на наставниците и усвојување на стандарди за транспарентност при акредитација на образовни институции.
Спроведувањето на овој модел со три нивоа не е без предизвици. Таканаречениот мит на пајплајн, т.е. верувањето дека само со зголемување на бројот на жени во STEM автоматски ќе се постигне еднаквост – мора да се замени со подлабоко разбирање на структурните и културни бариери кои постојат. Справувањето со овие прашања бара долгорочни вложувања, меѓусекторска соработка и подготвеност да се соочиме со непријатните вистини за распределбата на моќта во технолошкиот развој. Дополнително потребни се континуирани инвестиции во критичка писменост и институционални реформи, како и соработка меѓу академијата, индустријата и владата за редизајнирање на системите за оценување и унапредување.
И покрај овие препреки, можностите за промена се реални. Ако образованието се замисли не само како простор за техничко знаење, туку и како алатка за деконструкција на моќта, може да се ослободи неговата трансформативна сила. Создавањето на правични алгоритми и инклузивни професионални средини не е само прашање на правда за жените и маргинализираните – тоа е предуслов за развој на технологии што навистина им служат на сите.
7. Заклучок
Невидливиот алгоритам не е само технички код – туку културен документ, огледало на општествените хиерархии што се протегаат низ секој ред инструкции. Родовата пристрасност во вештачката интелигенција не е случајна, туку резултат на длабоко вкоренети институционални и епистемолошки исклучувања. Кога жените систематски се отстрануваат од процесот на истражување, дизајнирање и донесување одлуки, резултатот е технологија што не само што ги репродуцира туку и ги нормализира тие исклучувања.
Денес алгоритамот е далеку од невидлив, па така наместо да го прифатиме овој дигитален статус кво, ние – новата генерација на истражувачки умови –
12
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
имаме и одговорност и можност да го преосмислиме. Она што порано се сметало за тивка пристрасност заклучена во редови код, денес може да стане јасна и критичка точка на пресврт – ако образованието, критичката свест и технолошката иновација функционираат заедно.
Технологијата што ја гради иднината не смее да биде изградена врз нееднаквоста од минатото. Ниту еден алгоритам не е “природно” пристрасен – тие се формирани од податоци, тимови и одлуки кои може, и мора, да се менуваат. Ова е особено значајно за земји како Македонија, каде што младите жени често се гледаат себеси надвор од STEM – не поради недостаток на способност, туку поради недостаток на можност. Но, ако образованието стане вистински простор за социјална трансформација, тогаш жените во STEM нема само да влезат во простории од кои претходно биле исклучени – тие ќе ги редизајнираат тие простории од темел.
Со развој на критичка AI писменост, инклузивни мрежи за поддршка и силни механизми за отчетност, можеме да ја пренасочиме дигиталната ера кон поголема рамноправност. Не само да ја оспориме неправдата, туку да создадеме технологии што вистински ја одразуваат разноликоста на човечките искуства и потреби. Алгоритмот не мора да остане невидлив. Ако го разбереме, преиспитаме и редизајнираме, може да стане алатка за праведна, паметна и еднаква иднина.
8. Библиографија
(2024). Gemini: Ethical AI Audit Report. Google DeepMind.
Alessandro Fabris, A. P. (2020). Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by Ranking Algorithms. Padua: Department of Information Engineering, University of Padua, Italy.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? . ACM FAccT conference .
Boateng, O., & Boateng, B. (2025). Algorithmic bias in educational systems: Examining the impact of AI-driven decision. World Journal of Advanced Research and Reviews.
13
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
Bogen, M., Rieke, A., & Ahmed, S. (2019). Awareness in Practice: Tensions in Access to Sensitive Attribute Data for Antidiscrimination.
Buolamwini, J. (2019, February 7). Artificial Intelligence Has a Problem With Gender and Racial Bias. Here’s How to Solve It. Повратено од Time:
Center, Б. S. (2024). The BSC Bioinfo4Women (B4W) International Mentoring Programme for Young Scientists. Повратено од bioinfo4women: https://bioinfo4women.bsc.es/activities/mentoring/
D’Ignazio, C., & Klein, L. F. (2020). Data Feminism. MIT Press.
Fatime Hasani Reka PhD, M. M. (2024). Empowering Diversity: Policies for Gender Equality in STEM Education and Workforce Progression in North Macedonia. SEEU Review.
Fricker, M. (2007). Epistemic Injustice: Power and the Ethics of Knowing. Oxford University Press.
Garc´ıa-Heras, C. G., & Mazuelas, S. (2022). Female Models in AI and the Fight Against COVID-19. F1000Research.
Haraway, D. (1988). Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective. Feminist Studies, Inc.
Lambrecht, A., & Tucker, C. E. (2018). Algorithmic Bias? An Empirical Study into Apparent Gender-Based Discrimination in the Display of STEM Career Ads. Management Science.
Longino, H. E. (2002). The Fate of Knowledge. Princeton University Press.
Report of the Social and Human Sciences Commission (SHS). (2021). UNESCO. General Conference, 41st, 2021. Paris.
Rivera León, L., Mairesse, J., & Cowan, R. (2017). Gender Gaps and Scientific Productivity in Middle-Income Countries: Evidence from Mexico.
Roberts, S. T. (2019). Behind the Screen: Content Moderation in the Shadows of Social Media. Yale University Press.
14
Невидливиот алгоритам: Како родовата пристрасност во вештачката интелигенција го одразува исклучувањето на жените од STEM – и зошто образованието мора да интервенира
Siddhi Pal, R. M. (2024, October 10). AI’s Missing Link: The Gender Gap in the Talent Pool. Повратено од Interface EU: https://www.interface
eu.org/publications/ai-gender-gap
STEM Sistah Network. (н.д.). Повратено од vanderbilt:
(2023). The Journey of Women in STEM: Insights and Recommendations from North Macedonia. UNDP North Macedonia.
Villar, Z. d. (2025, February 5). How AI reinforces gender bias—and what we can do about it. Повратено од UN Women: https://www.unwomen.org/en/news stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do about-it
Women in Science. (н.д.). Повратено од UIS Unesco:
Women, U. (2023). African Girls Can Code Initiative builds digital skills and momentum towards a better future. Повратено од unwomen:
https://www.unwomen.org/en/news-stories/feature-story/2023/03/african-girls can-code-initiative-builds-digital-skills-and-momentum-towards-a-better-future
Платформа за вештачката интелигенција и родовата еднаквост. (2025). Повратено од Platforma AIGender: https://platforma.aigender.net/
15