Алгоритамски патријархат: Вештачката интелигенција и предизвиците за родова  еднаквост во ИКТ секторот 

Published by

on

R36fa9uo

Автор Андреј Русев 

АПСТРАКТ 

Во ерата на дигитална трансформација, вештачката интелигенција не е само технолошки  феномен, туку и политичко-општествено поле каде што се прекршуваат прашањата за моќ,  пристап и еднаквост. Овој труд ја истражува врската меѓу развојот на ВИ и родовата  нееднаквост во ИКТ секторот, со фокус на алгоритамската пристрасност како симптом на  подлабоки системски исклучувања. Преку анализа на меѓународни политики, студија на  случај (Amazon Recruitment AI) и феминистичка критичка рамка, трудот покажува дека  алгоритмите често ја репродуцираат структурната дискриминација, прикриена под превезот  на објективност. Укажувајќи на историската и тековната маргинализација на жените и  маргинализираните групи во технолошкото создавање, трудот повикува на трансформација  на парадигмите – од технократија кон одговорно, инклузивно и праведно креирање на ВИ.  Заклучокот ја истакнува потребата од критичка едукација, интерсекционален пристап и  политичка етика како предуслови за дигитална правда и родова еманципација во иднината  на технологијата. 

Клучни зборови: 

вештачка интелигенција, алгоритамска пристрасност, родова еднаквост, ИКТ,  феминистичка теорија, дигитална правда, интерсекционалност, етика, инклузија, критичка  технологија, дигитална трансформација

1. ВОВЕД 

1.1. Историски контекст на родова еднаквост во технологијата 

Историјата на технолошкиот развој носи длабоки слоеви на родова исклученост, маскирана  зад митот за технолошка неутралност. Иако жените биле меѓу пионерите на компјутерските  науки – како Ада Лавлејс, позната како првиот програмер – нивниот придонес бил  историски потиснат, што ја постави основата за современата дигитална нерамнотежа. Оваа  невидливост, според Chen (2023) [1], не е случајна, туку е структурна и претставува форма  на “алгоритамска реинкарнација на патријархалниот систем”. 

Со појавата на ИКТ и дигиталната трансформација, родовата нееднаквост не само што е  продолжена, туку и технолошки репрограмирана – преку системи на вештачка  интелигенција кои функционираат на основа на податоци кои самите се продукт на  историски пристрасни општества. Како што нагласуваат Gurumurthy и Chami (2022) [4; 5],  вистинската дигитална правда не може да се постигне без трансформативен феминистички  пристап кон дизајнот и имплементацијата на дигитални системи. 

ИКТ секторот, како еден од најбрзо растечките и највлијателни економски и општествени  системи, не само што ја обликува дигиталната инфраструктура, туку и директно учествува  во конструирањето на современите модели на моќ, вработување и пристап до ресурси. Од  тој аспект, неговото влијание се протега далеку над рамките на технологијата, создавајќи  нови форми на социјални и економски нееднаквости. 

1.2. Брзиот развој на вештачката интелигенција и нејзиното влијание врз  општествените системи 

Развојот на вештачката интелигенција е еквивалент на нова индустриска револуција, но за  разлика од претходните, оваа е кодирана во невронски мрежи, големи јазични модели и  системи за автоматизирано одлучување. Во овој нов дигитален поредок, алгоритмите  стануваат посредници на социјална реалност – носители на вредности, норми и, за жал, на  предрасуди. 

Chen (2023) [1] укажува дека во отсуство на регулаторни и етички механизми, ВИ  системите функционираат како “неутрални канали на пристрасност”, особено во сектори  како вработување, судство и здравство. Еден познат пример е автоматизираната алатка за  вработување на Amazon, која според Dastin (2018) [2], систематски дискриминирала  кандидатки поради историски машко-доминантните податоци врз кои била обучена.

Овие феномени ја доведуваат во прашање легитимноста на технологијата како универзална  алатка. UNESCO (2021) [7] предупредува дека без инклузивен дизајн, ВИ може да ја  зацементира дискриминацијата во нови, потешко препознатливи форми. Во ист контекст,  West, Whittaker и Crawford (2023) [8] укажуваат дека ВИ не само што ги репродуцира  општествените хиерархии, туку и ги стабилизира преку перформативни алгоритамски  логики. Овој контекст е исто така релевантен за националниот и регионалниот контекст,  каде се среќаваат различни темели на историската нееднаквост. 

1.3. Причини зошто темата е критична за истражување денес 

Анализата на родовата димензија на вештачката интелигенција не е само академска  потреба, туку е и политичко-етички императив. Дигиталната трансформација не е родово  неутрален процес. Напротив, таа ја проширува дигиталната нееднаквост и создава нови  форми на ексклузија. Како што истакнува Chen (2023) [1], ВИ е „огледало на нашите  вредности“ и „културен артефакт“ кој ја рефлектира општествената распределба на моќ. 

Темата станува особено критична во светло на глобалните иницијативи за етичка ВИ, каде  родовите прашања честопати остануваат во сенка зад техничките и безбедносните  дискурси. Документите како AI Act на Европската Унија [14], извештајот на UNIDO (2023) [10] или препораките на OECD (2023) [6] и UN Women (2024) [12] се обидуваат да  адресираат дел од овие прашања, но останува отворено прашањето дали тие навистина ги  третираат причините, или само симптомите на нееднаквоста. 

Иако анализата е претежно насочена кон глобалните рамки, релевантноста на темата е  особено нагласена и во националниот контекст, каде дигиталната трансформација сè уште  се одвива во услови на структурни родови нееднаквости. 

1.4. Истражувачка цел и методолошка рамка 

Овој труд има за цел да ја разгледа и анализира интеракцијата помеѓу развојот на  вештачката интелигенција и предизвиците за родова еднаквост во рамки на ИКТ  индустријата, согледувајќи ја преку призма на дигитална правда и алгоритамска  пристрасност. Главни прашања кои ќе се анализираат се: 

➢ Како алгоритмската пристрасност го репродуцира родовиот дисбаланс? ➢ Дали постојат политики кои можат системски да ја трансформираат оваа реалност? ➢ Како феминистичките теории за технологија придонесуваат кон развој на  инклузивна ВИ?

Методолошки, истражувањето ќе користи интердисциплинарен пристап, вклучувајќи: ➢ Квалитативна анализа на релевантни меѓународни документи и нормативни рамки; ➢ Студија на случај – примерот на Amazon ќе биде дискутиран преку призма на  структурна пристрасност; 

➢ Феминистичка критичка анализа, користејќи ги рамките на дигитална правда  предложени од Gurumurthy и Chami (2022) [4; 5], како и аналитичките препораки од  Chen (2023) [1]. 

Овој труд не само што има за цел да идентификува проблеми, туку и да понуди визија за  трансформација – кон родово одговорна вештачка интелигенција која ќе биде интегрирана  во системи кои ја промовираат дигиталната инклузивност и правда. 

2. ТЕОРЕТСКА РАМКА: АЛГОРИТМИ НА МОЌ И ОТПОР, ФЕМИНИСТИЧКА  ТЕХНОНАУКА И ДИГИТАЛНА ПРАВДА ВО ЕПОХАТА НА ГЛОБАЛНА  НЕЕДНАКВОСТ 

Дигиталната технологија, особено онаа заснована на алгоритми и машинско учење, не е  неутрална ниту технички изолирана. Таа произлегува од конкретни социо-историски  контексти и е вградена во епистемолошки и политички структури кои често ги  репродуцираат, наместо да ги надминат, општествените хиерархии и исклучувања. Оваа  теоретска рамка ги анализира пресеците помеѓу моќта, технологијата и отпорот,  фокусирајќи се на три централни концепти: алгоритамска пристрасност, феминистичка  технонаука и дигиталната правда. 

2.1. Алгоритамски патријархат: Моќта на кодот во репродукција на нееднаквостите Алгоритмите не се неутрални ниту автономни – тие се културни артефакти обликувани од  социотехнички контексти, вредносни системи и историски сили, кои често ја кодифицираат  системската дискриминација (Crawford, 2021) [17]. Како проекции на моќ, тие се вградени  во институционални практики што ја репродуцираат родовата, расната и класната  хиерархија. 

Според West, Whittaker и Crawford (2023) [21], алгоритамската пристрасност, особено кај  јазичните модели и автоматизираните одлучувачки системи, функционира како  „инфраструктура на нееднаквост“, произлезена од структурата на податоците и  некритичкото моделирање на реалноста. Bender et al. (2021) [15], предупредуваат дека

големите јазични модели делуваат како „стохастички папагали“ кои репродуцираат  шаблони без разбирање или критичка рефлексија. 

Овие модели се тренирани врз податоци полни со родови, расни и класни предрасуди, што  резултира со нормализација на опресивен дискурс. Така, технологија станува медијатор на  алгоритамски патријархат – форма на моќ што ја прикрива нееднаквоста зад привидна  објективност (Noble, 2018; Birhane, 2021) [19].  

Дополнително, оваа логика ја блокира деколонизацијата на знаењето, зацврстувајќи ја  „колонијалната матрица на моќ“ (Quijano, 2000) [20] и промовирајќи „дигитален  империјализам“ (Mohamed et al., 2020) [18], преку кој западноцентрични вредности се  кодираат како универзални. Овие системи ги исклучуваат знаењата и гласовите на  Глобалниот Југ, трансформирајќи се во алатки на неоколонијална регулација. 

Создавањето етичка и праведна технологија бара радикално поинаков пристап – партиципативен, еманципаторен и интерсекционален – кој ги вклучува гласовите на  маргинализираните групи уште од самите почетоци на дизајнирањето и кој го разбира  кодот не само како технички, туку како политички чин. 

2.2. Локализација на алгоритамската неправда: Контексти од Република Северна  Македонија и Западен Балкан 

Во Западен Балкан, алгоритамската пристрасност е веќе присутна и значајно влијае врз дигиталните услуги, особено во образованието и јавната администрација. Примерот со  системот e-Dnevnik во Република Северна Македонија покажува како неинклузивниот дизајн може да ја продлабочи дигиталната нееднаквост. Според анализа на Metamorphosis  Foundation (2023) [22], учениците од маргинализираните групи – како ромските заедници и  децата со попреченост – често се исклучени од користењето на овие технологии поради  недостиг на инфраструктура, културна адаптација и јазична поддршка, претворајќи го  системот во алатка на социјална изолација и нееднаквост. 

2.3. Феминистичка технонаука: Епистемолошка субверзија на технолошката  неутралност 

Феминистичката технонаука, како што ја концептуализираат Haraway (1991) [23] и Leavy  (2018) [24], радикално ја преиспитува претпоставката за технолошка неутралност и  објективност. Наместо технологијата да се согледува како универзален и аполитички  инструмент, таа ја афирмира идејата за situated knowledges — знаења вкоренети во телесни, 

афективни и релациски искуства, често исклучени од доминантните парадигми. Како што укажуваат Manasi et al. (2022) [25], глобалната дигитална инфраструктура  систематски ја маргинализира локалната експертиза, додека спецификите на заедниците од  Глобалниот Југ остануваат „невидливи“ во архитектура на технологијата. Феминистичката  технонаука ги разобличува овие механизми на епистемолошка колонизација и предлага  радикално инклузивни методологии на технолошки дизајн, каде грижата, телесноста и  релациите стануваат валидни епистемолошки и технополитички ресурси. Со тоа, фокусот се пренасочува од технолошка ефикасност кон етичка одговорност, од  хиерархиски модели кон заеднички, интерсекционални практики на создавање.  Технологијата, во оваа рамка, станува простор на отпор, еманципација и дигитална правда. 

2.4. Техноеманципација одоздола: Дигитална правда низ призма на отпор Како одговор на централизираниот технолошки развој, grassroots пристапите се јавуваат  како децентрализирани, заеднички и критички форми на технолошка продукција, кои  произлегуваат од самите заедници – особено од оние историски маргинализирани или  системски исклучени. Наместо технологијата да се наметнува „одозгора“ – преку  корпорации, државни апарати или технократски елити – овие иницијативи ја артикулираат  техноеманципацијата одоздола: процес во кој маргинализираните групи стануваат творци,  а не само корисници на дигиталната инфраструктура (Schaupp, 2021) [30].  Овој пристап не само што нуди етичка и функционална алтернатива на експлоатативните  дигитални системи, туку и радикално ги критикува нивните ограничувања во постигнување  на вистинска дигитална правда. Grassroots иницијативи како Digital Democracy [29], Coding  Rights [27] и Data for Black Lives [28] покажуваат како локалната епистемологија,  културната специфичност и колективната грижа можат да се претворат во одржливи  дигитални екосистеми што ги поддржуваат човековите права, еколошката рамнотежа и  родовата еднаквост (Crabu et al., 2020; Benjamin, 2019) [31;26]. Како што забележува  Schaupp (2021) [30], овие модели создаваат нова технополитичка граматика, каде што  моќта произлегува од капацитетот за колективна акција, грижа и интерсекционална правда. 

2.5. Етика и дигитална правда: Интерсекционален нормативен хоризонт Во последната деценија, институции како UNESCO (2021) [8], UN Women (2022) [13] и  OECD (2023) [36] развиваат етички рамки за управување со вештачката интелигенција и  дигиталната трансформација, засновани врз принципите на транспарентност, отчетност и 

10 

недискриминација. Сепак, критичари како Wagner (2018), Bietti (2021) и Pérez Ruiz (2024)  [37; 38; 39] предупредуваат на „етички whitewashing“– реторичко прикривање на  структурната нееднаквост зад фасадата на техноетичност. Така, дигиталната исклученост се  третира како технократски проблем со наводно неутрални решенија. 

Вистинската дигитална правда, според Costanza-Chock (2020) [32] и Eubanks (2018) [34], не  произлргува од декларативна етика, туку од трансформативен ангажман што ја преиспитува  самата логика на дигиталниот дизајн. Тоа подразбира отфрлање на универзалистичките  етички модели и нивна замена со интерсекционални, контекстуализирани и емпатиски  пристапи кои ги препознаваат искуствата на маргинализираните. 

Интерсекционалниот хоризонт ја поставува дигиталната правда како дел од борбата за  социјална, економска и епистемолошка правда (D’Ignazio & Klein, 2020; Noble, 2018)  [33; 19]. Пристапот до технологија, учеството во нејзиниот дизајн и валоризацијата на  локалните знаења се суштински за етика која не ја репродуцира, туку ја демонтира  неправдата. 

Етиката, од оваа перспектива, не е неутрална рамка, туку политички и културен терен каде се прекршуваат интересите, моќта и отпорот (Milan, 2021) [35]. Само преку радикално  вклучување на маргинализираните епистемологии – особено родови, расни и класни – може  да се изгради дигиталната правда како алатка на грижа, отпор и еманципација

3. АЛГОРИТАМСКА ПРИСТРАСНОСТ И РОДОВ ДИСБАЛАНС ВО ИКТ  СЕКТОРОТ: СКРИЕНИ КОДОВИ И СОЦИОТЕХНИЧКИ ИМПЛИКАЦИИ  

3.1. Алгоритамска пристрасност и митот за технолошката „неутралност“  Алгоритамската пристрасност претставува систематски и повторливи отстапувања во  функционирањето на компјутерски системи, кои резултираат со неправедни и често  дискриминаторни исходи (Barocas, Hardt & Narayanan, 2019) [40]. Овие отстапувања не се  технички грешки, туку производ на социокултурна хегемонија вградена во дизајнот,  изборот на податоци и имплементацијата на алгоритмите. Наместо да бидат објективни,  алгоритмите функционираат како социотехнички конструкции што го рефлектираат и  одржуваат постојниот поредок на нееднаквост.  

Претставувањето на овие системи како „неутрални“ или „универзално применливи“ ја  замаглува нивната вградена идеологија оформена во општества со родови, расни,  економски и културни асиметрии. Оваа претпоставена неутралност функционира како 

11 

идеолошки параван што го нормализира статус-квото и ја легитимира доминацијата на  одредени групи и маргинализацијата на други (Eubanks, 2018) [34]. Наместо да јс намалат дискриминацијата, алгоритмите често ја продлабочуваат, претворајќи ја историската  нееднаквост во автоматизирана реалност. 

3.2. Технички механизми на дискриминација: Податочна наследност и алгоритамска  архитектура 

Родовата пристрасност во автоматизираните системи не е случајна, туку произлегува од две  структурно вградени технички траектории. Прво, историската нееднаквост се пресликува  во податочните сетови што служат за тренирање на алгоритмите. Овие податоци, собирани  во контексти на институционална дискриминација, ја инкорпорираат логиката на минатите  нееднаквости – вклучувајќи ја и родовата. Наместо да ги коригираат, алгоритмите ја  автоматизираат оваа пристрасност, што води до нејзина технолошка нормализација и  рутинско репродуцирање (Time Magazine, 2025) [47]. 

Второ, архитектурата на алгоритмите – начинот на дизајн, оптимизација и верификација – ретко предвидува механизми за критичка проценка на социјалните импликации. Недостигот  од епистемолошка и социотехничка чувствителност води до системска неинклузивност.  Жените и маргинализираните заедници се изложени на погрешни предвидувања,  исклучување или секундарна дискриминација (Binns, 2018) [41]. Овој феномен сумиран  преку принципот „bias in, bias out“ ја нагласува причинско-последичната поврзаност меѓу  пристрасниот влез (во форма на податоци или алгоритамски претпоставки) и пристрасниот  излез, кој се материјализира како институционална неправда (Barocas et al., 2019) [40]. 

Затоа, техничките димензии на алгоритамската дискриминација не можат да се  разгледуваат изолирано од општествениот контекст. Тие се продолжение на структурните  нееднаквости, чие надминување бара интервенција не само на технолошко, туку и на  политичко, етичко и образовно ниво. 

3.3. Институционализирана нееднаквост: Родов дисбаланс и системска исклученост  во ИКТ  

Родовата нееднаквост во ИКТ екосистемите претставува длабоко вградена  институционализирана дискриминација, која ги надминува прашањата на индивидуален  пристап до образование или вработување. Станува збор за повеќеслоен феномен во кој  културни стереотипи, организациски практики и епистемолошки исклучувања се 

12 

преплетуваат, создавајќи системски бариери за полноправно учество на жените и родовите  малцинства во креирањето и управувањето со технологијата. 

И покрај интензивните заложби за зголемување на родовата застапеност во технолошките  полиња, резултатите остануваат длабоко асиметрични. Жените продолжуваат да бидат  потценето застапени во влијателни области како машинското учење, вештачката  интелигенција и инженерството на податоци, каде се носат одлуки кои ја обликуваат  дигиталната иднина (World Economic Forum, 2023) [44]. Овие диспропорции произлегуваат  од истрајни културни наративи кои ја дискредитираат епистемолошката и професионална експертизата на жените, ги маргинализираат нивните гласови и ги исклучуваат од  иновациски и политички процеси (Young, Wajcman & Sprejer, 2021; UNESCO, 2021) [46;  45]. 

Дополнително, феноменот на „симболичка инклузија“ – каде родовата еднаквост се мери  преку бројки наместо суштинско учество – води до сценарија каде жените се присутни, но  немаат влијание во клучните фази на технолошки развој. 

Вистинската трансформација бара не само поголема застапеност, туку и радикално  преосмислување на родовите односи во технолошките институции – преку критика на  курикулумите, партиципативен дизајн, етички инженеринг и изградба на феминистички  епистемологии што ги валоризираат различните искуства и знаења. Без ова, дигиталната  иновација ќе продолжи да ја репродуцира системската исклученост. 

3.4. Од код до култура: Алгоритамска репродукција на родови стереотипи Алгоритмите не се само алатки за автоматизација, туку културни артефакти кои ги  кристализираат вредносните системи, епистемолошките претпоставки и социјалните  хиерархии на општествата што ги произведуваат. Тие не функционираат во вакуум, туку во  контексти обликувани од историја, моќ и нееднаквост. Во нивната конструкција, родовите и  културните предрасуди не се случајни грешки, туку стануваат структурно вградени во  логиката на алгоритамската категоризација и одлучување (Friedman & Nissenbaum, 1996) [43]. 

Алгоритамската рационалност, претставена како прецизна и ефикасна, продуцира одлуки  што изгледаат неутрални, но суштински ја репродуцираат и институционализираат  родовата нееднаквост. Наместо да ја надминат човечката пристрасност, алгоритмите ја  кодифицираат како технички факт, делувајќи како агенти на културна нормализација, каде 

13 

историските стереотипи се враќаат како „оптимизирани“ решенија (Barocas, Hardt, &  Narayanan, 2019) [40]. 

Клучниот проблем е што технолошката инфраструктура функционира како идеолошки  апарат – она што Gramsci, (1971) [48] го нарекува хегемонија – преку кој доминантните  родови норми се легитимираат како природни и рационални. Алгоритамските системи не  само што ги рефлектираат, туку и ги зацврстуваат асиметричните општествени односи, при  што дискриминацијата се маскира како непристрасно пресметување (Friedman &  Nissenbaum, 1996) [43]. 

3.5. Невидлива маргинализација: Скриени алгоритамски пристрасности и  автоматизирана исклученост 

Невидливата природа на алгоритамската пристрасност е една од најголемите опасности на современите дигитални системи, бидејќи овозможува дискриминација што останува  невоочена, и од корисниците и од дизајнерите на технологијата (Eubanks, 2018; Buolamwini  & Gebru, 2018) [34; 42]. Автоматизираните одлуки во области како финансии, вработување  и здравство, често се базираат на историски податоци кои ги рефлектираат и засилуваат  родовите нееднаквости. Ова резултира со системско исклучување на жените и други  маргинализирани групи, чијшто контекст останува игнориран од алгоритмите. 

Овој феномен создава „скриена“ дискриминација која, иако невидлива, има длабоки и  долгорочни последици – го продлабочува родовиот јаз, го ограничува пристапот до ресурси  и можности и ја поткопува социјалната мобилност и автономија на засегнатите групи  (Eubanks, 2018) [34]. Алгоритмите така функционираат како невидливи механизми за  одржување на структурната родова нееднаквост, што ја загрозува праведноста на  технолошките системи. 

Надминувањето на овие предизвици бара транспарентни алгоритамски практики и  интерсекциски пристап кон родовите прашања. Само преку континуирано следење,  евалуација и корекција на пристрасностите, може да се обезбеди дека технологијата ќе  придонесува, а нема да ги поткопува, напорите за родова еднаквост и инклузија. 

4. ДОКАЗИ НА ИСКЛУЧУВАЊЕ: КАРТОГРАФИЈА НА ПРИСТРАСНОСТА 

Во дигиталниот пејзаж на 21-от век, алгоритмите не само што ги одразуваат општествените  вредности и норми – тие активно учествуваат во нивното (ре)производство. Наместо да 

14 

бидат технолошки алатки со неутрална функција, алгоритмите сè повеќе се препознаваат  како нормативни структури што управуваат со ресурси, можности, идентитети и политички  моќи. Овој дел извршува картографија на исклучувањето – преку анализирање како  алгоритмите, обучени врз пристрасни податоци и поставени во контексти на системска  нееднаквост, стануваат инфраструктури на дигитална дискриминација (Benjamin, 2019;  Noble, 2018; Eubanks, 2018; Binns, 2020) [26; 19; 34; 49]. 

4.1. „Објективноста“ како мит: расни и родови пристрасности во кодот  Митот за алгоритамска објективност – идејата дека алгоритмите се „непристрасни“, бидејќи  се базирани на податоци и логика – е една од најопасните заблуди во современото ИКТ  општество. Ruha Benjamin (2019) [26] го концептуализира овој феномен како new Jim Code:  наизглед неутрални алгоритми што репродуцираат системски форми на расна и родова  доминација. Наместо да ги коригираат нееднаквостите, тие ги автоматизираат. Selbst et al. (2019) [56], исто така предупредуваат дека техничките решенија без социјална  анализа можат да го зацврстат статус-квото. Кодот, всушност, не е празен математички  објект, туку културен запис – носител на историски, морални и политички импликации  (Noble, 2018) [19].  

Машинското учење не „открива“ вистини, туку усвојува шаблони од минатото – дури и  кога тие се длабоко пристрасни. Алгоритмите така стануваат вектори на институционална  инерција, кои ја замрзнуваат историјата и ја претставуваат како неизбежна иднина. Во ИКТ екосистемот – доминиран од машка, бела и западноцентрична хегемонија  (Crawford, 2021) [17] – објективноста функционира како механизам за скриена ексклузија.  Маргинализираните идентитети не само што се невидливи во податоците – тие се активни  жртви на алгоритамско избришување. 

4.2. Студии на случај: Конкретизации на алгоритамска пристрасност 4.2.1. Amazon Recruitment Algorithm: Алгоритамот што ја „отпушта“ родовата  еднаквост 

Amazon во 2018 година разви автоматизиран систем за селекцијата на кандидати, кој  систематски ги деградирал биографиите на жените (Dastin, 2018) [2]. Причината лежи во  фактот што алгоритмот беше обучен врз податоци од последните десет години – период со  доминација на машки кандидати. Така, алгоритмот „научи“ дека машкиот профил е норма,  а женскиот – девијација.

15 

Ова не е само технички пропуст, туку одраз на системски родовиот неуспех, што преточен  во алгоритам, станува рационализирана норма. Во духот на Benjamin (2019) [26], може да се  каже дека алгоритамот ја претвора дискриминацијата во „интелигенција“ – ја  институционализира. 

4.2.2. Clearview и Facial Recognition: Надзор што дискриминира 

Технологиите за препознавање лице, како оние на Clearview AI, покажуваат драматични разлики во точноста според раса и пол. Студијата „Gender Shades“ (Buolamwini & Gebru,  2018) [42] откри грешки до 34.7%, кај црни жени, наспроти под 1%кај бели мажи – потврдено и во извештаите на NIST (2019) [53]. 

Со оглед на тоа што овие технологии се дел од јавната безбедност и приватниот сектор,  алгоритамската пристрасност станува прашање на човекови права и политичка безбедност.  Gangadharan (2020) [50], предупредува дека автоматизираниот надзор е нова форма на  „дигитална полиција“, која таргетира расизирани и маргинализирани заедници. 

4.2.3. Chatbot-и како културни ехо-камери 

Microsoft Tay, chatbot од 2016 година, за само неколку часа почна да промовира мизогини и  расистички пораки, учејќи од корисниците на Twitter. Tay не беше „лош алгоритам“, туку  искрен одраз на токсичноста на дигиталниот јавен простор. 

Слични пристрасности се забележани и кај други генеративни AI модели, вклучувајќи GPT  и Stable Diffusion (Luccioni et al., 2023) [52], што отвора прашања: чии култури и гласови ги  „учат“ алгоритмите? Кој е тивко избришан? 

4.3. Родот како шум во алгоритамот – или сигнал за отпор? 

Во бинарниот свет на алгоритмите, каде што доминира предвидливоста, хиерархијата и  класификацијата, квир и небинарни идентитети често се третирани како „шум“ – отстапувања од нормата. Но токму во тој шум се крие потенцијал за отпор и  прекомпонирање на технолошката етика. Глитч-феминизмот, на Legacy Russell (2020)  [55], го дефинира глитчот како субверзивна стратегија што го разоткрива кодот како  структура на моќ.  

Во оваа рамка, квир телата стануваат агенси на технолошка репарација – етичка, афективна и интерсекционална (Keyes, 2019) [51]. Глитчот го отвора просторот за визии на  технологија што признава грижа и радикална различност. 

Истовремено, концептот на ехо-камери (echo chambers) на Pariser (2011) [54] открива како  алгоритмите создаваат културна и епистемолошка хомогенизација. Фаворизирајќи  содржина што ги потврдува постоечките уверувања, тие ги маргинализираат различните 

16 

гласови и создаваат затворени дигитални простори без простор за плурализам. Во такви  услови, технолошката правда станува невозможна без радикален редизајн на системите што  го генерираат ова исклучување. 

Затоа, синергијата меѓу глитчот како форма на дигитален отпор и критиката на  алгоритамската изолација претставува повик за технофеминистичка етика што ја признава  комплексноста, различноста и интерсекционалната правичност како клучни принципи на  дигиталната иднина. 

5. РЕГУЛАТОРНИ РАМКИ И ПОЛИТИКИ: МЕЃУ ТРАНСПАРЕНТНОСТ И  ВИСТИНСКА ИНКЛУЗИЈА 

Во времето на технолошки убрзани трансформации, регулаторните рамки стануваат не само  нормативни механизми за контрола, туку и огледала на општествените вредноти. Прашањето не е дали, туку како и во чија полза да се регулира вештачката интелигенција  (ВИ). Оттука, критичката анализа на регулативите мора да оди подлабоко од нормативна  реторика – да утврди дали се алатки на суштинска трансформација или паравани на статус 

кво стабилност. 

5.1. Европскиот акт за ВИ: помеѓу ризик и редистрибуција на моќта EU AI Act 2024/1689, прв системски обид на ЕУ за уредување на ВИ, се заснова на хиерархија на ризици и ја потенцира транспарентноста како клучен принцип на доверба (European Commission, 2024) [14]. Но, отсуствува интерсекциска анализа што би ја  препознала различната поставеност на општествените групи во однос на ВИ. Формализираната транспарентност често служи како регулативна фасада –апсорбира  критики, но не го менува темелот на дигиталната моќ. Како што забележуваат Veale &  Zuiderveen Borgesius (2021) [61], таквите регулативи ризикуваат да ги третираат ги  симптомите, а не причините на структурните проблеми. 

5.2. Глобални нормативни импулси: родово сензитивен АИ како реторика или  отпор? 

UNESCO, UNIDO и Советот на Европа се залагаат за родово сензитивен развој на ВИ.  Документот Recommendation on the Ethics of AI (UNESCO, 2022) [8] е важна реперна точка. Но, прашање е дали овие иницијативи создаваат реална промена или остануваат во рамките 

17 

на симболичка реторика.  

Мнозинството регулативи се фокусираат на „capacity building“ и свесност, но ретко содржат мерливи индикатори, механизми на санкционирање или конкретни цели. Така, на  глобалната регулаторна сцена може да се појави она што Sara Ahmed (2012) [57] го  нарекува „non-performative institutional speech“ – говор што изгледа прогресивен, но не  создава ефект. 

5.3. Декларативна етика vs. материјална правда: нови парадокси на одговорноста Меѓу најголемите предизвици на постојните регулативи е парадоксот на декларативната  етика: звучни принципи што немаат врзувачка моќ. Timnit Gebru и нејзиниот тим (Gebru et  al., 2021) [59] укажуваат на феноменот „етика без правда“ –модел на етичка регулација што  не се ангажира со нееднаквоста и технолошко исклучување. Таквата етика го сведува субјектот во објект на заштита, но не и на ко-креатор на дигиталната стварност. 

5.4. Кон регулативи што „слушаат од маргината“ 

Алтернативата не лежи во повеќе етика, туку во радикално нова политика на слушање:  регулативи што вградуваат епистемологии од маргината (Harding, 1991) [60],  интерсекциски перспективи и нови вредносни парадигми. Регулативи што отвораат простор за грижа, глас и отпор – не само за функционалност. 

Ако сакаме вистинска дигитална правда, мора да ги напуштиме рамките на „етички  оптимизам“ и да создадеме одговорни и транспарентни модели – пред сè одговорни кон  оние што најчесто се оставени без одговор. 

Затоа, останува клучното прашање: можат ли регулативите да бидат алатки на  еманципација ако не се втемелени во искуствата на исклучените? Како би изгледала  регулатива што не го штити статус-квото, туку отвора простор за отпор, глас и  трансформација? Во ера на алгоритамска власт, политичката одговорност кон  маргинализираните не е закана, туку предуслов за технолошка иновација и правда.

18 

6. ГЛОБАЛНИ И ЛОКАЛНИ ПЕРСПЕКТИВИ – ОД ДИГИТАЛНА  ТРАНСФОРМАЦИЈА ДО ОДРЖЛИВА ИНОВАЦИЈА 

6.1. Родова инклузија во ерата на дигитална и зелена трансформација Во контекстот на забрзаната дигитална и зелена транзиција, се појавуваат нови можности и  предизвици за родова еднаквост. Во изминатата деценија, глобалните агенции и  иницијативи се движат од симболичка реторика кон стратешко структурирање на  интервенции што ја поврзуваат дигиталната трансформација со одржлива иновација. И  покрај заложбите за инклузивност, критичките анализи предупредуваат дека постои ризик  од реинституционализација на постојните нееднаквости во новите технолошки  парадигми (Sowrirajan et al., 2024) [61]. 

6.1.1. Инфраструктура на можности или реновирана асиметрија? Иницијативите на Светска банка, UN Women и Gates Foundation инвестираат значајни  ресурси во програми за пристапност, обука и учество на девојчиња и жени во STEM  секторот, особено во глобалниот Југ. Програмите на Светската банка имаат за цел да го  зголемат учеството на девојчиња во STEM преку демонтирање на родовите стереотипи и  обезбедување структурна поддршка за нивниот напредок (World Bank, n.d.) [65; 66; 67]. Слично, UN Women [64] и Gates Foundation [62] работат на елиминирање на бариерите што  го оневозможуваат активното учество на жените во економијата, општеството и  технолошките процеси, преку пристап до образование, здравствена заштита и економско  зајакнување. 

Меѓутоа, критичките перспективи (Roberts & Hernandez, 2021; Eubanks, 2018) [68; 34],  укажуваат дека овие пристапи често ја третираат технологијата како неутрална алатка и  решенијата ги индивидуализираат, притоа игнорирајќи ја структуралната распределба на  моќ во технолошките екосистеми. 

6.1.2. Жени во зелени и дигитални транзиции: од објекти на политика до  субјекти на визија 

OECD во своите извештаи подвлекува дека учеството на жените во зелени и дигитални  иновации е клучно за праведна и инклузивна транзиција (OECD, 2024) [63; 70]. И покрај  тоа, застапеноста на жените во развојот на вештачка интелигенција, климатски технологии  и blockchain решенија останува драматично ниска (ITU, 2023; OECD STATISTICS, 2023) [69; 77].

19 

Некои иновативни иницијативи, како проектите на UNDP [72; 73], се обидуваат да ги  вклучат жените како дизајнерки и креаторки на политики, наместо како пасивни  кориснички. Но, како што предупредуваат критичарки како Benjamin (2019) [26] и Klein &  D’Ignazio (2020) [33] и најдобронамерните еко-технолошки агенди можат да ја прикријат  расно-класно-родовата инфраструктура на нееднаквост, особено ако се движени од  корпоративна логика и пазарни приоритети. 

6.1.3. Женско претприемништво и дигиталната економија: отпор, адаптација  или рефлексија на статус кво? 

Истражувањата на Digital Women Founders (DWF, 2025) [71] укажуваат дека жените  основачки на стартапи добиваат значително помалку венчур капитал во споредба со  мажите. И покрај тоа, жените претприемачи често развиваат технолошки решенија што се  засноваат врз етички вредности и ориентираност кон заедницата – како што се  децентрализирани мрежи, еколошки технологии и tech-for-care иновации (UNIDO, 2023;  ITU, 2025) [75 ;76]. 

Програмата SheTrades на International Trade Centre [74] нуди значајна поддршка за  дигиталната интеграција на жени во е-трговијата. Сепак, суштинското прашање останува  отворено: дали дигиталната економија навистина ја деконструира родовата хиерархија – или само ѝ дава нова, дигитално полирана фасада? 

6.1.4. Критички осврт: нова иновација, стара нееднаквост? 

Во ера на технолошка хипермодерност, концептот на „инклузија“ често се претвора во  маркетиншки слоган, додека суштинските структурни нееднаквости остануваат  непроменети. Како што вели Safiya Noble (2018) [19], дигиталните алатки можат да  репродуцираат „високорезолуциски технолошки расизам и сексизам“. 

Прашањето не е дали жените се присутни, туку со каква улога, со каков глас, и со каква  моќ. Податоците не се „сурови“, туку културно ситуирани. Алгоритмите не се неутрални,  туку учат од историјата на искривени и ексклузивни податоци. Дигиталната правда  подразбира преобмислување на самите парадигми, а не само вклучување во постојните. 

6.1.5. Заклучна рамка: Кон дигитална правда и инклузивна иновација Од перспективата на дигиталната правда, вистинската иновација не се мери само со  технолошки пробиви, туку со способноста да се деконструираат и трансформираат  структурните нееднаквости што ги обликуваат и управуваат иновациите. Жените – особено оние од маргинализирани заедници – треба не само да бидат вклучени, туку и да  имаат капацитет да ја моделираат и предизвикуваат технолошката иднина.

20 

6.2. Локални перспективи: Република Северна Македонија на патот кон дигитална  правда 

Во процесот на дигиталната трансформација во Република Северна Македонија, се  забележува засилен фокус на родовата еднаквост и инклузијата на жените во технолошките  сектори. Оваа трансформација не само што ја менува економската и социјалната структура,  туку и отвора нови можности и предизвици во поглед на родовата правда. 

6.2.1. Поддршка за жените и девојчињата во STEM 

Напорите за вклучување на девојчиња и жени во STEM се засилени преку иницијативи како  „СТЕМувај како девојка“, Global Engineer Girls, SheTech и Girls Code. Овие програми,  поддржани од национални и меѓународни партнери, обезбедуваат менторство, стипендии и  обуки во дигитални вештини, со цел намалување на родовиот јаз и создавање инклузивна  технолошка култура. Според Фондацијата Метаморфозис, се очекува раст на женското  учество во дигитални програми, што укажува на трансформативен потенцијал за родова  еднаквост и иновации (МИА, 2021; Centar.mk, 2023; Metamorphosis, 2023) [78; 79; 80]. 

6.2.2. Експанзија на женското претприемништво и дигиталната економија Сè повеќе жени претприемачи во Северна Македонија се активни во дигиталната економија  преку програми како Femme Digital, TechSHE и Digital Women, кои нудат едукација,  менторство и мрежна поддршка. Иницијативите EU4EG и Swiss Entrepreneurship Program  придонесуваат со грантови и поддршка за стартапи, од кои над 50% имаат жени-основачи.  Иако предизвиците како пристапот до финансии и родовите стереотипи остануваат, овие  програми се важен чекор кон поинклузивен и одржлив претприемачки екосистем (MIR  Foundation, 2023; Biznisvesti.mk, 2023; Swiss EP, 2023)[81; 82; 83]. 

6.2.3. Потенцијалот на зелената и дигитална транзиција во РСМ 

Како дел од глобалната дигитална и климатска транзиција, Северна Македонија вложува во  одржливост преку дигитални иновации и зелени технологии. Дигитализацијата се гледа  како двигател на енергетска ефикасност, а инвестициите во обновливи извори и складирање  енергија го јакнат климатскиот отпор (MKD.mk, 2024; Nova Makedonija, 2024) [84; 85].  Преку проекти како Green Macedonia и Digital Energy, се обезбедуваат обуки за жени во  зелени технологии, поврзувајќи ја одржливоста со родова еднаквост и локален развој. 

6.2.4. Локална заклучна рамка: Кон феминистичка дигитална етика Дигиталната трансформација во Северна Македонија отвора можности не само за  технолошки напредок, туку и за редефинирање на технолошката култура преку призма на  социјална и родова правда. Потребна е феминистичка дигитална етика што ја вреднува 

21 

грижата, интерсекционалноста и колективната агенда, наместо адаптација на жените кон  постојниот систем (Gray & Suri, 2019) [86]. Иако има напредок, структурните бариери и  натаму го ограничуваат еднаквиот пристап до образование и ресурси, особено за  маргинализирани заедници. Затоа е неопходен системски, интерсекционален пристап за да  се обезбеди дигитална правда и одржлива иднина за сите (UNDP, 2025; UN Women, 2023) [73; 11]. 

7. ФЕМИНИСТИЧКА ВИЗИЈА: КОН ЕМАНЦИПАТОРНА ВЕШТАЧКА  ИНТЕЛИГЕНЦИЈА  

Во контекст на системска алгоритамска пристрасност, екстрактивна економија на податоци  и продлабочени нееднаквости, феминистичката визија не е само идеолошка опозиција,  туку критичко-еманципаторна алтернатива што повикува на темелна трансформација на  парадигмите на технолошкиот развој. Наместо адаптација на жените кон машко 

доминирани системи, потребна е трансформација на самите системи – кон праведна,  емпатична и интерсекционално одговорна вештачка интелигенција. 

7.1. Критичка реимагинација на технолошката иднина 

Феминистичката критика не се задоволува со „инклузија одозгора“, туку бара  епистемолошки прекин – отфрлање на митот за техничка неутралност и објективност како  пат кон еднаквост. D’Ignazio и Klein (2020) [33] застапуваат „податочен феминизам“ кој ја  признава локацијата на знаењето, ја политизира визуализацијата и бара јавна отчетност на  податочните системи. Наместо ВИ која генерира „оптимални“ резултати за „просечен  корисник“, потребна е ВИ што ги слуша гласовите на маргинализираните. 

Costanza-Chock (2020) [32] го дефинира овој пристап како design justice – стратегија за  создавање технологии кои не ги одржуваат хиерархиите, туку ги преиспитуваат. Емоциите,  телесноста и грижата не се непожелни, туку суштински за етички одржлив дизајн. 

7.2. Од екстракција кон етичка ко-креација: Нови модели на иновација Современата економија на податоци се заснова на екстракција: податоците како рудник,  алгоритмите како алатки, а луѓето – особено маргинализираните – како ресурси. Crawford  (2021) [17] предупредува на глобалната цена од оваа логика: разорување на приватноста,  довербата и екосистемот.

22 

Алтернативно, етичката ко-креација подразбира епистемолошко центрирање на  маргинализираните заедници. Тоа значи ко-дизајн што започнува со гласовите на жените,  расно и класно маргинализираните, лицата со попреченост и ЛГБТК+ заедниците (Whittaker  et al., 2023) [87]. Не се работи за „етички комитети“, туку за реструктурирање на моќта – од  „одлучувачи“ кон оние што ја сносат последицата. Иновацијата тука е процес на грижа,  одговорност и социјална имагинација. 

7.3. Интерсекционална праведност како дизајнерски принцип во ВИ системите Интерсекционалноста (Crenshaw, 1989) [88], мора да биде основен методолошки и етички  принцип, а не реторички додаток. Алгоритмите се производ на вредносни рамки – прашањето е: чија рамка? Често тие ја репродуцираат расната, родовата и класната опресија (Benjamin, 2019) [26], со што резултатите стануваат исклучувачки и штетни. Феминистичкиот пристап бара интерсекционалноста да биде интегрирана во секоја фаза: од  дизајн до ревизија. Маргинализираните заедници треба да се третираат како експерти, не  како објекти. Наместо неутралност – одговорност. Наместо универзалност – контекст.  Наместо апстракција – грижа. 

8. ЗАКЛУЧОК: РОДОТ КАКО АЛГОРИТАМ НА ОТПОРОТ, ТЕХНОЛОГИЈАТА  КАКО ЕТИКА НА ИДНИНАТА 

“Gender equality is not an option, but an imperative to achieve a fair, just world” [11]. Во оваа дигитална епоха, каде што кодот сè почесто станува нова форма на општествен  договор, јас ја гледам алгоритамската правда не како техничка потреба, туку како  цивилизациска нужност. Алгоритмите не се невини – во нив се впишани избори, вредности,  исклучувања. Затоа, не верувам во „неутрална“ технологија. Тоа е мит што служи на моќта.  Она што ми е важно, како граѓанин на дигиталната стварност, е да ги расплетам тие  скриени структури, да покажам дека секој ред код е политички акт, секој модел е  идеологија. 

Родот, за мене, не е тема што се додава на ИКТ како „човечка димензија“ – туку е клучот за  да ја разбереме самата логика на тоа што технологијата прави и кому служи. Не се работи  за вклучување на повеќе жени во постоечките системи, туку за темелна трансформација на  самиот систем, на самото разбирање за иновација. Чие знаење се смета за вредно? Чиј 

23 

животен свет се препознава како „податок“? Одговорите на овие прашања ја обликуваат не  само иднината на технологијата, туку и иднината на правдата. 

Буоламвини, Химелрајх, Лим и многу други веќе укажуваат на ова – но за мене, овие  анализи се почетна точка, не завршна. Јас инсистирам на критичка етика што не се  задоволува со „фер“ алгоритми, туку ги преиспитува вредносните темели на целата  дигитална архитектура. За мене, тоа значи да се движиме од технократија кон родово и  интерсекционално чувствителна епистемологија; од пасивна регулација кон активна етичка  интервенција. 

Алгоритмот, ако сакаме да биде правичен, мора да научи да чувствува. Мора да биде  кодиран од грижа, од свесност за маргината, од емпатија. Не како „опција“, туку како  основа. Вештачката интелигенција не смее да биде огледало на светот каков што е – туку  прозорец кон светот каков што може и треба да биде: поправеден, поисклучителен,  похуман. 

Во таа визија, родот не е „категорија на анализа“, туку алгоритам на отпорот – начин на  размислување, етички филтер, двигател на промена. Моето убедување е дека етиката на  дигиталната иднина мора да изникне токму од тие точки на исклучување, од гласовите што  биле бришени, од искуствата што системите не ги препознаваат. Технологијата не смее да  остане производ на елити – таа мора да биде простор за колективна имагинација, за  прекодирање на реалноста од маргината. 

Ова не е само технолошка промена. Ова е политичка и педагошка револуција. Повик за  образование што создава критички субјекти, не само „стручњаци“. Повик за педагогија што  го чита кодот како културен текст, а иновацијата како етички процес. Повик за дигитална  правда што не бара дозвола, туку гради системи од темел – со емпатија како архитектура, а  интерсекционалноста како компас. 

Ова е мојата визија. И таа почнува од прашањето: кој има право да ја замисли иднината – и како ќе ја кодираме таа имагинација во правичен свет?

24 

БИБЛИОГРАФИЈА 

[1] Chen, Y. (2023). Gender inequality in the age of AI: Predictions, perspectives, and policy  recommendations. OSF Preprints. https://osf.io/5zrh9/download 

[2] Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias  against women. Reuters. https://www.reuters.com/article/us-amazon-com-jobs-automation insight-idUSKCN1MK08G 

[3] Gurumurthy, A., & Chami, N. (2022). Towards a feminist digital justice framework. IT for  Change. https://itforchange.net/digital-justice-transformative-feminist-framework [4] Gurumurthy, A., & Chami, N. (2022). Innovation to Tackle Gender Inequality – A Back to-basics Roadmap. https://itforchange.net/innovation-to-tackle-gender-inequality-a-back-to basics-roadmap и  

https://itforchange.net/sites/default/files/2230/Innovation%20to%20Tackle%20Gender%20In equality.pdf 

[5] UN Women. (2022). Innovation to Tackle Gender Inequality: A Back-to-Basics Roadmap https://www.unwomen.org/sites/default/files/2022-12/EP.6_Anita%20Gurumurthy.pdf [6] OECD. (2023). Artificial Intelligence and Gender Equality: Policy Brief. OECD Publishing.  https://www.oecd.org/en/topics/sub-issues/gender-equality-and-digital-transformation.html [7] UNESCO. Women’s access to and participation in technological developments https://www.unesco.org/en/artificial-intelligence/gender-equality 

[8] UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: United  Nations Educational, Scientific and Cultural Organization.  

https://unesdoc.unesco.org/ark:/48223/pf0000381137

[9] West, S. M., Whittaker, M., & Crawford, K. (2023). Discriminating Systems: Gender and  Racial Bias in AI. AI Now Institute. https://ainowinstitute.org/publications/discriminating systems-gender-race-and-power-in-ai-2 

[10]UNIDO (2023). Gender, Digital Transformation and Artificial Intelligence 

https://www.unido.org/news/unido-publishes-report-gender-digital-transformation-and artificial-intelligence 

[11]UN Women. (2023). Gender equality is not an option, but an imperative’ – Women leaders  gather at UN summit https://www.unwomen.org/en/news-stories/feature 

story/2023/09/gender-equality-is-not-an-option-but-an-imperative-women-leaders-gather-at un-summit

25 

[12]UN Women. (2024). Glossary: Gender and Technology  

https://www.unwomen.org/en/articles/glossary/glossary-gender-and-technology [13]UN Women. (2024). Artificial Intelligence and gender equality  

https://www.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender-equality [14]European Commission. (2024). Regulation (EU) 2024/1689 on artificial intelligence  (Artificial Intelligence Act). Retrieved from https://digital-strategy.ec.europa.eu и  https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)69879 2_EN.pdf 

[15]Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers  of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM  Conference on Fairness, Accountability, and Transparency (FAccT ’21), 610–623.  https://dl.acm.org/doi/pdf/10.1145/3442188.3445922 

[16]Birhane, A. (2021). Algorithmic injustice: A relational ethics approach. Patterns, 2(2),  100205. https://doi.org/10.1016/j.patter.2021.100205 

[17]Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial  intelligence. Yale University Press. https://www.are.na/block/11669646 

[18]Mohamed, S., Png, M. T., & Isaac, W. (2020). Decolonial AI: Decolonial theory as  sociotechnical foresight in artificial intelligence. Philosophy & Technology, 33(4), 659–684.  https://doi.org/10.1007/s13347-020-00405-8 

[19]Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU  Press. https://safiyaunoble.com/wp 

content/uploads/2020/09/Algorithms_Oppression_Introduction_Intro.pdf 

[20]Quijano, A. (2000). Coloniality of power, Eurocentrism, and Latin America. Nepantla:  Views from South, 1(3), 533–580. https://www.decolonialtranslation.com/english/quijano coloniality-of-power.pdf 

[21]West, S. M., Whittaker, M., & Crawford, K. (2023). Discriminating systems: Gender, race  and power in AI. AI Now Institute.  

https://ainowinstitute.org/wp-content/uploads/2023/04/discriminatingsystems.pdf [22]Metamorphosis Foundation. (2023). Иднината е дигитална: анализа на дигитална  еднаквост во образованието во Северна Македонија 

https://metamorphosis.org.mk/aktivnosti_arhiva/prilog-na-fondacijata-metamorfozis-kon javnata-konsultacija-za-nacrtot-na-nacionalnata-strategija-za-ikt-2021-2025-i-pridruzniot akciski-plan/

26 

[23]Haraway, D. J. (1991). Simians, Cyborgs, and Women: The Reinvention of Nature.  Routledge. 

https://monoskop.org/images/f/f3/Haraway_Donna_J_Simians_Cyborgs_and_Women_The_ Reinvention_of_Nature.pdf 

[24]Leavy, Susan. (2018). Gender Bias in Artificial Intelligence: The Need for Diversity and  Gender Theory in Machine Learning.” In Proceedings of the 1st International Workshop on  Gender Equality in Software Engineering  

https://www.researchgate.net/publication/326048883_Gender_bias_in_artificial_intelligence_ the_need_for_diversity_and_gender_theory_in_machine_learning 

[25]Manasi, Ardra/Panchanadeswaran, Subadra/Sours, Emily/Lee, Seung Ju (2022). Mirroring the bias: gender and artificial intelligence. Gender, Technology and Development  https://www.researchgate.net/publication/365257171_Mirroring_the_bias_gender_and_artific ial_intelligence  

[26]Benjamin, R. (2019). Race after Technology: Abolitionist Tools for the New Jim Code. Polity  Press. 

https://attachments.are.na/25150880/f53336ca352f30b691511388d3eb998d.pdf?1702204505  [27]Coding Rights. (n.d.). About Us. Retrieved May 14, 2025, from  

[28]Data for Black Lives. (n.d.). Homepage. Retrieved May 14, 2025, from  https://www.d4bl.org 

[29]Digital Democracy. (n.d.). About. Retrieved May 14, 2025, from https://www.digital democracy.org 

[30]Schaupp, S. (2021). Technopolitics from Below: A Framework for the Analysis of Digital  Politics of Production. NanoEthics,  

https://www.researchgate.net/publication/351068524_Technopolitics_from_Below_A_Frame work_for_the_Analysis_of_Digital_Politics_of_Production 

[31] Crabu, S., Giovanella, F., Maccari, L., & Magaudda, P. (2017). „Bottom-up  Infrastructures: Aligning Politics and Technology in Building a Wireless Community  Network.“ Computer Supported Cooperative Work (CSCW).  

https://link.springer.com/article/10.1007/s10606-017-9301-1

[32]Costanza-Chock, S. (2020). Design justice: Community-led practices to build the worlds we  need. MIT Press.  

https://library.oapen.org/bitstream/handle/20.500.12657/43542/external_content.pdf

27 

[33]D’Ignazio, C., & Klein, L. F. (2020). Data feminism. MIT Press. https://data feminism.mitpress.mit.edu 

[34]Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish  the poor. St. Martin’s Press. https://tetrazolelover.at.ua/virginia_eubanks 

automating_inequality-how_high-te.pdf 

[35]Milan, S. (2021). Technopolitics in the age of big data: From digital resistance to data justice.  First Monday, 26(10). 

https://www.researchgate.net/publication/321019133_Technopolitics_in_the_Age_of_Big_D ata 

[36]OECD. (2023). OECD AI Principles overview. https://www.oecd.org/going digital/ai/principles/ 

[37]Ben Wagner. (2018). Ethics as an escape from regulation. From “ethicswashing” to ethics shopping? MEDIA/REP. https://mediarep.org/server/api/core/bitstreams/c6b38494-839e 4c83-b071-4c5b1798a771/content 

[38]E. Bietti. (2021). “From Ethics Washing to Ethics Bashing: A Moral Philosophy View on  Tech Ethics” in Journal of Social Computing, vol. 2, no. 3, pp. 266-283,  

https://www.sciopen.com/article_pdf/1476849192339701762.pdf

[39]Inma Pérez Ruiz. (2024). A Guide to Prevent Ethics-Washing in the Tech Sector.  https://technologymagazine.com/data-and-data-analytics/a-guide-to-prevent-ethics-washing in-the-tech-sector 

[40]Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and machine learning.  https://fairmlbook.org/pdf/fairmlbook.pdf 

[41]Binns, R. (2018). Algorithmic Accountability and Public Reason. Springer. https://link.springer.com/article/10.1007/s13347-017-0263-5 

[42]Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in  commercial gender classification. Proceedings of the 1st Conference on Fairness,  Accountability, and Transparency, 77-91.  

https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

[43]Friedman, B., & Nissenbaum, H. (1996). Bias in computer systems. ACM Transactions on  Information Systems (TOIS), 14(3), 330-347.  

https://nissenbaum.tech.cornell.edu/papers/Bias%20in%20Computer%20Systems.pdf [44]World Economic Forum. (2023). The global gender gap report. Retrieved from  https://www.weforum.org/publications/global-gender-gap-report-2023/

28 

[45]UNESCO. (2021). Women and the digital revolution (chapter 3) 

https://unesdoc.unesco.org/ark:/48223/pf0000377456/PDF/377456eng.pdf.multi.page=1&zoo m=auto,-16,842 

[46]Erin Young, Judy Wajcman, Laila Sprejer. (2021). Where are the women? Mapping the  gender job gap in AI Policy Briefing – Full Report Public Policy Programme Women in Data  Science and AI project https://www.turing.ac.uk/sites/default/files/2021-03/where-are-the women_public-policy_full-report.pdf 

[47]Time Magazine. (2025). Why We Need More Women In The AI Revolution https://time.com/7210973/women-in-the-ai-revolution/  

[48]Gramsci, A. (1971). Selections from the prison notebooks (Q. Hoare & G. Nowell Smith,  Eds. & Trans.). International Publishers. (Original work published 1929–1935) https://uberty.org/wp-content/uploads/2015/10/gramsci-prison-notebooks.pdf 

[49]Binns, R. (2020). Fairness in machine learning: Lessons from political philosophy.  Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FAT*  ’20), 149–159. https://proceedings.mlr.press/v81/binns18a/binns18a.pdf 

[50]Gangadharan, S. P. (2023). Big Tech, Computational Power, and Racial Equity https://bayareaequityatlas.org/sites/default/files/DrSeeta.pdf 

[51]Keyes, O. (2019). Counting the countless: Why data science is a. profound threat for queer  people. Real Life. https://reallifemag.com/counting-the-countless/ 

[52]Luccioni, A., Tan, J. S., & Bengio, Y. (2023). Stable bias: Assessing image-to-text toxicity  in latent diffusion models. https://arxiv.org/pdf/2303.11408v2 

[53]NIST. (2019). Face recognition vendor test (FRVT) part 3: Demographic effects. National  Institute of Standards and Technology. https://doi.org/10.6028/NIST.IR.8280 [54]Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press. https://www.academia.edu/34426834/The_Filter_Bubble_Eli_Pariser 

[55]Russell, L. (2020). Glitch feminism: A manifesto. Verso Books. 

https://monoskop.org/images/2/20/Russell_Legacy_Glitch_Feminism_A_Manifesto_2020.pd f 

[56]Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S., & Vertesi, J. (2019).  Fairness and abstraction in sociotechnical systems. Proceedings of the Conference on  Fairness, Accountability, and Transparency, 59–68. 

https://sorelle.friedler.net/papers/sts_fat2019.pdf

29 

[57]Ahmed, S. (2012). On being included: Racism and diversity in institutional life. Duke  University Press.  

https://static1.squarespace.com/static/5f19ed0382525a1ca134124a/t/5f8b86ebe71556378586e e75/1602979563714/Sara+Ahmed+- 

+On+Being+Included_+Racism+and+Diversity+in+Institutional+Life+%282012%2C+Duke +University+Press%29+-+libgen.lc.pdf 

[58]Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, J. W., Wallach, H., Daumé III, H.,  & Crawford, K. (2021). Datasheets for datasets. Communications of the ACM, 64(12), 62– 71. https://dl.acm.org/doi/pdf/10.1145/3458723 

[59]Harding, S. (1991). Whose Science? Whose Knowledge? Thinking from Women’s Lives.  Cornell University Press. https://frauenkultur.co.uk/wp-content/uploads/2020/05/Whose Science-Whose-Knowledge-Introduction.pdf 

[60]Veale, M., & Zuiderveen Borgesius, F. J. (2021). Demystifying the draft EU Artificial  Intelligence Act. Computer Law Review International, 22(4), 97–112.  

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3896852

[61]Sowrirajan, T., Whalen, R., & Uzzi, B. (2024). High-Impact Innovations and Hidden  Gender Disparities in Inventor-Evaluator Networks. arXiv. https://arxiv.org/abs/2408.00905 [62]Gates Foundation. (n.d.). Gender Equality Initiatives. Retrieved from  https://www.gatesfoundation.org/our-work/programs/gender-equality 

[63]OECD. (2024). Harnessing the green and digital transitions for gender equality.  https://www.oecd.org/en/publications/2024/10/harnessing-the-green-and-digital-transitions for-gender-equality_c9a0091a.html 

[64]UN Women. (n.d.). CSW69 Side Event Schedule. https://www.unwomen.org/en/csw/csw69- 2025/side-events/schedule 

[65]World Bank. (n.d.). Girls’ Education Overview.  

https://www.worldbank.org/en/topic/girlseducation

[66]World Bank. (n.d.). Advancing the Participation of Women and Girls in STEM.  https://www.worldbank.org/en/topic/gender/publication/the-equality-equation-advancing-the participation-of-women-and-girls-in-stem 

[67]World Bank. (n.d.). Attracting More Young Women into STEM Fields.  https://documents1.worldbank.org/curated/en/257831642743451543/pdf/Attracting-More Young-Women-into-Stem-Fields.pdf

30 

[68]Roberts, S. T., & Hernandez, L. (2021). Behind the Screen: Content Moderation in the  Shadows of Social Media. Yale University Press. https://dokumen.pub/behind-the-screen content-moderation-in-the-shadows-of-social-media-9780300245318.html 

[69]ITU. (2024). Measuring digital development: Facts and figures 2024.  https://www.itu.int/en/ITU-D/Statistics и https://www.itu.int/en/ITU 

D/Statistics/Pages/facts/default.aspx 

[70]OECD. (2024). Towards a Triple Transition https://www.oecd.org/en/publications/towards-a triple-transition_094322ba-en.html 

[71]DWF. (2025). Breaking barriers: How venture capital can empower female entrepreneurs.  https://dwfgroup.com/en/news-and-insights/insights/2025/3/how-venture-capital-can empower-female-entrepreneurs 

[72]UNDP. (2025). Human Development Report 2025. https://hdr.undp.org/content/human development-report-2025 

[73]UNDP. (2025). Gender equality in digitalization. 

https://www.undp.org/sites/g/files/zskgke326/files/migration/kg/gender_equality_in_digitaliz ation.pdf 

[74]International Trade Centre https://shetrades.com 

[75]UNIDO. (2023). Gender, Digital Transformation and Artificial Intelligence https://www.unido.org/sites/default/files/unido-publications/2023-09/GDTAI_v_1.12- pages_low_resolution%20%281%29_0.pdf 

[76]ITU.(2025 ). WTISD-25: Gender equality in digital transformation 

https://www.itu.int/hub/2025/05/wtisd-25-gender-equality-in-digital-transformation/ [77]OECD STATISTICS. (2023). Why don’t more women code? 

[78]МИА. (2021). „СТЕМувај како девојка“ – Заеднички проект на Македонија2025 и  Фондацијата Ана и Владе Дивац. MIA, 2021  

[79]Centar.mk. (2023). Global Engineer Girls – Стартува програмата за поддршка на  девојките во инженерство. https://centar.mk/blog/2024/11/01/otvoren-konkurs-za-mladi devojki-i-zheni-od-tehnichkite-fakulteti-preku-initsijativata-global-engineer-girls-na-grupatsijata limak/ 

[80]Metamorphosis Foundation. (2023). Едукација за иновации.  

31 

[81]МИР Фондација. (2023). Femme digital: Пионерство во иднината на женското  претприемништво. https://mir.org.mk/femme-digital-pionerstvo-vo-idninata-na zhenskoto-pretpriemnishtvo/  

[82]Бизнис Вести.мк. (2024). Ден на младите: Со дигитална технологија до постигнување  на целите за одржлив развој. https://biznisvesti.mk/den-na-mladite-so-digitalna tehnologija-do-postignuvane-na-tselite-za-odrzhliv-razvoj/ 

[83]Swiss Entrepreneurship Program. (2023). A New Generation of Women Entrepreneurs  Emerging in North Macedonia. https://swissep.org/our-impact/success-stories/a-new generation-of-women-entrepreneurs-emerging-in-north-macedonia 

[84]MKD.mk. (2024). Зајакнување на зелената транзиција во Македонија: Иновации во обновливи  извори на енергија и складирање https://mkd.mk/makedonija/zajaknuvanje-na-zelenata-tranzicija vo-makedonija-inovacii-vo-obnovlivi-izvori-na-energija-i-skladiranje/  

[85]Nova Makedonija. (2024). Дигиталната трансформација е технолошки двигател на посилна  поврзаност и подобра иднина за Европа. https://mrt.com.mk/node/119559 

[86]Gray, M. L., & Suri, S. (2019). Ghost Work: How to Stop Silicon Valley from Building a New  Global Underclass. Houghton Mifflin Harcourt. http://sarkoups.free.fr/gray2019.pdf 

[87]Whittaker, M., Alvi, S., Crawford, K., Dobbe, R., Fried, G., Kaziunas, E., Mathur, V.,  Myers West, S., Raji, I. D., & Rankin, J. (2023). AI Now 2023 Report: Confronting tech  power. AI Now Institute. https://ainowinstitute.org/wp-content/uploads/2023/04/AI-Now 2023-Landscape-Report-FINAL.pdf 

[88]Crenshaw, K. (1989). Demarginalizing the intersection of race and sex: A Black feminist  critique of antidiscrimination doctrine, feminist theory and antiracist politics. University of  Chicago Legal Forum, 1989(1), 139–167.  

https://chicagounbound.uchicago.edu/cgi/viewcontent.cgi?article=1052&context=uclf

32