Полот и вештачка интелигенција: пристрасности и родова еднаквост во технологијата

Published by

on

хѕ5ех5ѕ

Марија Вржовска

Вовед
Вештачката интелигенција е клучна технологија во современото општество која го обликува начинот на кој ние живееме, работиме и комуницираме. Нејзиниот брз равој донесе сериозни прашања поврзани со етичките аспекти, особено оние што се однесуваат на родовата еднаквост и присутноста на пристрасности во алгоритмите. Имаме родово неутрална технологија која е сè уште голем предизвик, бидејќи многу системи за машинско учење се обучени и сè уште се обучуваат врз податоци во кои се одразуваат нерамноправноста и дискриминацијата која што постои во општеството.

Вештачката интелигенција е неизоставен дел од нашето секојдневие во последните 20 години. Примената станува се поширока – од препораки на содржини на интернет, до автоматизирани процеси во образованието, здравството и финансиите. Но, како и секоја технологија, вештачката интелегенција не е ослободена од влијанијата на општествените и културните предрасуди во кои се развива. Начинот на кој родовите односи и стереотипите се рефлектираат во технолошките системи е еден од најважните аспекти на оваа врска. Многу истражувања покажаа дека системите за вештачка интелигенција можат да репродуцираат, па дури и да ги засилат моменталните општествени нееднаквости. Алгоритмите во машинското учење не се неутрални. Тие “учат” од податоци полни со историски предрасуди, родови нерамноправности и дискриминаторски модели. Еден пример, некои алгоритми за вработување автоматски ги намалуваат шансите на жените кандидатки, бидејќи овие алгоритми се обучени врз податоци кои историски фаворизирале мажи на техничките позиции.

Теоретски поими: Род, пол и технологија
Родовата еднаквост подразбира еднакви можности, пристап и третман на сите лица, без оглед на нивниот родов идентитет. Ова значи да се има еднаков пристап до образовнаие, ресурси, вработување и учество во процесите на дизајн и развој на нови технологии. Според Европската комисија, родовата еднаквост не е само прашање на правичност, туку и предуслов за одржливи иновации.

Родовата нерамноправност и исклученоста на жените во историјата на технологијата е доста нагласена. Тоа може да се види и во секојдневните содржини кои ги гледаме на интернетот. Во индустриската ера, жените биле често ограничени на нископлатени позиции или “рутински” задачи. Од друга страна, машките инженери ги предводеле процесите на иновација. Со појавата на компјутерските науки, жените добиле значајна улога во почетните фази. Пример за ова е Ада Лавлејс, која се смета за првиот компјутерски програмер. Но, со брзиот развој на ИТ индустријата во 1980-тите, се случи постепено исклучување на жените од ваквите професии.
Ова исклучување на жените има долгорочни последици. Недоволната застапеност на жените во технолошкиот развој доведува до ограничена разновидност на перспективи и поголема веројатност за содзавање технологии што не ги земаат во предвид различните родови искуства.

Поради ова, односот меѓу родот и технологијата не е неутрален. Ваквата состојба во ИТ светот рефлектира општествени стуктури на моќ и нееднаквост. Значи, не само што жените биле исклучени од технолошкото создавање низ историјата, туку технологиите честопати биле користени за одржување на постојаните родови хиерархии.
Теории за технологија и род
Има две влијателни парадигми кои се користат за објаснување на односот помеѓу родот и технологијата: технолошки детерминизам и социјална конструкција и технологијата (SCOT). Технолошкиот детерминизам смета дека технологијата е главна движечка сила што го обликува општеството. Според овој пристап, иновациите се автономни и независни од општествените фактори. Но, овај поглед многу често ги игнорира улогите на луѓето и институциите во процесот на технолошкиот развој. Социјланата конструкција на технологијата ја нагласува идејата дека технологијата е производ на општесвените односи, вредности и моќни структури. Овој пристап истакнува дека родот е клучен фактор во начинот на кој технологиите се замислуваат, дизајнираат и користат.

Но, кога зборуваме за вештачката интелигенција, ова значи дека системите за машинско учење не се само технички артефакти, туку и одраз на културни претпоставки, организациски практики и општествени вредности. Доколку во процесот на развој доминираат одредени групи, тогаш технологијата која што се создава ќе ја одрази нивната перспективата од таа одредена група. И вака, често се занемеруваат искуствата на жените и другите маргинализирани групи.
Родовата перспектива во дигиталното општество
Современото дигитално општество бара ново разбирање на родовите улоги и динамики. За време на пандемијата на Ковид 19 се зголеми употребата на дигиталните платформи, но за тоа време се нагласи и дигиталната нееднаквост. Според УНЕСКО во 2022, жените во просек имаа 15% помал пристап до интернет и дигитални вештини од мажите. Ова директно влијае на квалитетот на технологијата бидејќи родовата перспектива не е само етичкo прашање. Кога станува збор за вештачка интелигенција, алгоритмите за препознавање на лица покажуваат значително повисока стапка на грешки кја жени со потемна кожа што укажува на недостаток на разновидност во податоците со кои таквите модели се обучуваат.

Алгоритми и податоци како основа на вештачката интелигенција
Како основа на секој ВИ систем стојат алгоритмите, односно математичките процедури кои учат од податоци за да донесат одлуки или да напраат некакви предвидувања. Алгоритмите на машинско учење и длабоко учење се најраспространети форми на ВИ денес. Тие овозможуваат моделите да ги анализираат шаблоните од огромни количини податоци и да предвидуваат идни резултати. Податоците врз кои се обучуваат моделите често го одразуваат постоечкото општествено нерамноправие. Податоците ја носат историјата на општествените односи, вклучувајќи ги и родовите стереотипи. Ова е суштински проблем, бидејќи пристрасните податоци водат кон пристрастни алгоритми, кои можат несвесно да ја репродуцираат дискрминиацијата во дигиталниот простор.

Податоците се клучни за создавање родово чуствителна вештачка интелигенција. Недоволната застапеност на жените во технолошките податоци и истражувања може да резултира во создавање системи кои потешко ги препознаваат женските лица, гласови или искуства. Вака настануваат алгоритми што ја преставуваат само една група, обично мажи од западните земји, што води до системска нееднаквост.

Поради ова, современите истражувања се повеќе се фокусираат на родово балансиран податочни множества, етички стандарди во тренирањето на модели и учество на жени во технолошкиот развој. Современите трендови покажуваат премин кон доверлива и етичка вештачка интелигенција. Целта е развој на системи кои не само што функционираат ефикасно, туку и транспарентно и правично. Европската Унија преку својата иницијатива „Ethics Guidelines for Trustworthy AI“ го постави концептот на доверлива ВИ, која треба да биде праведна, инклузивна и да ги почитува човековите права.

Родова пристрасност во АИ: механизми и примери
Родовата пристрасност се јавува кога системите за машинско учење даваат резултати кои фаворизираат една група во однос на друга, обично засегнувајќи ги жените и другите маргинализирани групи. Ваквата пристрасност може да се појави во различни нивоа, како на пример во податоците, во самиот дизајн на слгоритмите или во имплементациајта на системите.

Алгоритмите, односно моделите, учат од историски податоци. Ако овие податоци ја одразуваат претходната дискриминација, системот ќе ја репродуцира. Дизајнерите и развивачите исто така можат да носат несвесни и свесни предрасуди. Ако во мултидисциплинарните тимови доминираат мажи, етичките и социјалните аспекти од женска перспектива многу често се игнорираат, и обратниот случај важи. Дури и ако алгоритмот е коректно дизајниран, пристасноста може да се појави во примена. Моделите често знаат да прават грешки и еден таков пример е кога моделите се користат во контексти за кои не биле обучени, или кога организациските политики ги поттикнуваат структурните нееднаквости.

Примери на родова пристрасност во АИ

Проектот Gender Shades на Buolamwini и Gebru (2018) покажа дека комерцијалните алгоритми за препознавање на лица имаат повисока стапка на грешки кај жени и луѓе со потемна кожа. На пример, точноста за мажи со светла кожа е над 99%, додека за жени со темна кожа точноста паѓа под 65%. Компаниите кои користат АИ за скрининг на кандидати често репродуцираат родови и расни предрасуди. Amazon ја напушти својата АИ алатка за вработување бидејќи фаворизирала кандидати мажи за технички улоги (Dastin, 2018). Програмите за предвидување на ризик од болести понекогаш ја потценуваат здравствената состојба на жените, бидејќи медицинските податоци што ги користат се повеќе засновани на мажите како „стандард“. Алгоритмите на социјалните мрежи можат да им прикажуваат одредени огласи на жени или мажи според стереотипи, наместо врз основа на интереси или потреби, што дополнително ја репродуцира родовата нерамноправност. Истражувањата од УНЕСКО покажале дека само 18% од авторите на водечките конференции за вештачка интелигенција се жени, а повеќе од 80% од професорите по вештачка интелигенција се мажи.

Истражувањата покажуваат дека алгоритмите не ја создаваат пристрасноста од нула, туку ја репродуцираат и засилуваат веќе постоечката општествена нееднаквост. Затоа е критично да се идентификуваат изворите на пристрасност и да се применат механизми за нивно ублажување.

Корекција и превенција на пристрасноста

Прво, за да се намали родовата пристрасност во АИ, неопходно е идентификување на проблемот. Некои од најкористените механизми се анализирање на податоците, тестирањето на моделите, алгоритамската корекција и други. Проверката на податоците за родови, расни и социјални дисбаланси пред нивно користење е клучен процес. Редовни проверки на алгоритмите, особено по нивното лансирање, се од посебно значење за да се утврди дали новите податоци или промени во корисничката база предизвикуваат пристрасност. Треба да се практикува и континуиран мониторинг на клучни индикатори за праведност и родова еднаквост.

Најбитна улога играат транспарентноста и одговорноста. Транспарентноста значи дека развивачите и организациите ја прават јасна логиката на моделите, податоците што се користат и критериумите за одлуки. Достапни ни се информации за тоа од каде се црпат податоците, што тие содржат, како се обработуваат, кои луѓе работаат врз податоците и тренирање на моделите итн. Ова овозможува потенцијал за независни ревизии и проверка од експерти, подобрување на довербата на корсниците и намалување на ризикот од дискриминација и злоупотреба.

Од друга страна, одговорноста ќе носи последици за оние организации кои го развивале моделот. Тоа значи дека мора да обезбедат јасни процедури за решавање на инциденти со пристрасност, правила за санкции доколку АИ системите предизвикуваат дискриминација, механизми за влучување на засегнатите страни при корекција на проблемите. Примената на транспарентност и одговорност не е само етичко барање, туку и практичен метод за превенција на пристрасниста во сложените АИ системи овозможувајчи праведни родово и социјално инклузивни технологии.

Политики и регулативи
Меѓународните организации и институции играат клучна улога во воспоставувањето на правила за етичка и родово еднаква примена на вештачката интелигенција. Европската Унија преку документот Ethics Guidelines for Trustworthy AI ги дефинира принципите на доверлива ВИ, нагласувајќи праведност, транспарентност, одговорнст и инклузивност. Овие принципи имаат за цел елиминирање на родова и социјална пристрасност во податоците и алгоритмите, со што се обезбедува фер и етичка примена на технологијата. Во слична насока, УНЕСКО во Recommendation on the Ethics of AI ја истакнува важноста од интеграција на етички и родови стандарди во развојот на АИ системите, со посебен фокус на заштита на маргинализираните групи од дискриминација. Дополнително, меѓународни иницијативи како AI for Good, Women in AI и истражувањето Gender Shades го промовираат учеството на жените во развојот на технологии и ја поттикнуваат критичката евалуација на алгоритмите од родова перспектива.
Во Македонија, националната рамка за етичка примена на АИ е сè уште во развој, но постојат релевантни документи кои ја уредуваат дигиталната трансформација и родовата еднаквост. Според истражувањето на Women in Tech Macedonia, жените сочинуваат околу 36% од работната сила во ИТ секторот што е повисоко од просекот во Европа кој е 22%. Македонија постигнала напредок во политиките за родова еднаквост, особено во јавната администрација и образвоанието. Сепак, предизвиците остануваат во ИТ секторот, каде што жените се сè уште недоволно застапени, особено на високи позиции.
Стратегијата за дигитална трансформација на Република Северна Македонија (2020–2025) поддржува развој на иновативни технологии, при што се потенцира потребата од инклузивен развој кој вклучува родова еднаквост. Националните стандарди за родова еднаквост, кои се промовираат преку Министерството за труд и социјална политика, исто така обезбедуваат поддршка за интеграција на родовата перспектива во образованието и ИТ секторот. Сепак, во контекст на АИ системите, интеграцијата на етички и родово-сензитивни практики сè уште е ограничена. Потребни се понатамошни напори за имплементација на родово чуствителни политики во компаниите и за поддршка на жените во ИТ секторот.

РЕСИ методологија: пристап за родова еднаквост и социјална инклузија во технологијата
РЕСИ (Gender Equality and Social Inclusion – GESI/RESI) претставува систематски пристап кој има за цел да обезбеди родова еднаквост и социјална инклузија во развојот на технологијата, вклучувајќи ги и системите за вештачка интелигенција. Оваа методологија признава дека технологијата не е неутрална – таа може да има различито влијание врз луѓе од различни полови, возрасти, етнички потекла и способности.

РЕСИ прави идентификација на ризиците од пристрасност. Првата фаза подразбира проверка на податоците и алгоритмите за потенцијални родови и социјални пристрасности. Детално се проверува дали податоците се родово, расно и социјално балансирани за да се спречат дискриминации кон жените и маргинализираните групи. РЕСИ ја нагласува и потребата за инклузија на различни гледишта на луѓе од сите сфери. Со ова се овозможува пообјективна анализа на ризиците. Откако ќе се идентификуваат недостатоците, се предлагаат мерки за корекција, како што се балансирање на податоците, модификација на алгоритмите за да се минимизира пристрастноста итн. РЕСИ вклучува постојан мониторинг на АИ системите по нивната имплементација. Со ова се гарантира континуирана проверка и конзистентност во генерирањето на АИ одговорите.
Во суштина, РЕСИ е рамка за етички, инклузивен и одговорен развој на технологии, која овозможува системите на АИ да бидат фер и праведни за сите корисници, со посебен фокус на родовата еднаквост и маргинализирианите групи. На пример, при развој на модели за препознавање лица, се проверува дали податоците се родово и расно балансирани, со цел да се спречат дискриминации. Следниот чекор е вклучување на различни групи корисници и експерти во процесот на дизајн и развој на системите. Со ова ќе се вметнат различни перспективи и искуства кои се од клучно значење за за одржување на балансот во податоците.
Континуираното тестирање и евалуација се клучни за РЕСИ методологијата. Моделите се проверуваат со различни групи корисници за да се идентификуваат и корегираат потенцијалните пристрасности пред нивната примена во реалниот свет. Овој процес не завршува со брзо пуштање во употреба на системите, туку вклучува постојано мониторирање и ревизија, бидејќи општествените контексти и податоците се менуваат со текот на времето. На овој начин, РЕСИ овозможува динамичко прилагодување на системите за да се обезбеди родова еднаквост и социјална инклузија во секоја фаза од нивната примена.
Вклучувањето на мултидисциплинарни тимови и засегнатите страни е особено важно за создавање праведни и транспарентни АИ системи. Техничките експерти обезбедуваат функционалност и точност, социјалните научници ја идентификуваат социјалната динамика и етичките ризици, а корисниците од различни родови и социјални групи ја проверуваат практичната применливост и праведноста на системите. Само преку интеграција на овие перспективи РЕСИ овозможува развој на технологии кои се не само ефикасни, туку и етички, транспарентни и инклузивни.

Едукација и градење капацитети
Едукацијата и градењето на капацитети претставуваат основен столб во напорите за намалување на родовата пристрасност во вештачката интелигенција и технологијата генерално. Едукацијата не се однесува само на техничките аспекти на АИ, туку и на интеграцијата на етички и родово-сензитивни практики во процесот на развој. За професионалците во технолошкиот сектор, ова значи учење за механизмите на пристрасност, методите за нивна идентификација и корекција, како и за социјалните и етичките импликации на нивните технологии.
Во многу земји, вклучително и во Европа, се развиваат програми и иницијативи кои ја поттикнуваат родовата еднаквост во образованието и професионалниот развој. Преку специјализирани обуки, работилници и менторски програми, жените и маргинализираните групи се охрабруваат да учествуваат во развојот на АИ системи, а нивниот глас се интегрира во процесот на донесување одлуки. Таквите иницијативи не само што го зголемуваат присуството на жените во технологијата, туку и ја подобруваат праведноста на самите АИ системи, бидејќи различните перспективи помагаат да се откријат и избегнат пристрасностите уште во раната фаза на дизајн.
Градењето на капацитети исто така подразбира развој на мултидисциплинарни компетенции кај тимовите за развој на АИ. Интегрирањето на знаења од социјалните науки, психологијата и етиката во работата на инженерите и програмерите овозможува подлабоко разбирање на општествените контексти во кои технологијата ќе се примени. Во Македонија, ова може да се реализира преку академски програми на факултетите како ФИНКИ, специјализирани обуки за развој на АИ и партнерства со меѓународни иницијативи кои промовираат родова еднаквост и инклузија.
И најбитно да се напомени е дека едукацијата и градењето на капацитети не се ограничуваат само на идните професионалци. Тие исто така вклучуваат јавни кампањи за подигање на свеста кај широката публика за родовата пристрасност во технологијата и начините на кои секој може да придонесе за создавање праведни системи. Со комбинирање на образовни активности, професионални обуки и јавна свест, се создава пристап кој ја зголемува способноста на општеството да развива и користи АИ модели кои се фер, транспарентни и инклузивни.

Предизвици и идни перспективи
Справувањето со родовата пристрасност во вештачката интелигенција се соочува со комплексно множество на предизвици, кои произлегуваат од технички, социјални и институционални фактори. Еден од најзначајните предизвици е квалитетот и репрезентативноста на податоците. Податоците кои се користат за тренирање на АИ системите често рефлектираат историски нееднаквости, стереотипи или дискриминација. На пример, податоците за вработување или кредитна оценка можат да покажуваат тенденции кои фаворизираат одредени родови или социјални групи. Дури и најсофистицираните алгоритми не можат да ја надминат пристрасноста која е вграденa во самите податоци, што резултира со автоматизирана репликација на постојните општествени нееднаквости.
Дополнителен предизвик претставува сложеноста и недостапноста на АИ моделите за независна анализа. Голем број од современите алгоритми, особено длабоките невронски мрежи и машинското учење од типот „black box“, ја отежнуваат идентификацијата на изворите на пристрасност и влијанието врз одредени групи корисници. Без транспарентни и проверливи механизми за ревизија, етичкото оценување на овие системи станува тешко, што може да доведе до несвесна дискриминација во области како што се здравство, образование, правосудство и финансиски услуги.
Недоволната инклузивност во развојните тимови е уште еден значаен проблем. Истражувањата покажуваат дека технолошките тимови се често хомогени, составени од претежно машки инженери и лица со слична културна или социјална позадина. Ова ограничување на гледишта ја зголемува можноста од несвесни пристрасности, бидејќи одлуките се базираат на ограничено искуство и перцепција. Истовремено, недоволната застапеност на експерти од социјалните науки, етиката и родовата студија во развојот на АИ системите го отежнуваат интегрирањето на социјални и етички аспекти.
Технолошките и институционалните ограничувања се надополнуваат со недоволна законска рамка и регулативи, особено во земји како што е Македонија. Додека меѓународните стандарди и препораки, како Ethics Guidelines for Trustworthy AI на Европската Унија и UNESCO Recommendations on the Ethics of AI, обезбедуваат насоки за етичка примена на технологијата, во пракса често остануваат на волонтерска или неповрзана основа. Ова создава празнина помеѓу глобалните стандарди и локалната примена, што го отежнува практичниот напредок кон родово инклузивни АИ системи.
Сепак, постојат значајни идни перспективи и можности за справување со овие предизвици. Техничките иновации, како алгоритми за фер распределба на резултати и алатки за откривање пристрасност, создаваат основа за подобрување на праведноста на системите. Истовремено, развојот на етички рамки и стандардизирани процедури за ревизија и мониторинг на алгоритмите овозможува нивна транспарентна и одговорна примена.
Растечката меѓународна свест за родовата пристрасност поттикнува и законски и институционални промени. Во иднина, се очекува зголемување на учеството на жените и маргинализираните групи во развојот на АИ, што ќе создаде системи кои се инклузивни од самиот почеток. Мултидисциплинарните истражувања кои ги интегрираат техничките, социјалните и етичките перспективи се од клучно значење за развој на алгоритми кои ја намалуваат родовата пристрасност и ги унапредуваат општествените придобивки од технологијата.
Во Македонија, идните перспективи вклучуваат можност за прилагодување на глобалните и европските практики преку развој на едукативни програми, обуки и политики кои ја промовираат родовата еднаквост во ИТ секторот и во јавниот сектор.

Заклучок
Комплексниот однос меѓу полот и родот, и историјата на негрижа на овој однос во развојот на технологијата и вештачката интелгиенција е причината поради која денес имаме проблеми поврзани со темата на оваа семинарска. Пристрасноста која се содржи во историјата, односно самите податоци од кои учи некој модел е нешто што тешко ќе се искорени. И иако ова изгледа страшно, сепак се прават големи напори од големи организации кои сакаат да го решат овој дисбаланс.
Моето истражување покажа дека вештачката интелигенција, иако претставува моќен алат за подобрување на општествените процеси, сепак носи ризици од реплицирање и засилување на постојните нееднаквости, особено кога се користат историски или нецелосни податоци и кога развојните тимови не се родово и социјално различни.
Клучниот наод од работата е дека родовата пристрасност во АИ не е само технички проблем, туку резултат на сложени социјални, културни и институционални фактори. Проблемот не може да се реши единствено со алгоритми или податоци, туку бара интегриран пристап кој ги вклучува етичките принципи, едукацијата, мултидисциплинарните тимови, законската рамка и инклузивниот дизајн на технологијата. Примената на РЕСИ методологијата се покажа како ефикасен начин за идентификување, корекција и превенција на родовите пристрастности во сите фази на развојот на АИ системите, со цел создавање на технологии кои се фер, транспарентни и инклузивни.
Дополнително, прегледот на националните и меѓународните политики покажа дека, иако постојат значајни стандарди и препораки за етичка примена на АИ, нивната имплементација во пракса, особено во локалниот контекст на Македонија, сè уште е ограничена. Затоа е важно да се развијат едукативни програми, обуки и регулативи кои ќе ги поттикнат институциите и компаниите да ги интегрираат принципите на родова еднаквост и социјална инклузија во развојот на технологијата.
Иднината на родово инклузивната технологија зависи од способноста на општеството да создаде услови за активно учество на жените и маргинализираните групи во развојот на АИ, да обезбеди транспарентност и одговорност на алгоритмите и да ја интегрира родовата перспектива во сите фази на технолошкиот развој. Со холистички пристап кој ја комбинира етиката, едукацијата, политиките и техничките иновации, АИ може да се претвори во алатка за родова еднаквост, наместо да ги засилува моменталните нееднаквости.
Користена литература
● UN Women. (2023). Artificial intelligence and gender equality. https://www.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender-equality
● OECD. (2025, April). Ensuring equitable AI: The role of education. https://www.oecd.org/en/blogs/2025/04/ensuring-equitable-ai-the-role-of-education.html
● UNESCO. (2023). Generative AI: UNESCO study reveals alarming evidence of regressive gender stereotypes. https://www.unesco.org/en/articles/generative-ai-unesco-study-reveals-alarming-evidence-regressive-gender-stereotypes
● UN Women. (2025, February). How AI reinforces gender bias and what we can do about it. https://www.unwomen.org/en/news-stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do-about-it
● ScienceDirect. (2025). Article on AI ethics and gender bias. https://www.sciencedirect.com/science/article/pii/S2949882125000295
● BC Medical Ethics. (2025). AI ethics and bias in healthcare. https://bmcmedethics.biomedcentral.com/articles/10.1186/s12910-025-01243-z
● ITU AI for Good. (2024). How can we solve the problems of gender bias in AI? Experts weigh in. https://aiforgood.itu.int/how-can-we-solve-the-problems-of-gender-bias-in-ai-experts-weigh-in/
● ITU AI for Good. (2024). Gender bias is a threat to future artificial intelligence (AI) applications: Opinion. https://aiforgood.itu.int/gender-bias-is-a-threat-to-future-artificial-intelligence-ai-applications-opinion/
● AI Now Institute. (n.d.). AI Now – Artificial Intelligence and Society in North Macedonia. Retrieved from https://ainow.mk
● Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional accuracy disparities in commercial gender classification. https://proceedings.mlr.press/v81/buolamwini18a.html
● Metamorphosis Foundation. (2023). Analysis: In the IT sector in North Macedonia, the gap between men and women almost non-existent. https://metamorphosis.org.mk/en/blog/analysis-in-the-it-sector-in-north-macedonia-the-gap-between-men-and-women-almost-non-existent/