Родови предрасуди и етика при развој  на софтвер и AI системи 

Published by

on

Nbjil

Лина Панева,

Вовед 

Во современиот дигитален свет, вештачката интелегенција и софтверските системи играат  клучна улога во секојдневниот живот. Сепак овие технологии честопати ги рефлектираат  родовите предрасуди на нивните создавачи, како и пристрасностите присутни во  податоците на кои тие се тренираат. Целта на оваа семинарска работа е да се прикажат родовите пристрасности во AI системите, нивното влијание на корисниците и општеството, како и етичките принципи кои можат да помогнат во нивното намалување. Во трудот се  користат истражувања, студии на случај и примери од реалниот свет за да се понудат  препораки на развивачите и компаниите кои создаваат AI системи. 

Историја на родовата пристрасност во технологијата 

Развојот на технологијата и компјутерските науки има долгогодишна историја во која  родовите предрасуди играле значајна улога. Иако во раните фази жените биле клучни за  развојот на компјутерските технологии, со текот на времето нивната застапеност  значително опаднала, што резултирало со доминација на машки професионалци во  индустријата. Родовите стереотипи се префрлиле во технологијата и се манифестирале во  раните AI и софтверски системи. 

Историски преглед 

Во 1940-те и 1950-те години, жените биле од суштинско значење во развојот на  компјутерските науки, исполнувајќи улоги како „човечки компјутери“ кои извршувале  сложени математички пресметки за научни и воени цели. Познати личности како Ada  Lovelace и Grace Hopper го поставиле темелот за програмирањето и развојот на  компјутерските јазици (Nowak, 2024; UC Berkeley School of Information, 2021). 

Со професионализацијата на индустријата во 1960-те и 1970-те години, компјутерските  науки почнале да се перципираат како „машки“ домен, што довело до постепено 

намалување на бројот на жени во IT секторот (Nowak, 2024). Ова културно поместување  било поттикнато од стереотипи за машки и женски улоги, како и од недостаток на  менторство за жени во техничките дисциплини. 

Примери на родова пристрасност во тогашната технологија 

Родовата пристрасност не е карактеристика само на современите AI модели. Во 1960-те  години, IBM развила системи за препознавање на глас кои имале проблеми со женските  гласови, бидејќи алгоритмите биле тренирани главно на машки примери (McKeown, 2025).  Подобрувањето на овие системи подоцна откри дека историските трендови и  пристрасностите директно влијаеле на точноста и примената на технологијата.  

Историски трендови и развој на машки/женски улоги во IT индустријата Во 1980-те години, жените сочинувале околу 37% од дипломираните студенти по  компјутерски науки. Меѓутоа, до 2010 година, нивниот процент опаднал на помалку од 20% (UC Berkeley School of Information, 2021). Ова се припишува на комбинација од културни  стереотипи, ограничени можности за менторство и родови предрасуди во образовниот  систем, што имало долгорочно влијание врз индустријата и застапеноста на жените во IT  секторот. 

Влијание на историската родова пристрасност врз современите технологии 

Историските трендови и стереотипи кои ја исклучиле или ограничиле улогата на жените во  технологијата денес продолжуваат да влијаат на AI и софтверските системи. Некои  конкретни ефекти се: 

▪ Пристрасност во корисничките интерфејси и содржини (UI/UX):

Моделите на дизајн и интерфејси често се базираат на „стандардниот“ корисник, кој  историски бил машки професионалец или инженер. 

Примери: гласовни асистенти кои подобро препознаваат машки гласови, апликации  за здравје кои ги третираат машките параметри како основни, па женските резултати  се „нерелевантни“ (Pagliaccio, 2020). 

Резултат: корисниците од „нестандардни“ групи (жени, небинарни луѓе, етнички  малцинства) понекогаш добиваат помалку точни или прилагодени услуги. 

▪ Претставување на родови улоги во генеративни AI модели: 

Историски машките улоги се сметале за „лидерски“ или „примарни“, а женските за  „помошни“ или „секундарни“. 

Сегашните AI модели понекогаш ги реплицираат овие стереотипи (Pagliaccio, 2020): машки ликови се повеќе доминантни, женски се прикажуваат во традиционални  улоги. 

Овој ефект е резултат на податоци од интернет, книги и филмови кои историски  имаат машка доминација. 

▪ Долгорочно влијание врз пристапот и можностите: 

Поради спомнатата историја, жените и други подзастапени групи се помалку  видливи како „примарни корисници“ или „инженери/креатори“ во податоците што  се користат за обука на AI. 

Последица: алгоритмите и корисничките искуства се несвесно ориентирани кон  групата која била историски доминантна (Mehta, 2025; Milne, 2024).

Родови пристрасности во моделите на AI денес 

Како што беше спомнато, историските родови стереотипи и нееднаквости продолжуваат да  влијаат врз современите AI системи, обликувајќи ги податоците, дизајнот и одлуките на  моделите. Ова може да има значајни последици, бидејќи AI системите денес се користат  во важни сфери како што се вработување, образование и здравство. 

Еден од најпознатите примери за родова пристрасност во AI е случајот со Amazon, кој во  2018 година разви автоматизиран алгоритам за селекција на кандидати за работа (Dastin,  2018). Алгоритмот наследил пристрасности од историските податоци на компанијата, кои  претежно содржеле машки кандидати. Како резултат, системот почнал да фаворизира  мажи пред жените, без разлика на квалификациите на жените. Ова е пример за тоа како AI  системите можат да ги реплицираат и зајакнуваат постоечките родови нерамнотежи. 

Природата на родовата предрасуда во AI е комплексна и се одразува не само од самата  демографија на програмерите, туку и од начинот на кој се обработуваат податоците (Pagliaccio, 2020). Истражувањата покажуваат дека мнозинството развивачи и дизајнери на  AI системи се мажи. Во 2018 година само околу 10-15% од AI програмерите во големите  технолошки компании биле жени, а во 2019 година жените сочинуваа околу 26% од  работната сила во AI (Ho, Hartanto, Koh, & Majeed, 2025). Оваа нерамнотежа може да влијае  врз начинот на кој се моделираат одлуките и како се третираат различните кориснички  групи. 

Жените и мажите различно пристапуваат кон процесот на донесување одлуки. Жените, на  пример, имаат тенденција да собираат повеќе информации и да избегнуваат ризик во  одлуките, додека мажите почесто се ориентирани кон пробување нови пристапи и  преземање ризици. Кога алгоритмите се развиваат главно од машки тимови, тие несвесно  можат да ги реплицираат овие модели на однесување, создавајќи пристрасни резултати  кои ги фаворизираат машките корисници.

Покрај вработувањето, родовата предрасуда се јавува и во генеративните AI модели. На  пример, ChatGPT и други јазични модели понекогаш ја прикажуваат машката перспектива  како доминантна. Машките улоги се нагласуваат како стандардни во лидерството, додека  женските погрешно се интерпретираат или не се третираат со истиот приоритет (Ho,  Hartanto, Koh, & Majeed, 2025). Ова е директен резултат на учењето на моделите од  содржини создадени од луѓето, каде што традиционално машките особини се асоцирале  со лидерство и доминантност. Овие примери покажуваат дека AI системите можат суптилно  да ги зајакнат постоечките родови стереотипи, дури и кога тоа не е намерно. 

Во образованието, родовата предрасуда во AI може да влијае на предвидувањето на  успехот и напуштањето на студентите (Ho, Hartanto, Koh, & Majeed, 2025). Студиите  покажуваат дека алгоритмите за предвидување на напуштање на курсеви во STEM  програмите имаат тенденција да проценуваат повисок ризик за студентките отколку за  нивните машки колеги. Ова резултира со потенцијална дискриминација и ограничување на  можностите за женските студенти во изборот на напредни курсеви. 

Слични пристрасности се забележани и во здравството каде AI системите кои се користат  за дијагностицирање и третман на различни заболувања се често обучени на податоци кои  претежно се однесуваат на мажи (Mehta, 2025). Поради тоа, жените можат да добијат  погрешни дијагнози или третмани кои не се оптимални за нив. Ова покажува дека  пристрасностите во податоците и моделите можат директно да влијаат врз квалитетот на  здравствената грижа за жените. 

Заклучно, родовите предрасуди во AI се присутни во различни области, од вработување и  образование до здравство, и тие можат да ја ограничат еднаквоста и можностите за жените.

Интерсекционалност во пристрасностите на AI 

Родовата пристрасност во вештачката интелигенција не функционира изолирано. Таа често  се комбинира со расни, етнички, социјални и возрастни пристрасности, создавајќи  уникатни и комплицирани облици на дискриминација. Ова се нарекува  интерсекционалност — концепт кој објаснува како повеќе аспекти на личната  идентификација (како пол, раса, класа, сексуална ориентација, инвалидитет) се  преплетуваат и влијаат на искуствата со дискриминација или привилегија. 

Истражувањата покажуваат дека AI системите за селекција на кандидати за работа често  фаворизираат мажи со имиња кои се поврзуваат со бела етничка припадност, додека  жените со имиња кои се поврзуваат со црна етничка припадност се значително  дискриминирани (Milne, 2024). На пример, во истражувањето на Универзитетот во  Вашингтон, AI системите фаворизирале имиња поврзани со бела етничка припадност 85%  од времето, додека имиња поврзани со црна етничка припадност само 9% од времето.  Дополнително, женски имиња биле фаворизирани само 11% од времето, додека машки  имиња 52% од времето. Овие резултати укажуваат дека пристрасностите не произлегуваат  само од родови и расни фактори, туку од нивната сложена меѓусебна поврзаност. 

Примената на интерсекционален пристап во развојот на AI системи овозможува повеќе  важни придобивки. Прво, тој помага во идентификување на скриени пристрасности,  овозможувајќи да се откријат и разберат комплексните начини на кои различни форми на  дискриминација се преплетуваат и влијаат на различни групи корисници. Второ,  интерсекционалниот пристап придонесува за развој на поинклузивни технологии, бидејќи  вклучувањето на различни перспективи и искуства во процесот на дизајн и развој на AI  системи води кон создавање на технологии кои се праведни и прилагодени на сите  корисници. Трето, овој пристап ја зголемува довербата во технологијата, бидејќи  корисниците можат да видат дека нивните уникатни потреби и искуства се земени во предвид, што резултира со поголема доверба во резултатите и одлуките на AI системите.

Етички принципи во развојот на AI и софтвер 

Според Danilevskyi, Perez-Tellez & Buscaldi (2025) и Mehta (2025), во развојот на вештачката  интелигенција и софтверските системи, етичките принципи претставуваат основа за  обезбедување на праведни, одговорни и безбедни технологии. Тие имаат за цел да го  намалат ризикот од пристрасност, дискриминација и повреда на корисниците и  општеството. Примената на овие принципи не само што ја подобрува довербата на  корисниците, туку и ги зголемува квалитетот и одржливоста на самите системи. 

Транспарентност и објаснивост 

AI моделите треба да бидат транспарентни, а нивните одлуки разбирливи за корисниците.  Луѓето кои се засегнати од системот треба да можат да разберат зошто системот донел  одредена одлука. Објаснивоста помага во откривање на потенцијални грешки,  пристрасности или несоодветни резултати, а истовремено ја поттикнува довербата на  корисниците. 

Праведност и непристрасност 

AI треба да се однесува праведно кон сите корисници, избегнувајќи пристрасност која може  да доведе до дискриминација. Ова вклучува свесни и несвесни предрасуди кои можат да  бидат присутни во податоците за обука. Праведноста во AI се постигнува преку постојан преглед на податоците, тестирање на моделите и примената на алгоритамски техники за  корекција на пристрасности. 

Приватност и заштита на податоци 

AI системите мора да ги почитуваат приватноста и личните податоци на корисниците. Тоа  вклучува заштита од неовластен пристап, обезбедување на контрола на корисниците врз  нивните податоци и почитување на регулативите или локалните закони за заштита на  податоците. Етичкиот AI не треба да се користи за манипулација или злоупотреба на  чувствителни информации.

Одговорност и одржливост 

Развојот на AI системи треба да вклучува јасни одговорности за создавачите и компаниите.  Кога системите донесуваат одлуки со значајно влијание врз корисниците, развивачите мора  да можат да објаснат и да одговораат за резултатите. Исто така, етичкиот развој треба да  биде одржлив, со континуирано следење и ажурирање на системите според новите научни  сознанија и социјални стандарди. 

Техники и практики за етички развој 

За да се обезбеди сигурност дека алгоритмите се праведни и непристрасни, развивачите  користат различни техники: 

∙ Ревизија на податоците – Преглед и анализа на податоците за обука за да се откријат  пристрасности и нерамнотежи во родот, расата или други социјални карактеристики. ∙ Тестирање за родова и социјална пристрасност – Применување на симулирани  случаи и сценарија за да се провери дали моделот дава пристрасни или  дискриминативни резултати. 

∙ Инклузивен развој – Вклучување на тимови со разновидни полови, културни и  професионални позадини, со цел да се минимизираат пристрасностите во фазата на  дизајн и програмирање. 

∙ Континуирано следење и ажурирање – Следење на перформансите на системот по  објавување и прилагодување според новите податоци и кориснички искуства. 

Некои компании веќе го применуваат овој пристап: 

Microsoft има сопствени правила и процедури за етички развој на AI, со проверка на  пристрасности и тестирање на моделите пред да се користат. 

IBM нуди „AI Fairness 360“, отворен софтвер кој помага да се откријат и намалат  пристрасностите во AI системите.

10 

Google врши интерни проверки на своите модели за машинско учење и има  процедури за одговорност кои секогаш мора да се следат при развојот на нови  алгоритми. 

Додатни аспекти за разгледување 

∙ Регулативи и стандарди – Следење на национални и меѓународни закони, како и  стандарди за етички AI, помагаат да се обезбеди одговорен развој и минимизирање  на дискриминацијата. 

∙ Образование и едукација на развивачите – Обука на тимовите за етички принципи,  родови пристрасности и одговорен развој придонесува за создавање на свесни и  инклузивни технологии. 

Последици од игнорирање на родовата пристрасност 

Игнорирањето или недоволната контрола на родовата пристрасност во AI системите може  да има сериозни последици, особено врз довербата на корисниците и општествената  праведност. Кога системите покажуваат дискриминација резултира со намалена доверба  поради нееднакво третирање на корисниците. 

Дополнително, игнорирањето на родовата пристрасност може да доведе до дополнителни  општествени нееднаквости и финансиски ризици за компаниите, бидејќи таквите практики  можат да предизвикаат правни последици, лоша репутација и намален пазарен удел. Затоа,  интегрирањето на етички и инклузивни практики во развојот на AI не е само прашање на  праведност, туку и на одржливост и доверба во технологијата и компаниите.

11 

Предизвици во справувањето со родовата пристрасност 

И покрај напорите за транспарентен и етички развој на AI системите, целосно елиминирање  на родовата пристрасност е голем предизвик. Филтрирањето или модификацијата на  податоците може да помогне во намалување на пристрасностите, но истовремено носи  ризик од создавање на „лажна реалност“. Податоците кои ги користиме за обука на  моделите ги рефлектираат општествените услови и историските нееднаквости – ако тие  постојат кај луѓето, нивното целосно елиминирање од податоците може да доведе до  нереалистични претстави или да ги игнорира вистинските проблеми. Затоа, развојот на AI  треба да балансира помеѓу намалување на пристрасностите и одржување на реалноста, со  критичка анализа на податоците и постојано прилагодување на алгоритмите. 

Заклучок 

Етичкиот и инклузивен развој на AI системите е клучен за создавање технологии кои се  праведни, одговорни и доверливи. Внимателното управување со податоците, критичката  анализа и интеграцијата на различни перспективи овозможуваат модели кои ги намалуваат  пристрасностите и придонесуваат за позитивни општествени промени. AI има потенцијал  да стане алатка за еднаквост и подобрување на квалитетот на технологијата, доколку се  развива со внимание и одговорност. 

Извори 

UC Berkeley School of Information. (2021, July 14). Changing the Curve: Women in Computing.

12 

https://ischoolonline.berkeley.edu/blog/women-computing-computer-science

Nowak, M. K. (2024, May 22). Where are the Women? A Detailed History of Women in  Computer Science and How it Impacts the Modern Day Industry. Chicago-Kent | Journal  of Intellectual Property. 

https://studentorgs.kentlaw.iit.edu/ckjip/where-are-the-women-a-detailed-history-of women-in-computer-science-and-how-it-impacts-the-modern-day-industry McKeown, J. (2025, June 3). The IBM Shoebox — An Early Speech Recognition System. Digital  Shroud. 

https://medium.com/digitalshroud/the-ibm-shoebox-an-early-speech-recognition-system 17973025ca31 

Mehta, M. (2025, August 19). AI bias: 14 Real AI Bias Examples & Mitigation Guide. Crescendo AI.  

https://www.crescendo.ai/blog/ai-bias-examples-mitigation-guide

Milne, S. (2024, October 31). AI tools show biases in ranking job applicants’ names according to  perceived race and gender. UW News.  

https://www.washington.edu/news/2024/10/31/ai-bias-resume-screening-race-gender

Pagliaccio, S. (2020, November 9). Understanding Gender and Racial Bias in AI, Part 1.  UXMatters.  

https://www.uxmatters.com/mt/archives/2020/11/understanding-gender-and-racial bias-in-ai.php 

Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against  women. Reuters. 

https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool that-showed-bias-against-women-idUSKCN1MK0AG

13 

Ho, J. Q. H., Hartanto, A., Koh, A., & Majeed, N. M. (2025). Gender biases within artificial  intelligence and ChatGPT: Evidence, sources of biases and solutions. Computers in  Human Behavior: Artificial Humans, 1, 100029. 

https://www.sciencedirect.com/science/article/pii/S2949882125000295

Danilevskyi, M., Perez-Tellez, F., & Buscaldi, D. (2025, April 15). Implementing ethical principles  in AI: an initial discussion. AI And Ethics.  

https://doi.org/10.1007/s43681-025-00710-y