Алгоритамска пристрасност: Како вештачката  интелигенција може да ја засили родовата нееднаквост 

Published by

on

Тамара Стојановска  

Вовед 

Вештачката интелигенција (AI) стана неизбежен дел од нашиот секојдневен живот. Се  повеќе компании и големи институции ја користат за да анализираат големо количество  податоци, бидејќи на тој начин е потребно помалку време отколку истото да го направи лице задолжено за таа позиција. Со тоа тие заштедуваат време и донесуваат побрзи одлуки.  Меѓутоа, и луѓето ја користат за секојдневни консултации и истражувања, иако можеби и не  се свесни за тоа. Примери за тоа се користењето на Siri, Alexa и Google Assistant. Овие  виртуелни асистенти го олеснуваат животот без потреба од сложени манипулации со  технологијата. Но, иако AI има многу придобивки, важно е да се спомене дека не е сè секогаш така лесно. Понекогаш, системите за вештачка интелигенција може да имаат и  некои непријатни ефекти. Еден од нив е алгоритамската пристрасност – што значи дека AI  може да ја засили веќе постоечката родова нееднаквост. Алгоритамската пристрасност не е  само теоретски проблем, туку има реални и сериозни последици. AI системите засновани  на нецелосни или пристрасни податоци можат да доведат до неточни резултати кои ги  нарушуваат основните права на луѓето, вклучувајќи дискриминација. Како примери од  реалниот живот може да ги земеме здравството, потрошувачките кредити, препознавање  на лице како и дискриминација при вработување. Дали алгоритмите ја продлабочуваат  родовата нееднаквост или помагаат во нејзино решавање зависи од квалитетот на  податоците, односно од тимот кој ги создава алгоритмите. Ефектите зависат од начинот на  кој се дизајнирани алгоритмите, какви податоци се користат и целите што сакаат да се  постигнат. 

Што е алгоритамска пристрасност? 

Алгоритамска пристрасност се појавува кога вештачката интелигенција (AI) носи погрешни  или неправедни одлуки, најчесто затоа што била „научена“ од пристрасни податоци. Иако  изгледа дека алгоритмите се објективни, тие често само ја рефлектираат или дури ја  засилуваат дискриминацијата која постои во општеството – дали тоа е по основ на пол, раса  или економски статус.

Здравство и алгоритамска пристрасност 

Алгоритамската пристрасност во здравството се однесува на нееднаквото лекување и грижа  што луѓето ја добиваат врз основа на нивниот пол, вклучувајќи ја дијагнозата, третманот,  истражувањето како и интеракцијата меѓу здравствените работници и пациентите. Во  минатото, медицинските истражувања се правеле главно врз машки субјекти. Тоа довело  до недостаток на податоци за жените и нивните специфични здравствени проблеми. Со овој  фокус на машките пациенти, многу медицински дијагнози не биле соодветно разбрани кај  жените. Овој недостаток на родова чуствителност доведува до подоцнежна или помалку  ефикасна инервенција, бидејќи податоците што се користат за AI се повеќе базирани врз  машките симптоми. На пример, жените често имаат различни симптоми при срцев удар во  споредба со мажите. Но, ако алгоритамот е трениран на податоци што главно опфаќаат  машки симптоми (како болка во градите), тогаш кај жена со поинакви симптоми (како  гадење или замор) може да не се препознае итноста. Ова значи дека алгоритмите за  вештачка интелигенција, ако се обучени на податоци кои не ги вклучуваат или не ги  претставуваат адекватно симптомите кај жените, можат да доведат до неточна дијагноза. Точноста на алгоритмите е особено важна кога станува збор за здравје на луѓето.  

Системи за препознавање на лице 

Постои сериозна пристрасност во податоците што ги користат AI алгоритмите за  препознавање на лице , бидејќи тие главно се обучени за лица на светли мажи, што  резултира со многу погрешни резултати кога се користат за препознавање на лица на жени  и лица со темна боја на кожа. Кога станува збор за препознавање на светли мажи тогаш  резултатите имаат речиси 0% грешка, додека ако се работи за жени шансите за точност се  50%. Оваа пристрасност има сериозни последици, особено ако се користат за безбедност како што се гранични контроли, полициски истраги и надзор во јавни простори.Таа  пристрасност може да доведе до погрешна идентификација, што ќе резултира со  неправедно обвинение на поединци само поради нивниот изглед. Неопходно е овие  технологии да се развијат со повеќе податоци и етички стандарди, како би се осигурало 

дека не се нарушуваат основните човекови права. За да се спречат овие потенцијални  проблеми неопходно е: 

– AI системите да бидат обучени со податоци од повеќе демографски групи; -технолошките компании да објавуваат информации за точноста на нивните алгоритми; -почести тестирања на системите, за да се осигура дека нема пристрасност. 

Дополнително, важно e да се вклучат и експерти од различни области, бидејќи доколку не  се преземат овие мерки постои ризик од продлабочување на веќе постоечките  нееднаквости, наместо нивно решавање. 

Алгоритамска пристрасност при вработување 

Многу компании ширум светот користат AI системи при селекција и избор на вработени. Со  помош на нив скенираат биографии (CV) на кандидатите и анализираат видео-интервјуа,  особено денес, кога сè почесто интервју за работа се одвиваат онлајн преку некои од  платформите за видео-разговори. Овие системи се обучуваат преку историски податоци од  претходни процеси на вработување и истите често содржат пристрасности , како што се  родови нееднаквости. Еден познат пример за тоа е компанијата Amazon, кој во 2014 година  разви AI алатка за автоматско рангирање на кандидатите. Но, бидејќи алгоритмот бил  обучен врз база на машки податоци во период од 10 години, дошло до фаворизирање на  мажи и дискриминација на жени, особено за лидерските позиции. Дипломите на  кандидатките автоматски биле оценувани како помалку вредни, особено доколку станува 

збор за дипломи добиени од колеџи наменети исклучиво за жени. Потенцијалните  квалификувани кандидатки биле одбивани само поради тоа што не се вклопувале во  шаблонот на кој алгоритмот бил обучен. Ова е еден значаен пример за тоа како  алгоритмите можат да ја засилат пристрасноста во општеството. 

Родова пристрасност во рекламирање преку вештачка интелигенција ( Ad  Tech) 

Во дигиталната ера, алгоритмите играат клучна улога во тоа кои содржини ги гледаат  корисниците. Алгоритмите за рекламирање, како оние на Facebook, Google и LinkedIn,  користат историски податоци за да предвидат кои корисници најверојатно ќе кликнат на  одредена реклама. Ова може да доведе до тоа одредени реклами да се прикажуваат само  на една група на луѓе. На пример, огласи за работни позиции како механичар се  прикажуваат претежно на мажи, додека огласи за учителки во предучилишни установи се  прикажуваат на жени. Оваа практика може да ги засили постоечките родови стереотипи и  да ги ограничи можностите за одредени групи. Исто така покрај огласи за вработување  алгоритмите често прикажуваат реклами поврзани со традиционалните родови улоги. Како  на пример, реклами за козметички производи или производи за домаќинство се  таргетирани кон жени, додека реклами за автомобили или технологија најчесто се  прикажуваат на мажи. Истражувањето објавено во списанието EPJ Data Science покажува  дека дигиталните рекламни платформи наплаќаат повеќе за прикажување реклами на  жени во споредба со мажи. Овој феномен е познат како „Digital marketing pink tax“. Овој  данок е поврзан со традиционалниот „розев данок“ каде производите наменети за жени се  често поскапи од оние за мажи. Со ова не само што се зголемуваат трошоците за  рекламирање, туку дополнително се зајакнуваат и разликите меѓу половите. 

Влијание на AI врз онлајн насилство и говор на омраза по пол 

Социјалните мрежи како Facebook, Twitter, Instagram и други сè повеќе се потпираат на  вештачка интелигенција и машинско учење за да детектираат и отстранат говор на омраза и насилни содржини. Иако ова во одреден процент ги намалува коментарите кои шират 

омраза сепак не ги отстранува целосно, бидејќи системот не ги препознава сите како говор  на омраза или насилство. Истражувањата покажуваат дека вештачката интелигенција има  проблеми со препознавање особено ако се работи за саркастичен или суптилен коментар  кој всушност содржи еден вид на насилство. Алгоритмите се обучени на класични податоци  кои не се доволно репрезентетивни за различни форми на говор, што ја намалува нивната  способност за препознавање. Како резултат на тоа, многу навредливи содржини остануваат  неидентификувани, што ја поттикнува родовата нееднаквост во онлајн просторот. Дополнително, истражувањата укажуваат дека жените, особено активистките, новинарките  и јавните личности, се почесто мета на дигитално вознемирување, како навредливи  коментари и закани. Иако онлајн платрофрмите тврдат дека ги користат најсовремените AI  системи за детектирање и отстранување на коментари сепак се создава чуство за  небезбедност на одредени групи. Исто така постојат и случаи каде системите ги  отстрануваат оние коментари и објави каде некој се бори против насилството односно се  спротиставува на насилството, како и оние жени кои пријавуават насилство. Иако AI претставува важна алатка за справување со говор на омраза потребна е поголема  чуствителност кон родови прашања. Системите треба да се обучат со повеќе податоци со  што ќе може да се препознаат и идиректните говори.

Пристап до вештачка интелигенција и дигитален јаз меѓу половите 

Иако вештачката интелигенција (AI) претставува иднината на многу индустрии, пристапот  до неа не е еднаков за сите. Жените, особено во земјите во развој, често имаат ограничен  пристап до интернет, техничка обука и финансиски ресурси за работа со вакви алатки. Ова  дополнително влијае на родовата нееднаквост, бидејќи со намален пристап се намалуваат  и шансите за учество на жените во креирање на вакви видови системи. Според извештајот  на UNESCO, жените се 25% помалку веројатни од мажите да знаат како да користат  дигитална технологија за основни цели, четири пати помалку веројатни да знаат како да  програмираат компјутери и 13 пати помалку веројатни да поднесат барање за ИКТ патент. Недоволниот пристап до соодветни обуки ја намалува застапеноста на креирани алгоритми  од страна на жени што директно влијае врз вештачката интелигенција. Кога алгоритмите се  развиваат од машка перспектива тогаш не се земаат предвид специфичните искуства на  спротивниот пол. Затоа неопходно е да се инвестира во обуки и едукација со што ќе се  изедначи пристапот за двата пола. Едукативни програми како што е „Girls who code“ кои  нудат бесплатни летни програми и обука со менторство со цел жените да се рамноправно  застапени во технологијата е еден пример во кој правец треба да се движат идните  иницијативи. Исто така неопходно е да се создаваат безбедни и инспиративни средини за  учење. Подршката на вакви програми е значајна за да се осигура дека жените не само што  ќе бидат корисници на технологијата, туку ќе се јават и во улога на креатори на истата. 

Влијание на АI во финансискиот сектор  

Со напредокот на вештачката интелигенција се развиваат нови можности, но и предизвици  во финансискиот сектор. Финансиските институции, најчесто банките почнаа сè почесто да  ја користат за оценување на кредитосподобност на кредитобарателите. И во овој случај се  јавува родова нееднаквост. АI системите се обучуваат врз основа на историски податоци  кои водат кон дискреминација поради пристрасност од минати финансиски одлуки.  Наместо да ги корегира, вештачката интелигенција ги прифаќа како правилни. Имено  според истражувања жените добиваат пониски износи на кредити со повисока каматна  стапка, иако имаат повисок степен на отплата отколку мажите. Висината на износите треба 

да зависи од способноста за плаќање односно од доход кој го остварува барателот без  разлика на кој пол припаѓа. Како пример за дискриминација може да се наведе случајот со  Аpple Card. Жените добивале пониски кредитни лимити, иако имале ист или сличен ризик  како мажите. Овој случај доби големо медиумско внимание и осуда за истото. Ако жените  се систематски дискриминирани при земање кредит, тогаш тоа не само што влијае врз  нивната економска стабилност, туку им ја ограничува и можноста за претприемништво,  купување на имот или инвестирање. Исто така кога станува збор за инвестирање повторно  се јавува овој проблем на пристрасност во алгоритмите. Иако жените се сметаат за  попретпазливи во ивнестирањето, избирајќи помалку ризични портфолиа, сепак наидуваат  на проблеми во алгоритмите. Имено, како и во претходните случаи така и во овој  алгоритмите следат шаблон според историски податоци. Како резултат на тоа жените ги  смета како помалку склони кон ризик и им нуди поконзервативни инвестициони стратегии односно портфолиа со помал ризик кој е следен со помал принос. Но како и машките  инвеститори така и женските се делат во 3 категории односно аверзични кон ризик,  неутрални и склони кон ризик. Затоа алгоритмите не ги задоволуваат потребите на секоја  категорија на ризик туку се фокусира единствено кон аверзични кон ризик. Бидејќи  алгоритмите предвидуваат дека се работи за жени кои несакаат ризик, им ја намалуваат  самодовербата да инвестираат повеќе сметајќи дека нема да остварат принос. Ова се  случува бидејќи не се зема предвид реалната сподобност за инвестирање туку  традиционалните сфаќања. Неопходно е при дизајнирањето на AI системите да се вклучат  повеќе експерти и портфолиа и да се елиминира делот за препорака на инвестиција земајќи  го предвид родот. На тој начин алгоритмите ќе даваат препорака според спремност на  прифаќање на ризик и расположлив доход за инвестиции, кои претставуваат најзначаен  фактор при избор. Доколку се еднакви без разлика дали станува збор за маж или жена  тогаш алгоритмите ќе понудат исти опции, бидејќи инвеститор може да биде секој, без  дискриминација.

Заклучок 

Вештачката интелигенција е моќна алатка во секоја сфера, почнувајки од различни сектори  како што се здравството и финансиите, па сè до рекламирање, препознавање на лице,  насилство на социјалните мрежи и многу други, покрај веќе споменатите. Иако, носи бројни придобивки сепак има и свои негативни страни. Голем број примери докажуват дека  жените се во неповолна положба кога станува збор за AI, поради фаворизирање на машката  популација. Како што веќе и претходно напоменав, тоа се случува поради користењето на  историски податоци. За да се отстранат тие негативности потребно е алгоритмите да се  усовршат, односно да се елиминира родовата пристрасност на истите. Тоа ќе се постигне  најпрво со збогатување на податоци со повеќе демографски групи. Исто така компании кои  користат AI треба да бидат одговорни за резултатите што ги даваат системите и да прават  редовни проверки за да се осигураат дека нема родова дискриминација. Од големо  значење е и вклулчување на жените во дизајнирање на самите системи, односно  составување на тимови со припадност од двата рода за да може да се земе во предвид  различните мислења. Покрај тоа сметам дека важна улога има и поставувањето на етички  стандарди и принципи кои дополнително ќе ги намалат разликите. Клучен чекор е и  вложување во едукација, не само во обуки за жени туку и подигнување на целокупната  јавна свест за важноста на вештачката интелигенција, алгоримите и родовата пристрасност.  Некои организации како претходно споменатите „Woman who care“ и останати како „Al for  good“ веќе имаат преземено иницијатива за промовирање на правичност при користење  на технологијата. Доколку не се отстранат негативностите и алгоритмите продолжат да  функционираат како и досега ризикуваме во иднина да се продлабочат нееднаквостите.  Наместо технологијата да биде средство за напредок во општеството ќе влијае во насока на  намалување на иновативноста и можностите на жените. Меѓутоа, сметам дека и покрај  овие предизвици има јасни знаци на напредок. Со вложен напор на организациите ќе се  подобри свеста за родовата пристрасност во вештачката интелигенција и со текот на  времето истата целосно ќе исчезне. Тоа ќе овозможи да се земаат предвид потребите на  сите корисници. На тој начин вештачката интелигенција ќе стане двигател на еднаквост а не  пречка за неа.

10 

Библиографија 

https://digitalfuturesociety.com/algorithmic-gender-discrimination-where-does-it-come-from what-is-the-impact-and-how-can-we-tackle-it/ 

https://www.ibm.com/think/topics/algorithmic-bias

https://www.qualityinteractions.com/blog/what-is-gender-bias-in-healthcare https://www.nature.com/articles/s44325-024-00031-9 

https://www.media.mit.edu/projects/gender-shades/overview

https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems 0212 

https://www.euronews.com/business/2018/10/10/amazon-scraps-secret-ai-recruiting-tool that-showed-bias-against-women 

https://globalwitness.org/en/press-releases/facebook-accused-of-gender-discrimination-new research-finds-bias-in-advertising-algorithm/ 

https://epjdatascience.springeropen.com/articles/10.1140/epjds/s13688-024-00473-2
https://link.springer.com/article/10.1007/s00521-024-10841-8
https://www.unesco.org/en/artificial-intelligence/gender-equality

https://knowledge.insead.edu/operations/how-anti-discriminatory-measures-can-worsen-ai bihttps://research-center.amundi.com/files/nuxeo/dl/22f96a00-ba27-43b1-aa18- 24a8a4b9d5b0as

11 

12