Иван Андревски
Во модерниот свет вештачката интелегенција(АИ) и машинското учење се голем и неопходен дел од нашето секојдневие. Овие алгоритми играат голема улога во донесувањето на одлуки од различни сфери. Прост пример за ова е Facebook и тоа каква содржина или реклами ни се прикажуваат. Навидум случајно, но позади тоа работи алгоритам чија задача е според дотогаш собраните податоци да ја најде идеалната содржина за корисникот. Но, иако изгледаат објективни, овие алгоритми имаат предрасуди кои би можеле да предизвикаат големи проблеми. “АИ алгоритмите, кои учат од податоци со предрасуди, често ги рефлектираат и засилуваат истите” велат експертите [1]. Токму поради тоа се поставува и прашањето: Кој ги учи машините и што точно им кажуваме?
Како се појавува родовата пристрасност?
Родовата пристрасност е резултат на податоците од кои машините учат и начинот на кој што учат. Поточно, алгоритмите немаат опција сами да размислуваат – тие можат да донесат одлука само доколку има податочно множество. Токму поради тоа проблемот лежи во самите податоци, односно ако тие се пристрасни и алгоритмот ќе биде пристрасен.
Најчести начини преку кои родовата пристрасност може да се појави во еден алгоритам се:
– пристрасни податоци за обучување (пример за ова е ако систем за селекција на кандидати се обучува врз основа на стари биографии кои главно доаѓаат од мажи, тогаш алгоритмот ќе заклучи дека маж е посоодветен за таа улога)
– недоволна застапеност (во многу случаеви, жените се застапени во помал обем во податочното множество, со што автоматски го тера алгоритмот да не научи доволно, па така ќе донесе пристрасна одлука)
Примери за родова пристрасност во пракса
Како што веќе спомнавме, алгоритмите на познатите социјални мрежи и платформи имаат цел да му ја доловат најприлагодната содржина на секој корисник посебно. Сепак тие (несвесно) ја
− Алгоритми за препораки – YouTube и Tiktoк се платформи кои прикажуваат содржина која е од интерес на корисникот. Тоа го прават на тој начин што ги земаат податоците од претходно гледаните видеа и според нив предвидуваат кои видеа корисникот би ги гледал. Така, ако корисникот гледа видеа поврзани со фудбал, многу е веројатно дека алгоритмот ќе му предложи некои слични видеа. Сепак, истражувањата покажуваат дека жените најчесто добиваат содржини поврзани со мода, изглед и диети, додека мажите добиваат содржини од спорт, коли… Ова е доказ за родовата нееднаквост не само на овие две платформи, туку општо на сите.
− Автоматизирано вработување – Во 2014 година, Амазон развил систем за автоматско селектирање на кандидати. Навидум добра идеја, но сепак истиот бил повлечен за брзо време поради дискриминација на женските кандидатки. Системот имал за задача да ги оценува кандидатите со оцена на скала од еден до пет. Но, алгоритмот научил да ги деградира женските апликанти за работни позиции како развивач на софтвер. Ова е доказ за родовата нееднаквост бидејќи една од најголемите фирми на светот не успеала да најде лек за истиот [2].
− Финансиски услуги – во 2019 година Apple Card бил обвинет поради тоа што жените добивале значително помали кредитни лимити од мажите, иако имале подобри финансии [3].
− Правосудни алгоритми – системот COMPAS во САД покажал дека има и расна и родова пристрасност при проценка на ризик за рецидивизам [4].
Кој ги учи машините?
Интересно е што машините не се способни да учат сами по себе. За да предвидат или донесат некој резултат, мора да имаат на располагање некое податочно множество. Истото податочно множество е направено од човек кој секако има пристрасност кон нешто и токму затоа може да има пристрасност и во податоците.
Најчесто, објективни и корисни податоци за истражувањата може да се превземат од страни како Kaggle, Amazon, Microsoft… Освен самите податоци, на овие страни може да се најде и опис на самото множество како и примери за како да се користат истите [5].
Пристрасноста не мора да се случува намерно. Понекогаш луѓето кои ги обработуваат податоците може несвесно да запостават некои податоци или да ја занемарат важноста на одредени податоци. Пример за ова е ако се запоставени податоците за жени во технички сектори, тогаш и алгоритмот ќе има ограничена слика за таа одредена група, со што ќе даде и ограничени (пристрасни) резултати.
Што им кажуваме на машините?
Како што споменавме погоре, машините зависат од човечкиот фактор, односно избирање на податоци, вградување на вредности и претпоставки во алгоритмот. Така, најпрво, машините се учени да се ослонуваат на минатото. Алгроритмите често се обучуваат врз основа на историски податоци и најчесто во минатото жените биле потценувани. Поради тоа, машините го учат тоа како модел што треба да го повторат и наместо да се корегира пристрасноста, таа се автоматизира.
Следно правило по кое се водат машините е да ги поделат групите во важност. Иако има начин да се намали ова влијание, не може целосно да се отфрли. Така, ако при тестирањето не се вклучат доволно жени (или други недоволно застапени групи) алгоритмот ќе даде пристрасни резултати.
Последно, но исто толку важно како претходните две е избирањето на атрибути. Како што знаеме, податочното множество располага со многу карактеристики и при тестирање не сите се неопходни. Токму поради тоа, човекот може да ги избере оние features кои ќе бидат вклучени во самиот модел. Ова е нож со две острици бидејќи со изоставување на некои важни карактеристики може лесно да доведе до пристрасност на алгоритмот.
Според овие работи може да кажеме дека машините се производ на тоа што луѓето одлучуваат да им кажат (свесно или потсвесно) и дури најмалата грешка може да доведе до пристрасност во моделот, која потоа е тешко да се балансира.
Заклучок
Машините се иднината на човештвото и најголемиот предизвик е да се учат објективно, односно без пристрасности, бидејќи токму тоа може да доведе до катастрофи од светски размери. Во овој случај се фокусираме само на родовата пристрасност и видовме дека самите алгоритми дури и несвесно може да донесат одлука која би го сменила животот на некој човек. Сепак, машините зависат од нивните креатори и затоа мора истите да се прават со родова чувствителност и транспарентност. Најважно е да сфатиме дека за да имаме подобри машини и алгоритми, мора да ги учиме подобро со што би добивале неутрални резултати.
Користена литература
[1] https://www.unwomen.org/en/news-stories/interview/2025/02/how-ai-reinforces gender-bias-and-what-we-can-do-about-it
[2] https://www.imd.org/research-knowledge/digital/articles/amazons-sexist-hiring algorithm-could-still-be-better-than-a-human/
[3] https://www.bbc.com/news/business-50365609
[4] https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism algorithm
[5] https://www.quora.com/Where-do-machine-learning-models-get-their-data-from