Авторка Ангела Прилепчанска
ВОВЕД
Во последните децении, вештачката интелигенција стана клучен двигател на технолошкиот напредок и дигиталната трансформација. Нејзината употреба се распространува во најразлични сфери и во различни порцеси на донесување одлуки почнувајќи од здравството, финансиите, правосудството, образовнието, маркетинг, безбедност па дури и во процесот на вработување. Иако се верува дека одлуките донесени од ВИ агентите (паметните машини) се објективни и слободни од човечките предрасуди, реалноста е значително покомплексна. Сепак, зад перцепцијата за „неутрална“ технологија, ВИ често ја репродуцира и во голем дел од случаите дури и ја засилува постојаната општествена нееднаквост. Алгоритмите кои всушност се создадени од човекот, обучени се врз историски податоци кои сепак се производ на општествени нееднаквости и пристрасности.
Токму овој феномен, феноменот на алгоритамската пристрасност, кога автоматизираните системи несвесно или индиректно дискриминираат одредени групи, е еден од најзагрижувачките аспекти на денешницата. Во оваа смисла, родовата еднаквост се наоѓа под нов облик на закана. Наместо да служи како оружје против дискриминацијата, ВИ неретко ги репродуцира постојаните родови стереотипи и структурни нееднаквости, кои најчесто, за среќа или не, се изведени на суптилен и невидлив начин. Така, технологијата која треба да биде инструмент за напредок, може да стане случаен партнер на дискриминацијата.
Со оваа семинарска работа имам за цел да го истражам прашањето: како алгоритамската пристрасност влијае врз родовата еднаквост во општествата каде технологијата сè повеќе го обликува секојдневниот живот и влијае врз донесувањето на клучните одлуки.
1. ШТО Е АЛГОРИТАМСКА ПРИСТРАСНОСТ? Алгоритамска пристрасност претставува систематско отстапување во автоматизираното одлучување, како резултат на неквалитетни, непотполни или социјално пристрасни податоци. Во контекст на ВИ, алгоритмите не „размислуваат“ самостојно, туку учат од
историски податоци, кои често се одраз на дискриминаторната реалност на општествата од кои потекнуваат истите. Тоа е една од главните причини поради која ВИ често ги повторува, па дури и ги предизвикува и зголемува нееднаквоста и пристрасноста, особено кога алгоритмите се развиваат без соодветен етички надзор или кога податоците не ги претставуваат еднакво сите општествени групи.
Овие пристрасности можат да бидат:
• Експлицитни. Експлицитните пристрасности се однесуваат на она кога предрасудите се внесени свесно,пред самото моделирање, ако развивачите свесно исклучат одредени групи или пак фаворизираат одредена категорија корисници над друга. Ова се случува кога алгоритмите намерно преферираат корисници од одредени образовни институции или со „машки“ професионални искуства, што може индиректно да ги дисквалификува жените.
• Имплицитни. Имплицитните пак пристрасности се оние кога машината учи пристрасно од непроверени податоци. Најчесто тоа се јавува кога моделот се обучува врз податоци кои се однесуваат на историски нееднаквости, како што се ниска застапеност на жени на раководни позиции или општествени стереотипи што се присутни во медиумите и јавниот дискурс. Машинското учење нема капацитет да ги препознае овие стереотипи како „неправилни“ и погрешни, туку ги прифаќа како нормални обрасци на однесување.
• Системски. Системските пак се однесуваат на она кога се одразуваат структурни нееднаквости, како што се недоволна застапеност на жени во одредени професии или податоци. На пример, системите со ВИ во медицината кои се обучени врз база на податоци претежно собрани од машки пациенти често не ги препознаваат симптомите на срцев удар кај жени, бидејќи тие можат да имаат различна манифестација, односно да имаат различни симптоми. Истото важи и за препознавање на говор или лице – алгоритмите се послабо прецизни кај жени и кај луѓе од други етнички и родови идентитети.
Дополнително, алгоритамската пристрасност се појавува и кога збирките на податоци не се демографски балансирани, или кога развивачите не спроведуваат строга анализа на влијанието од алгоритмите врз различни категории на корисници. Недостатокот од
транспарентност значи дека алгоритмите ретко може да се ревидираат или одговорно да се коригираат.
Истражувањата покажуваат дека дури и најдобронамерни алгоритми можат да резултираат со дискриминаторни ефекти ако не се користат внимателно. Сложеноста на проблемот потекнува од тоа дека не станува само збор за техничка грешка, туку за општествена репродукција на нееднаквост преку технологијата. Затоа, решавањето на алгоритамската пристрасност бара интердисциплинарен пристап, што ќе вклучи не само инженерски туку и родови, етички и социјални перспективи и сознанија.
2. ПРИМЕРИ НА РОДОВА ПРИСТРАСНОСТ ВО ВИ СИСТЕМИ
2.1 Вработување – Алгоритам кој дискриминира жени кандидати
Во 2018 година, Amazon разви експериментална ВИ алатка за автоматска селекција на кандидати за вработување во технолошкиот сектор. Целта беше да се автоматизира процесот на анализа на биографии и препораки, но резултатите се покажаале проблематични. По тестирањата извршени во самата компанија,се открило дека алгоритмот систематски ги дискриминира женските кандидати-апликанти. Апликациите што содржеле изрази како „women’s college“ (женски колеџ) или поврзаност со женски спортски клубови автоматски добивале пониски оценки. Причината за ова лежела во податоците со кои алгоритмот бил обучен – историски биографии на успешни кандидати во Amazon, од кои поголемиот дел, во тој временски период биле мажи. Алгоритмот, без способност за критичко размислување, бил „научен“ дека машките апликации се поприфатливи, што резултирало со автоматско одбивање на женските кандидатки. Иако Amazon ја повлекол алатката пред да биде пуштена во јавна употреба, овој случај стана и ќе остане класичен пример за тоа како пристрасните податоци водат кон дискриминаторски алгоритми и тоа на ненамерен начин.
2.2 Гласовни асистенти – Женски гласови и технолошка сервилност
Дигиталните гласовни асистенти како Siri (Apple), Alexa (Amazon) и Google Assistant најчесто користат женски глас како стандарден избор. Освен што звучат „љубезно“, тие
често користат тон и фрази кои за жал се поврзуваат со стереотипите поврзани со женската улога во општеството – услужна, пријателска, послушна. Иако некои корисници денес можат да изберат и машки глас, женските гласови уште од самиот почеток се доминантен и првичен избор, особено при првата инсталација. Ова не е случајно. Истражувањата покажале дека потрошувачите генерално ги поврзуваат женските гласови со асистенција и помош, додека машките гласови со авторитет.
Овој избор, иако технички „невин“, има длабоки културни импликации. Тој го зацврстува и поддржува стереотипот дека жените треба да бидат секогаш достапни,и услужни. Дополнително, кога гласовните асистенти се „навредени“, односно корисникот се обратил со навредливи зборови, нивните одговори често се пасивни или дури и флертувачки – што ја зајакнува токсичната култура на трпеливост кај жените во дигиталниот свет.
2.3 Препознавање на лица – Расно и родово непопрецизни алгоритми
Истражувањето на MIT Media Lab од 2018 година, кое било под водство на истражувачката Џој Буламвини (Joy Buolamwini), покажало огромни недостатоци во системите за препознавање на лица кои всушност биле развиени од големи технолошки компании. Алгоритмите, кои се користат од страна на владини агенции и полиција, имаат значително поголема стапка на грешка при препознавање на потемни жени, во споредба со белите мажи. Конкретно, грешката кај белите мажи била под 1%, додека кај темните жени достигнувала над 30%.
Овој огромен дисбаланс е резултат на небалансирани податоци со кои алгоритмите биле обучени односно, базите на податоци претежно содржеле слики на бели машки лица. Ваквата пристрасност може да има сериозни последици, почнувајќи од погрешна идентификација, полициски злоупотреби, неосновано апсење па се до дискриминација во безбедносни контексти. Проблемот не е само технички, туку и правен и етички, кога општествените предрасуди се вградени во технологијата, тие стануваат „невидлива норма“ која ретко се преиспитува.
2.4 Препораки за содржина на социјални мрежи – Родови стереотипи во алгоритми за ангажман
Алгоритмите што управуваат со содржината на социјалните мрежи како Instagram, TikTok и YouTube имаат за цел да ја зголемат гледаноста и ангажманот на корисниците. Но, овие системи често промовираат содржини кои ги зајакнуваат традиционалните родови улоги и стереотипи. Истражувањата покажуваат дека жените, особено младите девојки, почесто се изложени на препораки поврзани со изглед, убавина, мода и слабеење, додека машките корисници добиваат повеќе содржини поврзани со технологија, спорт и личен развој.
Оваа пристрасност произлегува од алгоритми кои учат од кориснички навики и социјални трендови, но без критичка проценка на содржината што ја промовираат. Како резултат на тоа, младите корисници се оформуваат според ограничени родови модели. Дополнително, жените што објавуваат содржини кои не се вклопуваат во овие стереотипи, честопати добиваат помала видливост, што пак влијае на нивниот дигитален успех и мотивација. Оваа форма на пристрасност е суптилна, но моќна, бидејќи ја обликува културната перцепција за родовите улоги уште од најрана возраст.
3. ПРИЧИНИ ЗА ПРИСТРАСНОСТ ВО АЛГОРИТМИТЕ
Вештачката интелигенција не е неутрална, всушност таа учи од светот каков што бил, а не каков што треба да биде. Податоците што ги обработува често носат траги од историските неправди, вклучувајќи ја и родовата дискриминација. Кога алгоритмите се хранат со податоци во кои жените се ретко застапени на лидерски позиции или биле третирани поинаку во здравствениот и образовниот систем, тие не го препознаваат тоа како нееднаквост. Напротив, машината го учи тоа како „нормален“ начин на однесување, што потоа го репродуцира при донесување одлуки, без разлика далие тоа за избор на кадри, процена на ризици или дистрибуција на ресурси. Така, алгоритамот може несвесно да фаворизира машки кандидати, бидејќи историјата ги ставила мажите на тие позиции, а технологијата, како нејзин одраз, го прифаќа тоа како правило, а претставува една од главните причини за постоењето на овој проблем.
Но, проблемот не лежи само во податоците. Тој може да биде поттикнат и од самите тимовите кои ја создаваат, свесно или не. Денешните развојни групи се често демографски хомогени, составени претежно од мажи од слична социјална и културна средина. Овој недостиг од разновидност значи дека многу перспективи остануваат невидливи. Кога недостигаат жени, луѓе од различни етнички заедници, лица со попреченост или претставници од ранливи групи, тогаш нивните искуства не се вградени во дизајнот на технолошките решенија. Така, на пример, гласовните асистенти со женски глас се дизајнираат како „послушни помошнички“, несвесно зацврстувајќи родови стереотипи. Без интердисциплинарна соработка, без надзор од експерти од етика, родови студии, психологија и социологија,пристрасноста останува невидлива, а нејзините последици неизбежни.
На сето тоа се надоврзува уште едена моќна причина, а тоа е недостатокот на транспарентност и регулатива. Алгоритмите често функционираат како „црни кутии“, затворени зад ѕидови на деловни тајни и техничка сложеност. Јавноста, па дури и научната заедница, нема увид во тоа како се донесуваат одлуките, ниту дали тие се правични. Во ваков, така наречен, вакуум, компаниите немаат обврска да одговараат за можните штетни последици. Ако, на пример, алгоритам во банка системски доделува помалку кредити на жени, речиси и да не постои механизам со кој тие можат да ја оспорат таквата одлука. Без јасни правила и надзор, технологијата станува средство за продлабочување на веќе постоечките нееднаквости. Затоа, создавањето праведна и еднаква вештачка интелигенција не е само технички, туку длабоко етички и општествен предизвик. Неопходно е да ја преиспитаме не само технологијата, туку и вредностите што ги внесуваме во неа.
4. ПОСЛЕДИЦИ ОД АЛГОРИТАМСКА ПРИСТРАСНОСТ ВРЗ РОДОВАТА ЕДНАКВОСТ
Во дигиталната ера, алгоритмите сè почесто стануваат посредници во донесувањето одлуки што директно влијаат врз животите на луѓето. Но кога тие алгоритми се пристрасни, последиците не се само технички туку длабоко човечки и општествени.
Алгоритамската невидливост е една од од основните последици на алгоритамската пристрасност. Под алгоритамска невидливост се подразбира кога вештачката интелигенција не ги препознава жените како работнички, лидери, корисници или потрошувачи, тие исчезнуваат од дигиталната слика на светот. Оваа технолошка невидливост не е само прашање на застапеност, туку на реални последици: ограничен пристап до ресурси, до услуги, до можности што се подразбираат за другите. Жените, и многу други маргинализирани групи, се потиснати на маргините на технолошкиот развој, каде нивниот глас не е воопшто слушнат. Вештачката интелигенција учејќи од податоци во кои жените се претставени во улоги на грижа и услуга, а мажите во улоги на моќ и одлучување, несвесно повторно се зацврстуваат стереотипите кои веќе одамна
требаше да останат зад нас. Наместо да ги разградува, ВИ ги претвора тие стари шаблони во нов дигитален код, што повторно ги поставува истите ограничувања и ги одзема истите права.
Кога системите постојано носат одлуки што ги дискриминираат истите групи, жени, етнички малцинства, лица со попреченост, тоа не минува незабележано. Се создава чувство на исклученост, на недоверба кон самата технологија. Жените и другите маргинализирани групи почнуваат да гледаат на ВИ не како на алатка за ослободување, туку како нова форма на потиснување. Недовербата како огромна последица од овој проблем,не претставува само емоција, таа е бариера за вклученост, за иновација, за праведна иднина. Бидејќи технологијата е секаде околу нас, овие последице се јавуваат во образованието,здравството, администрацијата . Токму затоа овој проблем претставува огромен технолошки предизвик.
3. КАКО МОЖЕ ДА СЕ СПРЕЧИ РОДОВАТА ПРИСТРАСНОСТ ВО ВИ?
Во време кога вештачката интелигенција сè повеќе го обликува нашето секојдневие, сè поважно станува прашањето како да се обезбеди таа технологија да биде праведна и еднаква за сите. Родовиот дисбаланс и алгоритамската пристрасност претставуваат сериозни предизвици кои бараат навремени и соодветни решенија со цел да не придонсуваат кон продлабочување на веќепостоечкиот проблем. За да се спречи создавањето на овие нееднаквости, потребно е да се преземат конкретни чекори во неколку клучни области.
Пред се може да се започне со создавањето праведна и инклузивна технологија бара тимови кои ја одразуваат разновидноста на општеството. Инклузивниот дизајн и родовата разновидност играат огромна улога во овој процес и се клучни аспекти од кои се предлага да се започне со спречувањето на овој проблем. Вклучувањето на жени, лица од различни култури и други социјално маргинализирани групи би
овозможило поширок спектар на перспективи, што значително би ја намалило веројатноста за несвесна пристрасност во технолошките решенија. Така се создава поетична, пофер и поприфатлива технологија за сите.
Покрај тоа, неопходна е изградба на етички и правни рамки со кои технолошките компании би се доближиле кон поголема транспарентност, објаснивост на алгоритмите и механизми за одговорност. Иако европскиот AI Act претставува важен чекор напред, потребни се и локални закони, кодекси на однесување и тела за мониторинг кои ќе обезбедат целосна заштита на човековите и родовите права во рамки на секоја држава.Идеално решение е да се почне со ширење на свесноста за овој проблем уште од најмала возразт, односно од основното образование. Образовните институции треба да промовираат критичко размислување, родова еднаквост и етичка одговорност во наставните програми по информатичка технологија и инженерство. На тој начин се создаваат генерации професионалци кои, покрај техничките аспекти, ги разбираат и општествените импликации од својата идна професија. Исто така како решение може да се спроведе мониторингот и независните ревизии кои се неопходни за континуирано тестирање на алгоритмите со цел откривање и елиминирање на пристрасност. Овие ревизии треба да се спроведуваат од независни тела, а резултатите да бидат јавно достапни. Само преку постојана контрола може да се обезбеди правичност и доверба во автоматизираните системи кои се дел од нашето секојдневие.
Освен техничките и регулаторните решенија, важно е да се истакне и значењето на културната трансформација во технолошките средини. Родовата еднаквост не може да биде постигната единствено преку подобрување на податоците или алгоритмите, истовремено потребно е да се промени и самата култура на технолошката индустрија. Ова вклучува градење на инклузивна организациска клима каде што гласовите на жените и маргинализираните групи се не само слушнати, туку и активно вклучени во процесите на одлучување. Подобрувањето на родовата рамноправност мора да започне со креирање на безбедни простори каде што е можно отворено да се зборува за дискриминацијата и стереотипите кои се присутни, дури и во најмодерните индустрии.
Еден важен чекор во овој процес е поддршката на родово-сензитивно истражување и развој. Универзитетите и технолошките институции треба активно да вклучуваат родови прашања во нивните истражувачки проекти и наставни програми. Технологијата не треба да се гледа изолирано од социјалниот контекст – таа е длабоко вкоренета во вредносните системи на општеството. Воведувањето на обврзувачки курсеви по родова еднаквост во инженерските и компјутерски факултети би можело да изгради критичка свест кај идните генерации инженери и научници.
Дополнително, еден од начините да се минимизира родовата пристрасност е преку развивање на т.н. „етичка архитектура“ во дизајнот на системите. Тоа значи дека уште од најрани фази на развој, тимовите треба да размислуваат за влијанијата што технологијата може да ги има врз различни групи. Оваа етичка архитектура подразбира постојано тестирање на моделите со различни сценарија и кориснички профили, анализирање на резултатите од аспект на фер однесување и активно коригирање кога се детектира пристрасност.
Важно е да се охрабри развојот на отворени податоци кои се балансирани и репрезентативни. Кога податоците се собрани со внимание на родовиот и културниот контекст, тие овозможуваат креирање на алгоритми што се попрецизни и поинклузивни. Соработката со невладини организации, женски здруженија и истражувачки центри е од суштинско значење за да се разберат потребите и грижите на различни општествени групи.
Мора да се истакне дека борбата против алгоритамската пристрасност е долгорочен процес кој бара постојано вклучување, дијалог и соработка меѓу академијата, индустријата и граѓанското општество. Само со усогласување на технолошките иновации со принципите на социјална правда, можеме да изградиме дигитална иднина која е инклузивна, праведна и ослободена од дискриминација.
ЗАКЛУЧОК
Алгоритамската пристрасност претставува современа, тивка, но длабоко вкоренета форма на дискриминација. Особено кога алгоритмите се развиваат без критичка анализа на податоците и без етички надзор, ВИ може да биде и придонесител за продлабочување на овој проблем. Кога станува збор за родовата еднаквост, ова не е само техничко, туку и длабоко општествено и политичко прашање, бидејќи технологијата не е неутрална, таа е рефлексија на вредностите и приоритетите на оние што ја создаваат.
Само преку свесно ангажирање и создавање на регулативи, образовни реформи и институционална одговорност можеме да обезбедиме дека технолошката иднина ќе биде еднакво праведна за сите без разлика на пол, родов идентитет, етничка припадност или општествен статус. Вештачката интелигенција треба да биде алатка за ослободување и еднаквост, а не нова форма на дигитална маргинализација.
КОРИСТЕНА ЛИТЕРАТУРА
https://www.unwomen.org/en/news-stories/interview/2025/02/how-ai-reinforces gender-bias-and-what-we-can-do-about-it
https://www.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender equality