„Пристрасност во алгоритмите: Како AI може да ја одржи или влоши родовата нееднаквост“

Published by

on

Кирил Цветаноски

Апстракт

 Во последните децении, вештачката интелигенција се појави како револуционерна технологија со потенцијал да го трансформира секој аспект од човечкото живеење. Сепак, и покрај технолошките придобивки, се појавуваат сериозни прашања околу пристрасноста вградена во AI-системите, особено во однос на родовата еднаквост. Оваа семинарска работа истражува како алгоритмите на вештачката интелигенција можат да репродуцираат, па дури и да засилат, постојни општествени нееднаквости, со фокус на родовата пристрасност. Ќе бидат анализирани конкретни примери од реални системи, последиците по жените и родовите малцинства, како и можните решенија за градење на пофер и поинклузивни AI-системи. Целта е да се укаже на важноста на етички пристап при дизајнирање и имплементација на интелигентни технологии, кои ќе служат подеднакво за сите општествени групи.

Вовед

Вештачката интелигенција претставува една од најзначајните иновации на 21-от век. Од системи за препознавање лица, преку алатки за селекција на кадар, до персонализирани реклами – AI е веќе интегрирана во нашето секојдневие. Но, со нејзиниот сè поголем продор се отвораат и значајни етички и социјални дилеми. Една од најсериозните и најдискутирани меѓу нив е прашањето на пристраноста во алгоритмите и нејзините последици врз родовата еднаквост. Иако технологијата е на прв поглед „неутрална“, таа се создава од луѓе, и многу често, врз основа на податоци што го рефлектираат општеството во кое живееме. Ова значи дека ако општеството е пристрасно, тогаш и податоците што ги внесуваме во машините носат одредени стереотипи и нееднаквости. Како резултат на тоа, алгоритмите што ги користиме можат не само да ги одразат тие пристрасности, туку и да ги засилат. Во оваа семинарска работа ќе се осврнеме токму на оваа појава: Како и зошто AI-системите покажуваат родова пристрасност, кои се најпознатите случаи на такви примери, кои се последиците по општеството, и кои се можните решенија за намалување на овој проблем. Истражувањето има за цел да го поттикне критичкото размислување и да укаже на неопходноста од етичка и инклузивна технологија.

  1. Што е вештачка интелигенција и како функционира?

Оваа гранка од компјутерските науки која се занимава со развој на системи и алгоритми што можат да извршуваат задачи кои обично бараат човечка интелигенција. Тоа вклучува способности како учење, заклучување, решавање проблеми, разбирање јазик, и препознавање обрасци. Основата се наоѓа во т.н. машинско учење, кое птреставува техника каде што алгоритмите „учат“ од огромни количини на податоци и со тек на време ги подобруваат своите одлуки. Но, овде се појавува и големиот предизвик: податоците што ги користиме се создадени од луѓе и често го рефлектираат нивниот светоглед, културни стереотипи и историски нееднаквости. Со други зборови, ако алгоритмот учи од пристрасни податоци, ќе донесува и пристрасни одлуки.

  1. Разбирање на алгоритамска пристрасност 

Алгоритамска пристрасност се појавува кога еден AI систем несвесно фаворизира една група на луѓе над друга. Ова не е нужно резултат на „лоша намера“, туку на несоодветен или нерамномерен избор на податоци при тренирање на алгоритмот. На пример, ако системот за автоматска селекција на кандидати за работа е трениран главно на биографии на мажи, ќе научи да ги „претпочита“ машките карактеристики и профили. 

 Статистика за родова нееднаквост во AI:

  • Според извештај на UNESCO (2022), само 22% од професионалците во областа на вештачка интелигенција се жени. 
  • Истражување на AI Now Institute од 2019 година покажа дека машините за препознавање лица имале поголема точност кај машки, бел тен профили, додека точноста значително опаѓала кај жените со потемен тен. 
  • Amazon во 2018 беше принуден да ги повлече своите AI-системи за регрутација откако беше откриено дека ги дискриминирале жените при селекција на кандидати (бидејќи биле тренирани на податоци од машки кандидати).
  1. Родовата пристрасност во AI – реални примери

Иако алгоритмите на вештачката интелигенција често се сметаат за објективни, неутрални и „паметни“, реалноста покажува дека тие многу лесно можат да бидат огледало на општествените пристрасности. Кога алгоритмите се тренираат врз основа на историски податоци или податоци добиени од човечко однесување, тие можат да научат (и репродуцираат) стереотипи и дискриминаторски модели. Во ова поглавје ќе бидат обработени неколку познати примери од реалниот свет кои покажуваат како AI може да биде родово пристрасен.

Пример 1: Amazon и автоматизираното регрутирање. 

Во 2018 година, Amazon разви AI-систем за автоматска селекција на кандидати за вработување. Алгоритмот беше трениран врз основа на биографии на успешни кандидати од претходните години. Сепак, бидејќи најголем дел од податоците биле од машки кандидати, алгоритмот почнал да дискриминира жени, со кое буквално ги намалувал поените на кандидатки кои во своето CV имале поими како „женски универзитет“, „женска организација“ и слично. Amazon набрзо го повлече системот, признавајќи ја пристрасноста.

 Со ова може да заклучиме дека: Алгоритмите можат да ја репродуцираат историјата, а ако историјата е дискриминаторна, тогаш и машината ќе биде.

Пример 2: Препознавање лица и тенот на кожата.

 Истражување спроведено од MIT Media Lab откри дека системите за препознавање лица, развиени од компании како IBM, Microsoft и Face++, имале висока прецизност за препознавање на машки лица со светол тен (околу 99%), но значително по-ниска точност за жени со потемен тен – во некои случаи прецизноста била под 70%. 

 Преку ова може да видиме дека недоволната застапеност на различни родови и расни групи во податоците води кон значителна нееднаквост во резултатите. 

 Пример 3: Google Translate и родовите стереотипи 

Google Translate користи AI за автоматски превод меѓу јазици. Во случаи каде што одреден јазик нема граматички род (на пр., турски), системот користеше стереотипи при превод. На пример: „Тоj е доктор.“ „Таа е медицинска сестра.“ Ова покажува дека иако машината нема свесна намера да биде пристрасна, таа го прави тоа на база на најчестиот шаблон од податоците со кои е тренирана. 

Дури и во „невини“ апликации како автоматски преводи, AI системите можат да го репродуцираат родовиот стереотип.

Овие примери јасно покажуваат дека вештачката интелигенција не е имуна на општествените нееднаквости туку напротив, ако не се користи одговорно, таа може да ги влоши. 

  1. Последици од пристрасноста врз родовата еднаквост

Пристрасноста во алгоритмите не е само технички проблем, таа има реални, конкретни и често штетни последици врз животите на луѓето. Кога AI системите се користат во процеси кои влијаат на кариери, здравје, безбедност и општествен статус, секој облик на дискриминација станува сериозен проблем за родовата еднаквост. 

  • Намалени можности за вработување и кариерен развој AI системите сѐ повеќе се користат при селекција на кадар како од автоматско читање CV-а, преку видео интервјуа, до препораки за вработување. Ако алгоритмите покажуваат родова пристрасност, жените може автоматски да бидат елиминирани, дури и без да добијат можност за интервју.  Пример: Освен случајот со Amazon, многу HR платформи што користат AI имаат т.н. „стандарден профил“, кој често се темели на машки шаблон за успех. 
  •   Нееднаква заштита и прецизност во безбедносни системи Кога системите за препознавање лица имаат пониска точност за жени, особено за жени со потемен тен, тоа води до: Погрешна идентификација, недоволна заштита во безбедносни ситуации и потенцијално осудување на невини лица. Ова е посебно загрижувачко ако се користат во полициски или гранични системи. 
  •  Засилување на стереотипи и социјални очекувања AI системите што работат со јазик (како Google Translate, Chatbots или AI-пишувачи) често ги репродуцираат стереотипите што ги научиле од интернет. Тоа значи дека жените може почесто да бидат поврзувани со “емотивни”, “негувачки” или “сексуализирани” карактеристики, додека мажите со “рационални”, “лидерски” или “технички”. Пример: Кога се користи AI за автоматско пишување реклами или содржини, тие можат несвесно да пренесуваат родово пристрасни пораки. 
  • Ограничен пристап до услуги AI се користи и во препораки за кредити, здравствени услуги, па дури и во судски системи. Ако податоците на кои се базираат тие системи ја фаворизираат една група (на пр. мажи со стабилни приходи), жените може да имаат помали шанси да добијат услуга, дури и кога ги исполнуваат сите критериуми. 

 Заклучок од ова поглавје: AI пристрасноста не е само код или техничка грешка – тоа е продлабочување на постојните нееднаквости. Доколку не се препознаат и корегираат овие проблеми, AI може да ги зацврсти родовите разлики наместо да ги намали.

  1. Можни решенија и идни насоки 

Иако пристрасноста во вештачката интелигенција претставува сериозен предизвик, постојат конкретни чекори и стратегии кои можат да се преземат за да се намали или елиминира родовата нееднаквост. Клучот е во етички дизајн, инклузивност и транспарентност. 

  1. Разновидност во тимовите што развиваат AI 

Една од главните причини зошто AI системите се пристрасни е тоа што се дизајнирани од неколкучлени, често хомогени тимови – претежно машки, белци, од одредени економски и културни средини. 

РЕШЕНИЕ:

 – Вклучување на жени, LGBTQ + лица, луѓе од различни раси и култури во AI развојни тимови;

– Поддршка на програми за едукација и вклучување на жени во технологијата (STEM области).

  1. Квалитетни и балансирани податоци 

Алгоритмите учат од податоци – ако тие се пристрасни, и резултатот ќе биде пристрасен. 

РЕШЕНИЕ: 

– Користење на диверзитетни, родово и културно балансирани податочни сетовиl;

 – Регуларни проверки на податоците за скриени стереотипи или диспропорции;

– Тестирање на алгоритмите со сценарија што ги вклучуваат сите општествени групи.

  1. Примена на „тестови за правичност“ (Fairness Audits)

 Секоја AI алатка треба да помине низ етички и функционален аудит – тестови кои проверуваат дали одлуките се правични за сите групи. 

РЕШЕНИЕ: 

– Развој на правни и технички стандарди за фер алгоритми;

– Регулативи кои ќе бараат транспарентност и одговорност од компаниите .

  1. Образование и јавна свест

Потребна е свест кај пошироката јавност, но и кај самите инженери и истражувачи за потенцијалните последици од родовата пристрасност. 

РЕШЕНИЕ: 

– Вклучување на предмети по AI етика и родова еднаквост во технологија во образованието;

– Обуки за развивачи и лидери во тех-секторот ;

– Промоција на истражувања што го анализираат влијанието на технологијата врз ранливи групи.

  1. Законска рамка и етички кодекси 

Многу земји веќе работат на создавање законска регулација за употреба на AI во критични области како здравство, правосудство и вработување. 

РЕШЕНИЕ: 

– Воведување на закони кои забрануваат дискриминација базирана на алгоритми;

– Развивање на етички кодекси што ќе ги следат и академските институции и приватните компании.

 Крајнта мисла е тоа што AI не мора да биде непријател на родовата еднаквост, туку баш напротив, ако се дизајнира со одговорност, етика и инклузивност, може да биде моќен сојузник во борбата против дискриминацијата. Технологијата сама по себе не е добра или лоша, но важно е како ја користиме и кој има контрола врз неа.

6. Улогата на образованието и јавната свест во спречување на алгоритамската пристрасност 

Освен техничките и регулаторните решенија, еден од најмоќните начини за справување со родовата пристрасност во вештачката интелигенција е преку образование и подигнување на јавната свест. Колку повеќе луѓето разбираат како функционираат алгоритмите и каде може да се појави пристрасност, толку се поголеми шансите да се спречи нејзиното ширење. 

  1. Едукација за AI и родова еднаквост 

Многу често, развивачите и инженерите не се ни свесни дека креираат пристрасен систем. Затоа е важно уште во раните фази на образование (особено во STEM области) да се вклучи материја за:

 -Родова еднаквост во технологијата ;

 -Етичко програмирање ;

 -Општествено влијание на технолошките решенија .

Според извештајот на UNESCO (2019), вклучувањето на родова перспектива во дигиталното образование може да го намали „пристраниот код“ уште пред да биде напишан.

  1. Јавна свест и медиумска писменост 

Општата популација често користи AI (како Google, TikTok, Spotify, ChatGPT), но без реална свест што се случува „во позадина“. Ако корисниците не знаат дека AI може да биде пристрасен, тогаш и не можат да го препознаат или оспорат проблемот. Потребни се:

– Kампањи за јавна едукација;

 – Програми за медиумска писменост;

– Отворени податоци и транспарентност од страна на компаниите.

Образованието не треба да биде само за програмирање, туку и за разбирање на последиците од технологијата. Ако сакаме AI кој работи за сите, треба сите да знаат како функционира и кои ризици носи.

7. Етички и правни предизвици во регулирањето на алгоритамската пристрасност

Со експоненцијалниот раст на употребата на вештачка интелигенција во различни сектори почнувајќи од финансиски и здравствени системи, па се до правосудство, вработување и образование, сè погласно се поставува прашањето за нејзината етичка и правна регулација. Иако AI има потенцијал да го унапреди квалитетот на живот, нејзината неконтролирана примена може да доведе до сериозни последици, особено кога станува збор за пристрасност и дискриминација. Еден од најголемите предизвици во оваа област е т.н. “опакоста” (opacity) на алгоритмите, односно нивната неспособност за транспарентно објаснување на одлуките што ги донесуваат. На пример, доколку еден алгоритам автоматски одбие апликација за кредит или одбере машки кандидат пред женски во процес на регрутација, на корисникот често не му е јасно зошто тоа се случило. Овој недостаток на „објаснивост“ (explainability) го прави речиси невозможно утврдувањето на одговорност и правна заштита. Во моментов, во повеќето држави не постојат јасни и конкретни закони што ги обврзуваат технолошките компании да проверуваат дали нивните AI-системи се правични и неутрални. Приватниот сектор, особено големите тех-гиганти, често самостојно одлучува дали и како ќе ги евалуира своите системи, без задолжителни етички проверки. Ова води до голем ризик за репродукција (или дури засилување) на веќе постоечките социјални и родови нееднаквости. Во Европската Унија, започна формулирање на првиот сеопфатен правен документ за регулирање на вештачката интелигенциј, таканаречениот „AI Act“. Овој предлог-закон предвидува класификација на AI-системите според нивото на ризик: од нискоризични (како chatbot-и), до високоризични (како алгоритми што се користат за судски одлуки, медицинска дијагноза или регрутација). За системите со висок ризик, се бараат засилени мерки за транспарентност, правична обработка на податоци и обврска за човечки надзор. Дополнително, етичките предизвици се поврзани и со прашањата: Кој ја носи одговорноста кога алгоритмот ќе направи грешка? Како се обезбедува информирана согласност од страна на корисниците? Дали постојат механизми за жалба кога AI систем ќе донесе штетна одлука? Некои организации предлагаат воведување на т.н. “алгоритамски ревизии” – редовни, независни проверки што ќе ја оценуваат правичноста, точноста и пристрасноста на алгоритмите. Други препорачуваат создавање на национални или интернационални тела што ќе издаваат етички дозволи, слични на медицинска етика комисија. Во суштина, додека технологијата напредува со огромна брзина, правните и етичките рамки значително заостануваат. Потребна е мултисекторска соработка меѓу влади, технолошки компании, академски институции и граѓанското општество, за да се осигура дека вештачката интелигенција ќе биде одговорна, транспарентна и инклузивна.

8. Заклучок

 Вештачката интелигенција е една од највлијателните технологии на денешницата, со огромен потенцијал да го обликува начинот на кој живееме, работиме и комуницираме. Но, со тој потенцијал доаѓа и одговорност, особено кога станува збор за фер и еднаков третман на сите луѓе, без разлика на пол, род или друга припадност. Преку анализата во оваа семинарска работа се покажа дека алгоритмите не се имунизирани на општествените неправди. Напротив, кога се дизајнирани и тренирани врз пристрасни податоци, тие не само што ги репродуцираат постојните родови нееднаквости, туку можат и да ги влошат. Примерите од Amazon, MIT и Google јасно покажуваат дека AI може да направи штета доколку не се води грижа за инклузивност и етички дизајн. Сепак, AI исто така може да биде алатка за промена, доколку во неговиот развој се вклучат различни перспективи, доколку се користат балансирани податоци и доколку се вградат механизми за откривање и корекција на пристрасноста. Вклучувањето на жени и маргинализирани групи во технолошките процеси, како и донесувањето на соодветна законска рамка, се клучни чекори кон пофер дигитална иднина. На крајот, не се работи само за технологиј, се работи и за луѓе. Ако сакаме AI што ќе работи за сите, мора да се погрижиме да го изградиме со сите.

8. Користена литература / Референци 

https://unesdoc.unesco.org/ark:/48223/pf0000367416

http://proceedings.mlr.press/v81/buolamwini18a.html

https://www.theguardian.com/technology/2018/oct/10/amazon-hiring-ai-gender-bias-recruiting-engine
https://www.science.org/doi/10.1126/science.aax2342
https://www.theguardian.com/technology/2020/feb/07/google-translate-gender-bias-artificial-intelligence

. https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
https://unesdoc.unesco.org/ark:/48223/pf0000367416
https://ainowinstitute.org/discriminatingsystems.pdf
https://chatgpt.com/share/67eedccd-0c10-8003-a9ff-8b152f460b77
https://www.science.org/doi/10.1126/science.aax2342
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
https://www.theguardian.com/technology/2020/feb/07/google-translate-gender-bias-artificial-intelligence
https://www.theguardian.com/technology/2018/oct/10/amazon-hiring-ai-gender-bias-recruiting-engine
https://ainowinstitute.org/discriminatingsystems.pdf