Родови предрасуди во алгоритмите на вештачка интелигенција 

Published by

on

Ftv9tass

Авторка Искра Стојчевска 

2

1. ВОВЕД 

Во последните неколку децении, вештачката интелигенција (ВИ) прерасна од футуристички концепт во реалност што сè повеќе го обликува секојдневието на луѓето ширум светот. Оваа технологија наоѓа примена во широк спектар на области – од здравство и финансии, преку правосудство и образовни системи, до маркетинг, јавна администрација и дури и во културните и социјалните мрежи. Преку способноста за автоматско учење, предвидување и донесување одлуки, ВИ има потенцијал значително да го подобри квалитетот на животот, да ја зголеми ефикасноста во јавните и приватните институции, и да овозможи нови форми на иновации. Но, покрај сите позитивни очекувања и достигнувања, оваа технологија со себе носи и сериозни етички, социјални и политички предизвици, особено во однос на прашањата за еднаквост, вклученост и недискриминација. 

Еден од најзначајните и најзагрижувачките аспекти што се јавуваат при дизајнот и имплементацијата на ВИ-системите е прашањето на родовата пристрасност. Иако технологијата се смета за неутрална, реалноста покажува дека алгоритмите многу често ги репродуцираат, а понекогаш и ги зајакнуваат постоечките општествени нееднаквости, вклучително и оние базирани на род. Овие родови предрасуди не секогаш се резултат на отворена или намерна дискриминација. Напротив, тие често настануваат како последица на несоодветна селекција на податоци, историска пристрасност во примероците, и недостаток на разновидност меѓу луѓето кои ги дизајнираат и тестираат алгоритмите. 

На пример, кога алгоритмите се обучуваат врз податоци кои во себе содржат историска нееднаквост (како што се случаи на недоволна застапеност на жени во одредени професии), системот го учи истиот шаблон и несвесно го продолжува. Така, при регрутација, автоматизирани системи може да фаворизираат машки кандидати, само затоа што досегашните успешни апликанти биле претежно мажи. Ваквите последици не само што го ограничуваат пристапот на жените до одредени кариери или услуги, туку дополнително го зацврстуваат впечатокот дека тие „не припаѓаат“ во одредени домени. 

Дополнителен фактор што го засилува проблемот е недоволната застапеност на жени во самата индустрија на вештачка интелигенција. Поголемиот дел од инженерите, научниците и донесувачите на одлуки кои стојат зад креирањето на овие системи се мажи, најчесто белци, што води до еднолична перспектива за тоа што е „нормално“, „релевантно“ или „објективно“. Оттука, прашањата кои се важни за жените често остануваат занемарени, а потенцијалните ризици не се идентификуваат навремено. 

Целта на оваа семинарска работа е да понуди длабинска анализа на појавата на родовата пристрасност во алгоритмите на вештачка интелигенција, да ги разгледа нејзините причини и механизми, како и последиците врз индивидуите 

3

и општеството во целина. Преку конкретни примери од праксата, ќе се прикаже како и зошто настануваат овие пристрасности, како и што можат да направат истражувачите, инженерите, институциите и јавноста за да се намали или елиминира нивното влијание. Дополнително, ќе бидат разгледани и тековните глобални и локални иницијативи кои се залагаат за праведен, транспарентен и одговорен развој на ВИ, особено од родова перспектива. 

Истражувањето на оваа тема не е само академски интерес, туку и клучен чекор кон изградба на пофер дигитална иднина, каде што технологијата нема да служи само на некои, туку ќе биде подеднакво корисна и праведна за сите – без разлика на пол, родов идентитет или социјален статус. 

4

2. ШТО ПРЕТСТАВУВА ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА? 

Вештачката интелигенција (ВИ) претставува една од најдинамичните и најбрзорастечки гранки на компјутерските науки. Таа се фокусира на развој на интелигентни системи и алгоритми кои имаат способност да извршуваат задачи што традиционално бараат човечка когнитивна способност. Меѓу овие задачи се вклучуваат препознавање на слики и модели, интерпретација и генерирање на природен јазик, разбирање на говор, донесување одлуки во комплексни ситуации, како и самостојно учење и подобрување врз основа на искуство. Овие технологии се повеќе добиваат на значење поради нивната примена во различни сектори – од здравство, финансии и образование, до транспорт, безбедност и забава. 

Најзначајните поткатегории на ВИ вклучуваат машинско учење (machine learning – ML), длабоко учење (deep learning – DL), и обработка на природен јазик (natural language processing – NLP). Машинското учење претставува методологија преку која алгоритмите учат од податоци и го подобруваат своето однесување без експлицитно да бидат програмирани. Во рамки на ML, длабокото учење користи невронски мрежи со повеќе слоеви, што овозможува анализа на многу комплексни обрасци во податоците – особено кај апликации како препознавање на слики или гласовни асистенти. Од друга страна, обработката на природен јазик се фокусира на овозможување на машините да ја разберат, анализираат и генерираат човечки јазик, со што се олеснува интеракцијата меѓу луѓето и машините. 

Со експлозивниот пораст на достапни дигитални информации и податоци – познат под поимот „big data“ – алгоритмите на машинско учење добија нова димензија на ефективност и примена. Големите податочни множества овозможуваат алгоритмите да откријат шаблони и корелации што би биле недостижни за човековиот разум. Тие се користат за креирање персонализирани препораки, автоматско детектирање на измами, дијагностицирање болести, и многу повеќе. 

Сепак, овој напредок не доаѓа без цена. Имено, еден од најзначајните ризици поврзани со алгоритмите на ВИ е нивната чувствителност на квалитетот, структурата и разновидноста на податоците што се користат за нивно тренирање. Бидејќи алгоритмите учат од историски или тековни податоци, тие можат лесно да „научат“ и несвесно да репродуцираат постоечки социјални предрасуди и нееднаквости. На пример, ако податоците содржат родови стереотипи, расни дискриминации или економски нерамнотежи, алгоритмите ќе ги интегрираат овие пристрасности во своите предвидувања и одлуки. 

Така, клучниот предизвик не лежи само во техничката ефикасност на алгоритмите, туку и во прашањето: чии вредности и перцепции тие алгоритми ја рефлектираат? Во каков свет веруваат алгоритмите што ги креираме, и каква реалност репродуцираат? Овие прашања се од суштинска важност, особено кога 

5

станува збор за алгоритми што имаат реални импликации врз луѓето – како во случаите на селекција на кандидати за работа, процена на ризик во здравствени системи, или во полициски предиктивни модели. 

Затоа, разбирањето на структурата и потенцијалните ограничувања на ВИ не треба да биде резервирано само за технички експерти. Ова прашање станува тема и за општествените науки, етиката, правото, и родовите студии. Само преку интердисциплинарен пристап може навистина да се осигури дека ВИ нема да биде 

само технолошки напредна, туку и општествено одговорна. 

6

3. АЛГОРИТМИ И МАШИНСКО УЧЕЊЕ 

Родовата пристрасност претставува форма на систематска дискриминација што настанува кога алгоритмите на вештачка интелигенција – често несвесно – фаворизираат одреден пол, најчесто машкиот, на сметка на женскиот или небинарните родови идентитети. Оваа пристрасност не произлегува од зла намера или директна дискриминација од страна на програмерите, туку е резултат на длабоко вкоренети социјални, историски и културни фактори кои се пренесуваат преку податоците врз кои алгоритмите се обучуваат. Иако вештачката интелигенција често се претставува како објективна, неутрална и „слободна од човечки предрасуди“, вистината е дека таа ги одразува вредностите, пристрасностите и одлуките на општествата во кои се развива. 

Еден од најпознатите примери за родова пристрасност се случи со алгоритамот за автоматска селекција на кандидати што го користеше компанијата Amazon. Во обид да го автоматизира процесот на вработување, компанијата разви систем базиран на машинско учење што требаше да ги анализира биографиите на кандидатите и да одреди кој е најпогоден за технички позиции. Меѓутоа, бидејќи алгоритмот беше обучен врз податоци од претходни вработувања во компанијата – каде што најголем дел од вработените биле мажи – тој почна да ги рангира женските кандидати пониско, дури и кога тие имале слични или подобри квалификации. Алгоритмот „научил“ дека машките кандидати се почесто избирани во минатото и затоа ги фаворизирал во иднината. Amazon подоцна го повлече овој систем, но случајот остана пример за тоа како историските нееднаквости можат да бидат автоматизирани и институционализирани преку ВИ. 

Овој феномен е уште поопасен кога се користат алгоритми во сектори кои имаат големо влијание врз животите на луѓето – како што се здравството, судството или банкарскиот сектор. На пример, студии покажале дека некои алгоритми за препознавање на лица имаат значително помала точност кај жени со потемна кожа во споредба со белци мажи, што може да доведе до погрешна идентификација, дискриминација и дури полициска репресија. Причината не е дека алгоритмот „одбива“ да ги препознае тие лица, туку дека е обучен врз податоци кои првенствено содржат фотографии од луѓе од машки пол и бела раса. 

Овие примери укажуваат на еден поширок проблем: недостатокот на родова чувствителност во дизајнот, тестирањето и имплементацијата на алгоритмите. Како што забележува истражувачката Кејт Крофорд: 

„Алгоритмите не се објективни – тие се одраз на податоците и луѓето што ги создаваат.“ 

(Crawford, K. (2016). Artificial Intelligence’s White Guy Problem. The New York Times) 

7

4. РЕАЛНИ ПРИМЕРИ НА РОДОВА ПРИСТРАСТНОСТ ВО ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА 

Во текот на последната деценија, повеќе медиумски извештаи и академски анализи укажаа на конкретни случаи каде што алгоритмите на вештачка интелигенција покажале изразита родова пристрасност. Еден од најпознатите случаи е оној на Amazon, каде што компанијата развиваше алгоритам за автоматско селектирање на кандидати за вработување. Алгоритмот бил трениран врз податоци собрани од претходни апликации во текот на 10 години – период во кој доминирале мажи во техничките позиции. Како резултат на тоа, системот почнал автоматски да ги „оценува“ апликациите на жените пониско, дури и кога тие имале соодветни или подобри квалификации. Алгоритмот дури ги дискриминирал биографиите што содржеле зборови како „женски рагби клуб“ или „учествувала во женски технолошки форум“, што е јасен индикатор на системска пристрасност (Dastin, 2018). 

Друг пример доаѓа од областа на компјутерскиот вид (computer vision), каде што системи за препознавање лица покажале значително пониска точност при идентификација на жени со потемна кожа. Истражување од 2018 година, спроведено од MIT Media Lab, покажа дека некои комерцијално достапни системи имале стапка на грешка од над 34% при препознавање на жени со потемна боја на кожата, додека точноста за препознавање на мажи со светла кожа била над 99% (Buolamwini & Gebru, 2018). Таквата разлика не само што претставува технички проблем, туку има и реални последици за безбедноста, приватноста и правата на жените од различни расни и етнички позадини. 

Алгоритми на ВИ се користат и во правосудството, преку системи за проценка на ризик (risk assessment tools) кои треба да предвидат веројатност за повторно сторување на кривично дело. Иако родот не е експлицитен фактор, нееднаквите податоци и индиректните корелации доведуваат до различен третман на жените и мажите во судските одлуки. Во такви случаи, дури и „неутралниот“ алгоритам може да го засили постоечкиот дисбаланс и да доведе до неправедни судски одлуки. 

8

5. ПОСЛЕДИЦИ ОД РОДОВА ПРИСТРАСТНОСТ ВО ВИ 

Родовата пристрасност во вештачката интелигенција не е само технички пропуст – таа има длабоки последици врз општеството. Кога жените се систематски дискриминирани преку алгоритми, се зголемува родовиот јаз, се намалува довербата во технологијата, а нееднаквоста се репродуцира дури и во навидум „иновативни“ системи. На пример, дискриминацијата во автоматизирани системи за вработување може да доведе до помала застапеност на жени во технолошки сектори, што дополнително ја влошува состојбата, бидејќи недостигот од женски перспективи во развојот на алгоритми создава циклус на пристрасност. 

Исто така, пристрасноста може да има последици врз здравјето и безбедноста. Некои алгоритми во медицинска дијагностика се покажале помалку ефикасни при дијагностицирање на болести кај жени, бидејќи податоците се базирани претежно на симптоми пријавени од мажи. Во екосистем каде што ВИ се користи за препознавање ризик, предвидување на заболувања или управување со здравствени ресурси, ваквите пропусти можат да значат разлика меѓу живот и смрт. 

Kога жените се претставени како помалку способни во алгоритмите, тоа ја засилува стигматизацијата и социјалната дискриминација. Тоа испраќа порака дека жените се помалку вредни, што може да влијае врз самодовербата на младите девојчиња и нивната мотивација да се вклучат во СТЕМ професиите. 

9

6. ПРИЧИНИ – КАКО ДОАЃА ДО ПРИСТРАСТНОСТА 

Главната причина за родовата пристрасност лежи во податоците. Алгоритмите за машинско учење се „хранат“ со историски податоци, а ако тие податоци содржат предрасуди, алгоритмот ќе ги „научи“ и репродуцира. Историјата на човештвото, вклучително и современото општество, е полна со родови стереотипи: мажите како лидери и техничари, жените како поддржувачи или административен персонал. Кога овие податоци се користат за предвидување, системите се „објективни“ само толку колку што се објективни податоците на кои се базираат. 

Друга причина е недостатокот на разновидност во инженерските и програмерските тимови. Истражувања покажуваат дека мнозинството на ВИ-инженери и истражувачи се мажи, најчесто од слични културни и образовни средини. Недостатокот на женски гласови во развојните фази значи дека често нема свест за потенцијални родови импликации. Ова не е злонамерно, но е системски проблем што бара структурни промени во образованието, вработувањето и корпоративната култура. 

Дополнително, недостатокот на регулатива и етички стандарди ја влошува состојбата. Во многу земји, вклучително и Северна Македонија, сè уште не постојат прецизни законски механизми што ќе обезбедат родова еднаквост во дизајнот и примената на ВИ. Без транспарентност и отчетност, технолошките компании имаат слобода да дизајнираат системи кои несвесно продолжуваат да ги фаворизираат постоечките модели на моќ. 

10

7. КАКО ДА СЕ НАМАЛАТ РОДОВИТЕ ПРЕДРАСУДИ ВО ВИ 

Справувањето со родовата пристрасност во алгоритмите на вештачка интелигенција претставува комплексен, но неопходен процес кој вклучува технолошки, образовни, етички и политички аспекти. Иако ВИ нуди огромен потенцијал за развој, мора да се внимава тој развој да биде праведен и инклузивен. За таа цел, потребно е комбинирање на повеќе стратегии. 

Разновидност во податоците за тренирање – Еден од основните чекори е осигурување дека податоците што се користат за тренирање на алгоритмите се репрезентативни за различни групи – според пол, раса, возраст, култура, јазик и други социоекономски фактори. Податоците не смеат да бидат еднострано собрани или историски пристрасни. На пример, ако се креира модел за автоматска селекција на кандидати за работа, податоците мора да ги вклучуваат истите типови работни искуства и квалификации и од жени и од мажи, без историски филтри што ги маргинализираат жените. Ова бара инвестиција во етичко собирање и анализа на податоци, како и формирање на интердисциплинарни тимови кои ќе можат да ја препознаат потенцијалната пристрасност уште во фазата на дизајн. Не станува збор само за „додавање повеќе податоци за жени“, туку за критичко преиспитување на тоа кои податоци се вреднувани и како тие се користат. 

– Поголема застапеност на жени во развој на ВИ — Разновидноста во тимовите што ги дизајнираат и тестираат алгоритмите е клучна. Жените и другите маргинализирани групи често имаат уникатни искуства и перспективи што можат да укажат на проблеми што хомогените тимови не би ги препознале. Според извештајот на AI Now Institute (2020), само 15% од истражувачите во ВИ се жени. Овој родов јаз во професијата придонесува за тоа пристрасноста да остане „невидлива“ во техничките процеси. За да се надмине ова, потребни се државни и образовни политики што ќе ја поттикнат родовата инклузија во СТЕМ (STEM) полињата, почнувајќи уште од основното и средното образование. Програмите за менторство, стипендии за жени во ИТ, и поддршка за женски иноватори се само некои од начините за градење на поинклузивна ВИ заедница. 

– Регулативи, етички стандарди и транспарентност — Во отсуство на соодветна регулатива, приватните компании често ги ставаат на прво место профитните мотиви, наместо етичката одговорност. Затоа, потребно е воведување на јасни законски рамки кои ќе бараат транспарентност во процесот на дизајн, тренирање и примена на алгоритми. Овие регулативи треба да ги вклучуваат: 

11

● Обврска за тестирање на алгоритмите на пристрасност пред нивна применa. 

● Јавна достапност на критериумите и параметрите врз кои се донесуваат автоматизирани одлуки. 

● Право на објаснување (right to explanation) за луѓето погодени од автоматски одлуки 

● Воспоставување на етички комитети при поголемите технолошки компании 

– Во Европската Унија, ваквите напори се веќе започнати преку AI Act, првиот обид за регулирање на вештачката интелигенција на ниво на цела ЕУ. Но, за нивна ефективност, мора да се спроведат доследно и локално, со вклучување на граѓански организации и експерти по етика и родова еднаквост. 

12

8. ТЕКОВНИ ИНИЦИЈАТИВИ ЗА СПРАВУВАЊЕ СО РОДОВА ПРИСТРАСНОСТ 

Постојат неколку глобални иницијативи што активно работат на справување со пристрасноста во ВИ. Една од најпознатите е The Algorithmic Justice League, основана од др. Џој Буоламвини (Joy Buolamwini), која се бори против расната и родова пристрасност во системите за препознавање лица. Тие спроведуваат истражувања, објавуваат јавни извештаи и ја едуцираат јавноста за опасностите од алгоритамска дискриминација. 

Исто така, организацијата AI Now Institute при Универзитетот Њујорк објавува годишни извештаи во кои се анализираат проблемите со транспарентност, надзор и еднаквост во ВИ. Во 2019 година, тие го посочија недостигот од родова и расна разновидност како „криза за технолошката индустрија“. 

На локално ниво, сè уште недостасуваат организирани иницијативи во земји како Северна Македонија, но постојат позитивни сигнали. Неколку женски ИТ-заедници, како „Girls in Tech Skopje“, организираат обуки, семинари и настани за поттикнување на женската застапеност во технологијата. Факултетите и средните училишта сè повеќе нудат СТЕМ-наставни програми што се отворени и прилагодени за сите родови, а некои универзитети вклучуваат и модули за етика на ВИ во наставните програми. 

Потребна е меѓусекторска соработка помеѓу образовните институции, владините тела, технолошкиот сектор и граѓанските организации, за да се создаде култура на одговорен развој на ВИ, каде што правдата, еднаквоста и транспарентноста се централен приоритет. 

13

9. ЗАКЛУЧОК 

Развојот на вештачката интелигенција носи голем потенцијал, но и големи одговорности. Доколку не се внимава на начинот на кој се дизајнираат и применуваат алгоритмите, постои сериозен ризик од зацврстување на постојните социјални нееднаквости – особено на родов план. Пристрасноста не е проблем само на технологијата, туку и на општеството кое ја креира. Затоа, решенијата мора да бидат сеопфатни и да го вклучат секој сегмент на општеството. 

Справувањето со родовата пристрасност во ВИ бара: свесност и едукација, технолошки алатки и практики за тестирање на алгоритми, силни институции и етички стандарди, активно вклучување на жените и маргинализираните заедници во процесот на иновација. 

10. ЛИТЕРАТУРА 

– Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research. 

– Dastin, J. (2018). Amazon scrapped AI recruiting tool that showed bias against women. Reuters. 

– Crawford, K. (2016). Artificial Intelligence’s White Guy Problem. The New York Times. 

– AI Now Institute. (2019). Discriminating Systems: Gender, Race and Power in AI

– EIGE (European Institute for Gender Equality). (2023). Gender and Artificial Intelligence in the EU

– UNESCO. (2020). I’d Blush If I Could: Closing Gender Divides in Digital Skills Through Education

14