Пристрасност во вештачката интелигенција влијанието врз родовата еднаквост и патот кон правичните алгоритми

Published by

on

E8b3rdqj

 

Авторка Матеа Каралиева   

Вовед:

Вештачката интелигенција е претставена од машини и софтвери и е гранка од компјутерската наука која развива машини и софтвер со интелигенција .Трудовите велат дека таа е дизајн на интелигентен агент односно систем спосоен за перцепирање на околината и преземање на активности кои му ги максимизираат шансите за успех.

Вештачката интелигенција полека но сигурно станува дел од нашиот секојдневен живот и целосно го менува начинот на кој живееме. Нејзините алгоритми се на ниво на човековата интелигенција и секојдневно се користат во различни области од животот на пример во медицината. Во ерата на дигиталната револуција, вештачката интелигенција (AI) станува сè поприсутна во нашите животи, обликувајќи ги нашите секојдневни интеракции, деловни одлуки и општествени процеси.

Она што честопати е во сенка е прашањето за родовата еднаквост во овие алгоритми . Иако во денешницата тие алгоритми односно AI ни е претставен како неутрален објект сепак повеќе истражувања покажуваат дека може да се создаде родова пристрасност.Само 22% од АI професионалците се глобално жени што укажува на длабока родова нееднаквост во оваа област . Дали Вештачката интелигенција може да ги продлабочи проблемите со родовата еднаквост во светот или може да биде значително моќна алатка во борбата против неа .Токму оваа семинарска работа го опфаќа тоа прашање и има за цел да ги истражи начините на кои AI влијае врз родовата еднаквост и да понуди конкретни примери во родовата дискриминација и да го истражи патот кон развој на правични и родово сензитивни алгоритми .Темата е актуелна , бидејќи во време  кога технологијата се повеќе учествува во обликување на општеството , потребно е да се стреми и кон  родовата еднаквост .Оваа семинарска работа ги истражува формите и причините за пристрасноста во вештачката интелигенција , со посебен фокус на нејзините ефекти врз родовата еднаквост .

Главен дел :

Разбирање на пристрасноста во вештачката интелигеција 

Вештачката интелигенција функционира врз основа на податоци и алгоритми , ова е некој одреден доказ дека таа не е имуна на пристрасности . Напротив таа може да ги наследи репродуцира па дури и засили постоечките социјални нееднаквости .За да може полесно да разбереме како функционира ова мора да ги разгледаме видовите на пристрасност и начинот на кој тие се вгнездуваат во технолошките системи .

Пристрасноста во вештачката интелигенција е произведена од   луѓето што ја развиваат технологијата од податоците кои тие ги користат и од општествениот контекст во кој системите се имплементираат .Првиот извор на пристраснот се податоците за обука или training data кои претставуваат збир на информации (текст, слики , броеви , звуци ) кои се користат за обучување на модел на вештачката интелигенција . Односно тоа е примерок од светот кој на алгоритмот му се дава за да научи како да препознава шаблони, донесува одлуки или предвидува одредени резултати.Доколку податоците за обука содржат пристрасности тогаш алгоритмот ќе има во    предвид пристрасна слика за светот што ќе ја применува понатаму и може да доведе до неправедни и дискриминаторни резултати. 

Алгоритмите на Вештачката интелигенција учат од историјата , а историјата често е обележана со системски нееднаквости. Вештачката интелигенција нема да направи разлика помеѓу тоа што било и тоа што правилно треба да е .

Пристрасноста во Вештачката интелигенција се јавува кога алгоритмите , обучени на податоци што содржат историски и општествени предрасуди , произведуваат резултати што се неправедни или дискриминаторски .

Постојат неколку вида на пристрасности во системите на Вештачката Интелигенција :

  •  Пристрасност во податоците (data bias)-  кога обуката на моделот на алгоритмот се сведува на нецелосни , нерамномерни и ли историски дискирминаторни податоци .
  • Пристрасност во дизајнот (design bias)- кога луѓето кои се креатори на алгоритмите прават одредени претпоставки , свесно или несвесно , со кои ги обликуваат резултатите 
  • Пристрасност во толкувањето (interpretation bias)- кога резултатите на Вештачката Интелигенција се интерпретирани така што се репродуција дискриминацијата и родовата нееднаквост.

Пристрасноста може исто така да биде и индиректна односно доколку одредени групи имаат системска нееднаквост во пристап до образование или професионални можности тогаш алгоритмот индиректно ќе ги дискриминира токму поради тие неутрални карактеристики .

Сериозноста на пристрасноста се повеќе добива и глобално внимание особено преку работата на истражувачи како што е Џој Буоламвини која во своето истражување открива дека системите за препознавање на лица кај паметните уреди имаат  најголем процент на грешки кај жени со потемен тен . Во една студија се покажува точност од 99% за препознавање на мажи со светла кожа ,но само 65% кај жени со потемна кожа.

Причината за ова е многу едноставна : алгоритмите односно нивните податоци за обука во ова истражување се претежно мажи со светол тен.

Пристрасноста не е само технички проблем таа е воедно и етички и општествен проблем.Доколку се дозволи Вештачката Интелигенција да носи одлуки базирани на неточни или дискриминаторни претпоставки тоа значи и дека технологијата ја легитимира дискриминацијата. Алгоритмите често се доживувани како објективни , според тоа нивните одлуки често се сметаат за точни што ја прави пристрасноста тешко препознатлива и уште потешко исправлива .

Влијание на пристрасноста на вештачката интелигенција врз родовата еднаквост 

Развојот на Вештачката Интелигенција претставува значителен технолошки напредок ,но истовремено отвара низа и општесвтени и етички прашања. Едно од најзагрижувачките е начинот на кој пристрастите во ситсемите на Вештачката Интелигенција влијае врз родовата еднаквост . Наместо да влијаат на унапредување на еднаквоста на половите , некои алгоритми се повеќе ја продлабочуваат нееднаквоста која воедно е историски проблем . Во овој дел од семинарската работа  детално се посветува внимание на трите клучни начини на кои пристрасноста во вештачката интелигенција влијае врз жените и родово маргинилизираните групи:

  • Дискриминација во процесите на вработување 
  • Исклучување преку системите за препознавање 
  • Репродукција на родови стереотипи во јазични модели и медиумски содржини 

Дискирминација во процесите на вработување :

Вештачката интелигенција се повеќе се користи за автоматизирање на процесите за селекција на кандидати  , од скенирање на биографии до рангирање и филтрирање на апликанту. Иако ова може да го забрза процесот на бирање на кандидатите во големите компании исто така носи ризик и од вградување на пристрасност . 

Пример за ваква пристрасност при процес на вработување е команијата Amazon каде што јасно се гледа нагласената пристрасност кој мажите . Алгоритмот бил обучен соо податоци од последните 10 години во кои доминирале кандидати од машкиот пол . Како резултат на тоа системот ги намалувал оценките на CV  во кои се споменувале зборови поврзани со жени , додека пак мажите добивале профили со повисоки оценки 

.

Имено во 2014 година Amazon развива внатрешен алгоритам за автоматска селекција на кандидати за работа, која имала за цел да помогне во скенирање и рангирање на апликации со цел да заштеди време на рекрутерите. Притоа алгоритмот користел машинско учење , машинско учење е гранка на вештачката интелигенција која им овозможува на компјутерите да учат од податоци и искуство без да бидат ескплицитно програмирани за секоја задача односно самите откриваат шаблони и шеми како да ги решат дадените пробеми .Алгоритамот на Амазон притоа добива податоци стари 10 години од CV на  кандидати кои предходно се вработиле . Тука јасно се гледа дека според историските податоци кои му биле дадени на алгоритмот  тие рефлектирале со маштка доминација во технолошките позиции што значи дека :

  • Машките CV биле почесто одобрени 
  • Жените биле помалку застапени во вработувањата 

Тоа доведува алгоритамот на компанијата на научи дека CV на кандидатите од машкиот пол се подобри од тие на женскиот пол.

Овој пример јасно ја демонстрира системската природа на пристрасноста бидејќи машината учи од историските податоци , а не бидејќи алгоритмот “мрази “ жени.Доколку во минатото жените помалку се вработувале алгоритмот учи дека машките апликанти се повеќе посакуван модел . Ваквата дискриминација не само што го намалува пристапот на жените до повеќе работни места туку и го влошува нивниот професионален развој , финансиката независнот и општествената мобилност .

Дополнително според одредени истражувања постојат системи кои анализираат видео снимки од интервјуа при што користат алгоритми за анализа на говор на телото и интонациа која јасно укажува на тоа дека таквите системи често погрешно ги интерпретираат женските гласови и емоции што резултира со пониски оценки и понекогаш дури и исклучување од самиот процес на вработување.

Исклучување преку системите за препознавање 

Системите за препознавање на лице и глас стануваат многу актуелни во јавниот и приватниот сектор . Тие се користат за надзор , безбедност , идентификација дури и за контрола на влез во одредени простории.

Сепак овие системи покажуваат значително пониска точност кога идентификуваат жени и луѓе со потемна боја на кожа , ообено кога станува збор за жени припаднички на етничките малцинства.

Истражувачката Џој Буоламвини од тимот н МIT  открива дека алгоритмите за прпознавање на лице од компании како IMB , Microsoft , Face ++  имаат точност од 99% за мажи со светол тен но само 65% точност за жени со потемен тен . Причината за тоа е што податоците за обука главно содржеле фотографии од мажи со светол тен . Ваквата нееднаквост може да доведе до сериозни последици :

  • Жени може да се погрешно идентификувани , што е опасно при гранични премини или полоциска проверка 
  • Некои системи за надзор може неправедно да ги профилираат одредени жени ставајќи ги во неповолна позиција 
  • Жени кои не се препознаени од машината може да бидат исклучени од одредени процеси како што е дигиталната идентификациа ,  smart уредите  итн..

Овие грешки не се само технички грешки , тие се последица на неетичко и неинклузивно програмирање . Жените особено оние кои припачаат на маргинализираните групи стануваат жртви на дигитален систем кој не ги признава како рамноправни учесници .
Системите за препознавање на лице , глас и телесни движења се основа на многу современи технологии , биометриски безбедности системи , паметни надзорни камери и дигитални (виртуелни ) асистенти . Иако ваквите системи ветуваат поголема ефикасност и безбедност тие носат сериозни ризици доколку се базираат на неинклузивни податоци за обука. Особено ранлива категорија се жените и лицата од расни и етнички малцинства , кои често се погрешно идентификувани или се целосно изоставени.

Исто така важен аспект е културната и родовата неосетливост на алгоритмите . На пример алгоритми тренирани на податоц од западен контекст имаат тешкотии при преознавање на ликови од азиско арапско или африканско потекло особено кога носат традиционална облека или шминка. Некои системи дури не можат точно да ја детектираат воздраста или полот што може да доведе до неправилно категоризирање , исклучување или повреда на идентитетот на индивидуата, особено кај небинарни или трансродови лица.

Решението на овој пробем би бил етички развој на овие технологии како и редовна проценка на влијанието. Тоа подразбира:

  • Вклучување на податоци за обука на алгоритми со застапеност на жени од различни раци , етнички групи и култури.
  • Тестирање и сертификација на алгоритмите пред нивна употреба во јавни институции.
  • Развој на транспарентни системи каде граѓаните ќе имаат пристап до информации како и зошто некој алгоритам донел одлука .

Репродукција на родови стереотипи во јазични модели и медиумски содржини

Јазичните модели , како оние што ги користат Google Translate , ChatGPT или виртуелните асистеннти , учат од огромна количина на текстуални податоци кои се земени од интернет.Тоа значи дека тие модели ја апсорбираат целокупната јазична и културна содржина вклучувајќи ги и родовите стереотипи.

Примери за родови стереотипи во јазични модели :

Преведување на зборови од родово неутрални јазици ( турски , фински ) каде што  Google Translate  ги претвара неутралните зборови во машки род односно зборовите шеф , инженер, лекар а додека зборовите за медицинска сестра , учителка , домаќинка директно ги преведува во женски род.

Виртуелните асистенти користат женски пријатен милозвучен глас и се програмирани да бидат послушни , љубезни , пројателски настроени , со што се репродуцира улогата на жената како сервисна фигура.Јазичните модели кога генерираат текстови често асоцираат на “женски “ со зборови како “убава , чуствителна емотивна ‘’ , a ‘’ машки “  со “силен , лидер рационален “, со тоа се повеќе се зацврстуваат стереотипите.Овие мали но постојани репродукции на стереотипите создаваат општесвтена перцепција која го одржува нерамноправниот статус на жените. Треба се повеќе да се стремиме да ја користиме Вештачката Интелигенција за рушење на предрасудите со цел да не се добие ефект на одржување на истите општесвтени шеми кои сега само се признаваат од технологијата.Овие три форми на влијание покажуваат дека пристрасноста во Вештачката Интелигенција не е само технички недостаток туку и општествен проблем со родовата еднаквост . Затоа нејзиниот развој и употреба треба да се засноваат на принцип на етичност , инклузивност и одговорност.

Патот кон фер и непристрасни алгоритми 

По увидот во реалните опасности што ги носи пристрасноста во вештачката интелигенција, особено врз родовата еднаквост , се наметнува прашањето : како можеме да креираме фер , инклузивни и транспарентни алгоритми ?

Патот кон фер алгоритми не е едноставен , но веќе постојат стратегии и иницијативи кои се насочени кон ублажување на пристрасноста и промовирање на одговорна употреба на машинското учење.

Етички дизајн и одговорен развој на алгоритми 

За да се намали пристрасноста потреба е етиката и одговорноста да бидат вградени во целиот животен циклус на вештачката интелигенција од првиот дизајн до нејзината обука и имплементација .

Етичкипт дизајн значи дека програмерите , истражувачите и компаниите треба да земат предвид не само технича ефикасност туки и социјалните последици од своите алгоритми .Ова вклучува:

  • Системско проверување на пристрасност во податоците
  • Предвидување на потенцијални дискриминаторни последици 
  • Разработка на алатки за етичка проценка при секој чекор од развојот 

Диверзитет во тимовите што ги креираат алгоритмите 

Многу истражувања покажуваат дека разновидни тимови (по пол , етничка припадност , културно потекло  и професионално искуство ) имаат поголема шанса да развијат балансирани и инклузивни технолошки решенија . Кога технологијата се креира од луѓе со слични искуства  и перспективи , се зголемува ризикот да се маргинализираат или игнорираат групи кои се различни од нив .

Затоа , вклучување на жени , небинарни лица , припадници на малцинства и различни професии се клучно за проширување на перспективите при анализа на податоци , пдообро препознавање на пристрасности , подобро разбирање на етичките и кулутрните последици од технологијата .

Правила , закони и надзор:Регулација на Вештачката Интелигенција 

Еден од најважните чекори кон фер алгоритми е воведување на јасни правни и институционални механизми за контрола и регулација на вештачката интелигенција. 

Европската Унија  го превзема водството преку воведување на AI- ACT  што претствавува првиот закон што ја регулира Вештачката Интелигенција на ниво на цело континент .Тој јасно поставува категории на ризик и пропишува :

  • Забрана на опасни и дискриминаторни системи на Вештачката Интелигенција ( ги  вклучува и оние кои прават полова дискриминација )
  • Обврска за транспарентност кај чуствителни алгоритми 
  • Независен надзор и санкции за злоупотреба 

Исто така покрај ЕУ , важна е и улогата на невладините организации , истражувачи  и новинари кои треба да имаат пристап до алатки за проверка на алгоритмите , со што ќе се обезбери јавна контрола и одговорност .

Заклучок:

Развојот на вештачката интелигенција претставува едно од најзначаните достигнувања на 21 -от век , но истовремено носи и сериозни предизвици , особено кога станува збор за прашањата на пристрасност и родова еднаквост . Како што е прикажано низ оваа семинарска работа , алгоритмите не се неутрални – тие ја одразуваат реалноста која а учат , а таа реалност е често полна со историски и струтурни неправди .

Пристрасноста во податоците за обука , недостатокот од разновидност во дизајнерските тимови, како и отсуство на етички стандарди во многу технолошки компании доведуваат до дискриминација , особено врз жените и другите маргинализирани групи. Конкретни примери, како случајот со Амазон и неуспесите на системите за препознавање лице, го потврдуваат ова и укажуваат на потребата од длабоки реформи во начинот на кој се развива и применува вештачката интелигенција.

Но исто така можеме да препознаеме и јасни насоки на подобрување : поголема етичка одговорност . транспарентност , инклузивност во тимовите , деф податоци и правна регулација . Само преку овие пристапи може да се осигури дека Вештачката интелигенција нема да ја продлабочува постојаната нееднаквост , туку ќе биде алатка за социјална правда и  родова еднаквост .

Вештачката интелигенција има потенцијал да биде моќен инструмент за социјален напредок, но исто така и опасност за продлабочување на постојните нееднаквости. Ако не се внимава, алгоритмите ќе ги легитимираат историските неправди. Затоа, неопходно е да се развиваат инклузивни, транспарентни и етички системи кои ќе придонесат кон родова еднаквост и социјална правда. Технологијата не треба да биде извор на дискриминација, туку алатка која ќе овозможи поправедно општество.

Во иднина, важно е универзитетите, технолошките компании и институциите за јавна политика да соработуваат во развојот на алатки што ќе ја намалат пристрасноста и ќе ја зајакнат довербата во ВИ. Само преку таква меѓусекторска соработка можеме да изградиме дигитален свет кој е еднаков за сите.

Клучното прашање денес не е дали да се користи Вештачката Интелигенција , туку како и за кого . Одговорноста за создавање праведна дигитална иднина ја сносиме самите ние  од истражувачите , програмерите , политичарите  и граѓаните што ги користат овие технологии секој ден .

Користена литература

  Buolamwini, J., & Gebru, T. (2018).
Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.
MIT Media Lab.
https://proceedings.mlr.press/v81/buolamwini18a.html

European Commission (2021).
Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

  Crawford, K. (2021).
Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence.
Yale University Press.
ISBN: 9780300209570

 UNESCO (2021).
Recommendation on the Ethics of Artificial Intelligence.
https://unesdoc.unesco.org/ark:/48223/pf0000380455

  Amazon recruiting tool reportedly showed bias against women.
Reuters, 2018.
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G

 Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021).
A Survey on Bias and Fairness in Machine Learning.
ACM Computing Surveys.
https://arxiv.org/abs/1908.09635

  AI Now Institute (2019).
Discriminating Systems: Gender, Race and Power in AI.
https://ainowinstitute.org/discriminatingsystems.html