Родова пристрасност во вештачката интелигенција 

Published by

on

Радица Николова

Вовед 

Вештачката интелигенција секојдневно го зголемува своето присуство во многу  различни аспекти од општеството. Денес вештачката интелигенција се користи во  многу процеси за носење одлуки – како здравство, финансии, вработувања и слично.  Едноставно, животот денес не би бил тоа што е без да постои вештачката  интелигенција. Но, кога ќе се каже оваа реченица малку е нејасно дали животот со  вештачка интелигенција е подобар или полош.  

И покрај користа од вештачката интелигенција, системите кои ја користат не се  воопшто неутрални – честопати тие, може да прикажат некои стереотипи и лоши  расудувања. Вештачката интелигенција не е имуна на општествените предрасуди во  податоците од кои учи. Особено загрижувачка е родовата пристрасност, која  произлегува од нееднаквоста низ историјата помеѓу мажите и жените, пристрасните  податоци од кои учат моделите и нивните алгоритми. Ова води до исход кој го  фаворизира машкиот пол – а спротивниот го става во спореден план.  

Во оваа семинарска ќе ги истражам начините на кои системите со вештачка  интелигенција покажуваат дека имаат родова пристрасност, како и нивното влијание  врз општеството и луѓето. Покрај тоа, посебен осврт ќе има и на можни стратегии за  намалување на оваа пристрасност. 

Разбирање на родовата пристраснот кај вештачката интелигенција 

Родовата пристрасност кај вештачката интелигенција се случува кога моделите за  машинско учење даваат излез кој систематски фаворизира еден род наспроти друг.  Оваа пристасност може да се случи поради различни фактори, вклучувајќи ја  селекцијата на податоци, алгоритамските процеси и општествените стереотипи.  Пристрасноста кај вештачката интелигенција може да се категоризира во три типови:

1. Веќе постоечка пристрасност: доаѓа од општествените структури и историски  нееднаквости кои неминовно се наоѓаат во податоците со кои се тренираат  моделите 

2. Техничка пристрасност: доаѓа од начинот на кој се прибираат, процесираат и  структурираат податоците во алгоритмите на моделите 

3. Последователна пристрасност: доаѓа од интеракциите на вештачката  интелигенција со реалниот свет 

Целосното разбирање на потеклото на пристрасноста е клучно за дизајнирање на  системи кои користат вештачка интелигенција и не се родово пристрасни.  Пристрасноста не е секогаш намерна, но сепак може да има сериозни последици и да  влијае врз начинот на кој луѓето комуницираат со технологијата. Еден од клучните  предизвици кога се зборува за родовата пристрасност кај вештачката интелигенција е  претпоставката дека технологија е инхерентно објективна. Во реалноста, вештачката  интелигенција е обликувана од луѓе во секој чекор на нејзиниот развој – од прибирање  на податоци, до дизајнирање на алгоритми, до самата нејзина имплементација. 

Потекло на родовата пристрасност кај вештачката интелигенција 

Позадината на вештачката интелигенција, моделите, се тренираат на огромни  податочни множества кои честопати содржат пристрасност. На пример, алгорими за  вработување кои се тренираат врз податоци од претходни вработени се открило дека  фаворизираат машки кадидати за технички работни места поради родовиот дисбаланс  во оваа индустрија. На сличен начин и јазичните модели кои се тренирани на податоци  од интернетот често покажуваат родови стереотипи. Пристрасноста на податоците е  еден од најголемите проблеми при развојот на вештачката интелигенција. Многу од  множествата кои се користат за тренирање на вештачка интелигенција потекнуваат од  извори кои не го претставуваат секој род подеднакво. Овој проблем особено може да  се забележи во NLP модели, кои што ги пресликуваат пристраностите од кои учеле. На  пример, модели за асоцијација на зборови се открило дека поврзуваат зборови како  “секретар” и “наставник” почесто со жени, а зборови како “инженер” и “научник” почесто се поврзуваат со мажи.

Дури и кога податочните множества се чини дека се неутрални, алгоритамските  процеси може да придонесат до појавување на пристрасност кај моделот. Ако некој  систем е оптимизиран да биде ефикасен без да се осигура дека е фер, односно дека  зема се што му е на располагање во предвид, можно е системот да почне да  фаворизира некои доминантни групи во податоците од кои е трениран. На пример,  системите за credit scoring кои се користат во САД и користат вештачка интелигенција,  покажуваат пристасност против женскиот род, што води до тоа жените почесто да  бидат одбивани за подигање на кредит.  

Техничкиот сектор, вклучувајќи го истражувањето и развојот на вештачка  интелигенција, сеуште е доминиран од мажи. Овој недостаток на секторот води до  “слепи точки” при развивање и тестирање на вештачката интелигенција, што повторно  придонесува до појавување на пристрасност. Балансирање на машкиот и женскиот род  во овој сектор може да помогне да се реши овој проблем. Едно истражување  покажало дека кога тимови кои се родово балансирани е поверојатно дека ќе  идентификуваат и поправат пристрасност во податочни множества и алгоритми.  Наспроти тоа, хомогените тимови може да не им обрнат внимание на родовите  нееднаквости поради тоа што тимот има една заедничка перспектива. Ова само ја  зајакнува потребата од поширока репрезентација на жени и малцинства во  развивањето на вештачката интелигенција. 

Примери на родова пристрасност кај вештачката интелигенција 

1. Алгоритми за вработување 

Еден пример кој се истакнува е алатката за автоматско рангирање на кандидати  за вработување на Amazon која користи вештачка интелигенција. Со нејзиното  користење, се откри дека алатката автоматски им дава пониска оцена на CV-а  кои користат зборови кои се поврзани со женскиот род. Алгоритмот, трениран  на податоци од претходни вработувања, само ги рефлектира родовите  неконзистентности во многу од индустриите. 

2. Софтвер за препознавање на лица 

Истражувањата на MIT Media Lab и National Institute of Standards and Technology  (NIST) имаат покажано дека системите за препознавање на лица имаат 

значително полоши перформанси врз женски лица и лица со потемна кожа, во  споредба со машки бели лица. На пример, според истражувањето на Џој  Буоламвини и Тимнит Гебру, комерцијалните системи за препознавање лица  имаат грешка од само 0.8% при препознавање на бели мажи, но грешката се  зголемува на 34.7% за жени со потемна кожа. Ова има многу сериозни  импликации доколку се применува во безбедносниот сектор. Постојат случаи  каде што луѓе биле погрешно идентификувани како криминалци поради  неточни резултати од системи кои користат вештачка интелигенција, што  довело до неправедни апсења.  

3. Чат-ботови и дигитални асистенти 

Многу виртуелни асистенти, како Siri, Alexa и Google Assistant, користат женски  глас и се програмирани да се однесуваат на потчинет начин. Ова создава  перцепција дека жените треба да бидат љубезни, услужливи и ненаметливи,  што дополнително ги засилува традиционалните родови стереотипи. Еден  пример за ова е фактот што во раните верзии, виртуелните асистенти не  реагирале соодветно на навредливи или експлицитни коментари – наместо да  ги осудат или игнорираат, тие одговарале на начин кој ја нормализирал  комуникацијата. Поради ова, UNESCO во извештајот “I’d Blush If I Could” предупредува дека ваквиот дизајн на дигиталните асистенти ја поддржува  родовата нееднаквост во општеството. Како резултат на ова, компаниите  почнале да превземаат чекори за намалување на оваа пристрасност. На  пример, Google вовел неутрален глас како опција за Google Assistant, а Apple ја  направил Siri поприлагодлива во однос на тонот и реакциите. Сепак, овие  промени се само почеток, бидејќи е потребен многу поширок и поагилен  пристап за намалување на пристрасноста.  

Последици од родовата пристрасност кај вештачката интелигенција 

Родовата пристрасност кај вештачката интелигенција има длабоки и долгорочни  последици врз различни аспекти од општеството. Бидејќи системите кои користат  вештачка интелигенција се повеќе се користат за носење одлуки во критични области  како што се вработување, финансии и здравство, нивната пристрасност може да  доведе до родова нееднаквост и да ги продлабочи постоечките стереотипи.

Алгоритмите за автоматизирано вработување кои покажуваат родова  пристрасност можат значително да ја намалат достапноста на работните позиции за  жените и да го засилат веќе постоечкиот дисбаланс во платите. На пример, системите  за рангирање на CV-ата кои фаворизираат машки кандидати автоматски ги потиснуваат  женските апликантки, дури и кога нивните квалификации и искуство се еднакви на  оние на машките кандидати. Ова не само што ги намалува шансите за вработување,  туку долгорочно придонесува кон намалување на бројот на жени во високи позиции и  технолошки индустрии. 

Дополнително, пристрасноста во системите за одобрување кредити може  значително да ја ограничи финансиската слобода на жените. Алгоритмите кои ги  анализираат финансиските податоци врз основа на историски модели може да им  доделуваат пониски кредитни резултати на жените, особено ако се претприемачки или  ако немаат долга кредитна историја. Ова резултира со потешкотии при добивање  заеми за бизнис или за станбени потреби, што го спречува економскиот напредок на  жените. 

Пристрасноста во здравствените системи базирани на вештачка интелигенција може да доведе до неточни или недоволно прецизни дијагнози кај жените. Историски  гледано, медицинските студии и клиничките испитувања главно биле спроведувани  врз машки пациенти, што значи дека многу алгоритми за анализа на медицински  податоци немаат доволно информации за симптомите и здравствените состојби кај  жените. 

Голем дел од содржината што ја консумираме денес е создадена од алгоритми.  Доколку овие алгоритми имаат вградена пристрасност, тие можат да прикажат  одредени родови стереотипи на суптилни, но значајни начини. На пример, системите  за преведување на јазици како Google Translate долго време покажувале родова  пристрасност. Кога англискиот збор doctorсе преведувал на одредени јазици, често  добивал машка форма, додека nurseдобивал женска форма, дури и ако  оригиналниот текст не укажувал на конкретен пол. Овој тип на пристрасност има  директно влијание врз перцепциите на луѓето за тоа кои професии им припаѓаат на  мажите, а кои на жените.

Поправање на родовата пристрасност кај вештачката интелигенција 

Родовата пристрасност во вештачката интелигенција не е неизбежна – со  соодветни стратегии и напори, таа може да се минимизира или целосно елиминира. За  да се постигнат поправедни и поинклузивни системи, неопходно е да се спроведат  повеќе мерки во различни фази од нивниот развој, од прибирање и обработка на  податоци, до дизајнирање на алгоритмите, до нивното тестирање и имплементација. 

Еден од клучните начини да се поправи родовата пристрасност е да се користат  по-инклузивни податоци за тренирање и по-репрезентативни податочни множества.  Ова, доколку е потребно, значи и вклучување на податоци кои се во спротивставеност  со стереотипите и кои промовираат родова еднаквост.  

Луѓето кои ја развиваат вештачката интелигенција исто така може многу да  помогнат во овој аспект, тие ја имаат можноста да имплементираат алатки за  детекција на пристрасност, да расудуваат колку моделот е “фер” и да вклучат  транспарентни механизми за генерирање на извештаи кои би помогнале во  идентификување и отстранување на родовата пристрасност пред моделите да се  пуштат во употреба. 

Дополнително, поттикнување на жените и малцинствата да се вклучат во  развојот на вештачката интелигенција исто така би можело да придонеси до  побалансирана перспектива. Ова може да биде постигнато со иницијативи за родова  еднаквост, менторства и промени на полиси во техничката индустрија.  

Од друга страна, и владите во државите во кои се развива вештачката  интелигенција би можеле да воспостават полиси кои бараат од системите кои користат  вештачка интелигенција да поминат низ некој вид на тестирање за да се одреди колку  системот е “фер”. Етичките принципи, како регулациите на Европската Унија, нудат  еден вид на шаблон за развивање на вештачка интелигенција без пристрасност.  

Заклучок 

Родовата пристрасност кај вештачката интелигенција претставува сложен и  сериозен проблем кој не е резултат само на самите алгоритми, туку и на пошироките 

општествени динамики и историски формираните нееднаквости. Ако ова не се  адресира и поправи, може да ја зголеми дискриминацијата и да ги зацементира  родовите стереотипи. Вештачката интелигенција сè повеќе се користи во одлучувачки  процеси—од вработување и здравство до образование и правосудство—што значи  дека нејзината пристрасност може да има директно влијание врз животите на луѓето,  особено врз жените и другите маргинализирани групи. Сепак, со внимателна селекција  на податоци, етички развој на вештачка интелигенција и иницијативи за родова  еднаквост би било можно да се креираат системи кои користат вештачка  интелигенција и немаат родова пристрасност. Решавањето на проблемот со родовата  пристрасност кај вештачката интелигенција не е само технолошки предизвик, туку и  општествена одговорност што бара заеднички напор од истражувачите, развивачите и  пошироката заедница. Само преку колективна свесност и труд може да се осигураме  дека вештачката интелигенција ќе биде алатка што го унапредува општеството,  наместо да ги одржува или влошува веќе постоечките нееднаквости и предрасуди. 

Библиографија 

• Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. (2016). Man is to  Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings. 

• Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy  Disparities in Commercial Gender Classification. 

• West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating Systems: Gender,  Race, and Power in AI. 

• UNESCO. (2020). Artificial Intelligence and Gender Equality: Key Findings and  Recommendations. 

• Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A Survey  on Bias and Fairness in Machine Learning.