Георгина Димитриевска
Вовед
Според истражувањата на глобално ниво жените се платени помалку за нивната работна сила, а исто така тие поретко застапуваат главни позиции во полињата на науката, технологијата, инженерството и математиката (STEM fields). Вештачката интелигенција ги трансформира животите на луѓето влијаејќи на скоро секој аспект од секојдневието сѐ посилно и посилно. Како резултат на ова би требало да се внимава за етичките импликации што произлегуваат за да се овозможи оваа нова технологија да има бенефит за целото човештво подеднакво а не само за некои одделни групи. Вакви слични концепти што ја потенцираат значајноста на тоа како е многу важно да се стремиме кон систем каде што потребите на сите луѓе ќе бидат задоволени има доста а, психологот М. Росенберг оди и чекор подалеку кажувајќи дека дури и преживувањето на човештвото зависи од способноста да се препознае дека нашата добросостојба и добросостојбата на другите луѓе е една и единствена. Во оваа семинарска се разгледува подетално зошто вештачката интелигенција понекогаш е наклонета кон само еден пол, кои се последиците од тоа како и што може да се преземе за барем да се ублажи овој проблем.
Содржина
Доста популарен проблем во светот е родовата еднаквост кој се пресликува и во вештачката интелигенција која со помош на алгоритми за машинско учење (кои се тренирани на големо количество на податоци) донесуваат важни одлуки како на пример кој треба да има приоритет за вакцинирање, кои кандидати ќе бидат викнати на интервју, колку кредит може да се понуди од страна на некоја финансиска институција итн. Според истражувањето спроведено од страна на центарот кој се занимава со родова еднаквост Berkeley Haas (Berkeley Haas Center for Equity, Gender and Leadership) од вкупно 133 анализирани системи од различни индустрии 44% од нив биле пристрасни кога станува збор за родот, а поголемиот дел од тие 44% имале поголем квалитет на услуга за мажите. Системите за препознавање на глас што се користат на пример во автомобилската индустрија и здравството имаат полош перформанс за жените отколку за мажите. Исто така и системите за преводи прават грешки со тоа што земаат неутрални термини и ги преведуваат како да имаат некаков род (на пример “the doctor” на англиски е преведено како “el doctor” на шпански со што се поддржува стереотип дека докторите можат да бидат само мажи) . Оваа појава е многу логична земајќи во предвид дека системите ги создале луѓе ( од кои што само 22% се жени што имаат понезначајни работни позиции ). Луѓето ги собираат и означуваат податоците од кои што алгоритмите учат за да прават предвидувања па оттука произлегува таа пристрасност. На слика 2 е прикажано кои се честите грешки кои се случуваат при собирање на податоци:
- Можеби примероци (data points) за одредени групи не постојат
- Некои индивидуи немаат пристап до технологија што би ги собрала тие податоци. Пример е дијаграмот подолу на кој се гледа како пристапот до интернет на мажите (обоено со темно сина боја) и на жените се разликува во различни земји.
Слика 1. Дијаграм кој споредува каков е пристапот до интернет за мажите и жените во различни земји според приходите
- Некои поединци не се согласуваат да се собираат податоци за нив од безбедносни причини
- Податоците не се разделени по групи ( пол, раса, етничка припадност итн.) што може да доведе до скриени информации
- Користење на податоци со предрасуди (рефлектираат некој постоечки предрасуди од општеството)
- На пример луѓето со темна боја на кожа во САД имаат поголема шанса да бидат уапсени поради расизам. Овие податоци како статистика потоа се користат за да се тренираат некои системи па циклусот продолжува.
- Лоша селекција на множество на примероци што ќе се користат за тренирање на системот
- На пример системот за препознавање на рак на кожа учи од слики кои содржат помалку примероци од потемна кожа
- Лошо означување (labeling) на податоците
- Означувањето на родот најчесто се премногу поедноставува во 2 категории
- Робот што е трениран на натпревар за убавина за да одреди што е “убаво” ги дискриминира луѓето со потемна кожа заради погрешно именување на множеството на податоци
Сл.2 Како се добиваат податоци со пристрасност?
Доста чести грешки што се прават при развивање на алгоритмот за машинско учење се :
- Главата цел е да се минимизира правењето на грешки при предвидување, а не се гледа како алгоритмот прави повеќе или помалку грешки зависно од некои променливи и слично
- Алгоритмот може да најде некоја корелација меѓу податоците што доведува до пристрасност при креирање на резултатите
- На пример во 2018 година Амазон почнал да користи алатка за наоѓање на нови таленти што дава приоритет на мажите затоа што учела од податоци добиени од резимеа во рок од 10 години каде што повеќето кандидати биле мажи (пристрасноста од историјата продолжува и во иднината)
- Евалуирање на алгоритмот само според некои метрики кои кажуваат дали е постигнато некаков успех
- На пример се гледа само општата точност а не колку резултати се лажно позитивни земајќи ја во предвид и демографијата
- Примената на алгоритмот исто така може да биде извор на некоректни одлуки ( ако системот е изграден за одредена популација а се применува во сосем различна средина)
Овие грешки предизвикуваат огромни проблеми поврзани со:
- Луѓето и општеството (бидејќи луѓето имаат тенденција да веруваат на автоматизирани одлуки мислејќи дека тие се објективни и да ги користат за да си ги потврдат сопствените предрасуди за светот, велејќи дека тоа се научни факти со што се засилува ефектот на предрасудите)
- Бизнисот (поради тоа што користењето на пристрасни системи може да доведе до проблеми со репутацијата, губење на корисници и идни можности на пазарот за што според истражување од 2019 година спроведено од страна на компанијата DataRobot 42% од компаниите се свесни )
Не е баш лесно да се надмине овој проблем бидејќи во светот на вештачката интелигенција моќта е концентрирана на некои корпорации, индивидуи и држави кои ги контролираат ресурсите како на пример податоците, талентот и компјутерите. Исто така нема некој посебен механизам за истражување на нови форми на потенцијални проблеми генерирани од вештачката интелигенција како на пример влијанието на идните генерации, тенденција на искористување на новите технологии како алатка за извршување на притисок и угнетување на луѓето, пореметувањето на пазарот на труд итн. Еден начин за ублажување на овој проблем би бил ако тимовите што го прават системот се разновидни, a постојат и софтверски алатки за ефикасно справување со пристрасноста како на пример:
- LIME
LIME (Local Interpretable Model-Agnostic Explanations) е техника што ги објаснува резултатите од предвидувањата на алгоритмите за машинско учење. Го симулира приближно однесувањето на комплексниот алгоритам што се тестира со поедноставен модел за да биде појасно кои се причините зад донесувањето на одлуките. На слика 3 е претставен пример на овој процес.
Сл.3 LIME
Предности и недостатоци при користење на LIME се:
- Може да се користи во било која ситуација со било кој модел (бидејќи не зависи од конкретна имплементација на некој алгоритам од машинско учење)
- Интерпретира што се случува на локално ниво (зошто крајниот резултат е таков за одредена инстанца)
- Кога јасноста на моделот се зголемува точноста се намалува (мора да се балансираат овие две променливи), затоа што моделот станува се поедноставен и поедноставен
- Нагодување на параметрите како на пример комплексноста на поедноставениот модел може да биде тешко
- Може да се користи за различни типови на податоци па дури и кога станува збор за слики
Забелешка: Кога станува збор за конволуциски невронски мрежи (Convolutional Neural Networks) алгоритамот може да ја објасни важноста на секоја од индивидуалните карактеристики ама не го објаснува целосното однесување на мрежата, па затоа во овој случај мора дополнително да се извршуваат чести тестови за да се отстранат предрасудите што е можно повеќе и да се изгради систем кој ќе биде правичен кон сите родови.
- Користење на нумерички вектори (дизајнирани специјално да избегнат пристрасност)
Кога имаме модели за процесирање на човечкиот јазик (NLP Models= Natural language processing Models) може да се користат веќе достапни репрезентации на зборовите во форма на нумерички вектори при чијашто креација посебно внимание е обрнато на тоа да нема пристрасност.
- WEAT/SEAT
При процесирање на зборовите во општ случај може да се користи методот WEAT ( Word Embedding Association Test), а посебно ако го земеме и контекстот во кој се употребува зборот бидејќи тогаш проценката дали има пристрасност станува покомплицирана. Се врши споредување на некој концепт со некое множество на придавки за да се види колкава е асоцијацијата меѓу нив. На табелата подолу е покажан пример каде што концепти се имиња на луѓе и целта со овој тест е да се види нивната асоцијација со позитивни/негативни придавки.
Концепти што се таргетираат | Придавки |
Европско-Американски имиња: Адам, Хари, Нанси, Елен, Пол, Катие, Алан | Пријатни: љубов, радост, чудо, мир, пријател, среќа,… |
Африканско-Американски имиња: Лавар, Џемал, Лавон, Тиа, Латиша, Малика | Непријатни: грдо, злобно, убиство, злоупотреба, навреда, скапано |
Резултатот е број во интервал од -2 до 2 што ја покажува големината на ефектот на одреден концепт со некоја придавка (effect size). На слика број 3 е прикажан еден пример каде што се гледа кој од двата множества на зборови повеќе се асоцираат со мажи или жени. Позитивната големина на ефект ја означува поврзаноста на првиот термин во насока на жените. Кога ќе се споредат
- физичката атрактивност со жените наспроти компетентноста со жените
и
- физичката атрактивност со мажите наспроти компетентноста со мажите
се гледа дека има позначајна асоцијација меѓу физичката атрактивност и жените отколку компетентноста и жените (бидејќи лентата оди од нула кон десно -слика 4). Исто така негативната големина на ефектот за жените кажува дека има поголема поврзаност на женскиот род (иако статистички помалку значајна ) со позитивниот физички опис наспроти негативниот. Заклучокот е дека поверојатно е жените да се асоцираат со физички изглед, додека мажите со способност и со карактерни особености.
Сл.4 WEAT
Постои и друга многу слична верзија наречена SEAT (Sentence Embedding Association Test) каде што наместо зборови се споредуваат реченици, но оваа верзија ја покажува пристрасноста помалку јасно.
На слика 5 се покажани и други алатки кои детектираат предрасуди како и на кои индустрии се фокусираат.
Слика 5. Алатки за детектирање на предрасуди
Заклучок
Вештачката интелигенција врши големо влијание на секојдневниот живот како на пример на вработувањето, здравството, можноста за добивање на привилегии, полицијата, итн. Ова значи дека ако не го сфатиме потенцијалот на вештачката интелигенција да придонесе кон општество кое нуди подеднакви права на сите луѓе ситуацијата ќе се влоши уште повеќе. Со самото идентификување од каде доаѓа пристрасноста и нејзиното влијание на светот веќе се започнати некои напори кон решавање на проблемот но сепак е потребно уште многу работа до целосно еднакво општество. Некоректното податочно множество и недостиг на разновидност во развојните тимови се издвојуваат како едни од главните причини за појава на родова нееднаквост. Страшните импликации од пристрасноста на вештачката интелигенција како што се нееднаквоста во здравството, правниот систем и сите други места каде што се применуваат алгоритми за донесување на одлуки предизвикува сериозни последици како недоверба и огорченост кај луѓето и губиток на репутација за компаниите кои ги користат ваквите алгоритми. Со техниките за подобрување на квалитетот на податоците, воведување на процедури за постојано тестирање на моделите за донесување на одлуки како и внимателно одбирање на членовите на развојниот тим да доаѓаат од различни средини може да се подобри веќе настанатиот проблем на нееднаквост помеѓу луѓето со кој што се бори нашето општество многу долго време.
Користена литература:
[1] Does Artificial Intelligence advance gender equality?
[2] Artificial Intelligence: Transforming the World We Live In
[3] Nonviolent communication
[4] When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity
[5] The gender digital divide
[6] Mitigating Bias in Artificial Intelligence
[7] Artificial Intelligence and gender equality
[8] LIME Light: Illuminating Machine Learning Models in Plain English
[9] Machines and Trust: How to Mitigate AI Bias
[10] Bias in NLP Embeddings
[11] LIME Light: Illuminating Machine Learning Models in Plain English
[12] Bias detection
Изработила:
Георгина Димитриевска 201505