АНТОНЕЛА КОЦЕВА
ВОВЕД
Во ерата на дигиталната трансформација, вештачката интелигенција стана составен дел од секојдневниот живот која значително влијае на сите сфери. Mожеби не сме свесни за фактот дека ВИ може да ги наследат, па дури и засилат родовите предрасуди што постојат во нашето општество. Вградување на пристрасностите во алгоритмите на ВИ има потенцијал да направи промени во начинот на кој функционираат системите што влијаат на нашите животи. Исто така, влијание на социјалните структури и ја обликува интеракцијата помеѓу луѓето и технологијата.
Додека вештачката интелигенција е подложна на податоците и информациите врз кои се темели, општеството е подложно на информациите што ги нудат системите на ВИ. Тука се јавува опасноста од неправилно искористување на ресурсите што ни се достапни и информациите кои тие ни ги обезбедуваат.
Во продолжение, ќе бидат може да се забележи дека родовата пристрасност е присутна уште од раните цивилизации но завземаат различна форма. Понатаму, ќе се објаснат корените на раѓање на алгоритмите кои доведуваат до некаква пристрасност, како и нивно избегнување и надежно решавање.
ИСТОРИСКИ КОНТЕКСТ НА РОДОВА ПРИСТРАСНОСТ
Како правно и економски зависни од мажите, а покрај тоа и образованието за нив било ограничено. Подоцна, низ годините, се случува развој на родовата пристрасност. Феминистички движења биле организирани, токму поради родовата нееднаквост која била застапена, за да се слушне гласот на жената, да се валидира н дека и жената е еднаква како и мажот. Родовата динамика значително се подобрила од влијанието на двете светски војни кога жените ги зазеле работните позиции на мажите.
Иако навидум живееме во модерен и отворен свет родовата еднаквост, односно нееднаквост и ден денес претставува проблем во општеството, но не од истите историски
2
причини, туку постоење на пристрасност во многу сфери – плати, дискриминација, насилство итн.
КАКО АЛГОРИТМИТЕ УЧАТ ОД ПОДАТОЦИТЕ?
Вештачката интелигенција е широк поим што се однесува на компјутерски системи што покажуваат одредени облици на човечка когниција. Иако ВИ имитира човечка интелигенција, начинот на кој таа функционира е суштински различен од човечкото размислување. Денешната ВИ се базира на компјутерски програми кои се обидуваат да ги рекреираат човечките когнитивни процеси. Дел од овие програми, наречени алгоритми за машинско учење, можат со голема прецизност да ја симулираат способноста за учење.
Овие алгоритми учат преку тестирање и грешки, пронаоѓајќи најдобра комбинација на варијабли за решавање на проблеми. Како што добиваат повеќе податоци, тие стануваат сè попрецизни и поефикасни.
o КРЕИРАЊЕ НА АЛГОРИТАМ ЗА МАШИНСКО УЧЕЊЕ ВКЛУЧУВА:
1. Чистење на податоците – Податоците што ќе ги користи алгоритмот мора да бидат чисти и разбирливи.
2. Предобработка на податоците – Подобрување на точноста на моделот со организирање и структурирање на податоците.
3. Развивање на алгоритмот – Дизајнирање на модел што ги имитира човечките когнитивни процеси.
4. Тестирање и оптимизирање – Проверка и прилагодување на алгоритмот за да постигне подобри резултати.
o ВИДОВИ АЛГОРИТМИ ЗА МАШИНСКО УЧЕЊЕ
1. Надгледувано машинско учење (Supervised Learning)
Ова е наједноставниот метод каде што алгоритмот учи од означени податоци. Првин се обучува со мал сет податоци (т.н. тренинг сет), а потоа го применува стекнатото знаење на поголем сет податоци (т.н. проблемски сет).
3
2. Ненадгледувано машинско учење (Unsupervised Learning)
Кај оваа метода, алгоритмот не добива однапред означени податоци, туку самостојно наоѓа обрасци во нив. Тој создава „скриени структури“ што ги користи за решавање на проблеми.
3. Зајакнувачко учење (Reinforcement Learning)
Ова е понова метода каде што алгоритмот учи преку награди и казни. Доколку даде точен одговор, добива награда, а ако даде погрешен, наградата се одзема. Ова го мотивира алгоритмот да најде најдобро можно решение преку проба и грешка.
ИЗВОРИ НА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА
Елиминирањето на пристрасноста во ВИ бара детална анализа на податочните сетови, алгоритмите за машинско учење и другите елементи на ВИ-системите за да се идентификуваат можните извори на пристрасност.
o ПРИСТРАСНОСТ ВО ПОДАТОЦИТЕ ЗА ОБУЧУВАЊЕ
Системите со вештачка интелигенција учат да носат одлуки врз основа на податоците за обучување, па затоа е од клучно значење да се процени дали овие податоци содржат пристрасност. Еден метод е да се провери застапеноста на различни групи во податочниот сет – дали некои се претставени премногу, а други премалку.
На пример, ако податоците за обучување на алгоритам за препознавање лица претежно содржат слики на белци, алгоритмот може да има поголем број грешки при препознавање на лица од други раси. Слично, безбедносни податоци собрани во области каде што претежно живеат црнци може да доведат до расна пристрасност во полициските ВИ алатки.
Пристрасноста може да произлезе и од начинот на означување на податоците за обучување. На пример, алатките за регрутација што користат неконзистентно означување или ги исклучуваат или преголемо застапуваат одредени карактеристики, може неправедно да елиминираат квалификувани кандидати од процесот на селекција.
4
o АЛГОРИТАМСКА ПРИСТРАСНОСТ
Користењето на погрешни податоци за обучување може да доведе до алгоритми кои континуирано произведуваат грешки, неправедни резултати или дури да ја засилат пристрасноста присутна во податоците. Алгоритамската пристрасност исто така може да биде резултат на програмерски грешки, како што е нефер тежинско доделување на фактори во алгоритамските одлуки врз основа на свесни или несвесни пристрасности на развивачот.
На пример, ако алгоритмот користи показатели како приход или вокабулар, тоа ненамерно може да доведе до дискриминација врз основа на раса или пол.
o КОГНИТИВНА ПРИСТРАСНОСТ
Луѓето при обработката на информации и донесување одлуки неизбежно се под влијание на сопствените искуства и преференции. Како резултат, тие можат да ги вградуваат овие пристрасности во ВИ-системите преку изборот на податоци или начинот на нивното тежинско доделување.
На пример, когнитивната пристрасност може да доведе до фаворизирање на податочни сетови собрани од американски корисници, наместо да се користат податоци од различни светски популации.
ОДРАЗ НА ПОДАТОЦИТЕ И ОПШТЕСТВОТО
Технички гледано, алгоритамската пристрасност се однесува на грешки што доведуваат до нееднакви резултати за различни групи. Но, наместо да се гледа како грешка, пристрасноста може да се смета како одраз на општеството. ВИ најчесто е изградена врз основа на податоци од реалниот свет, кои пак ги рефлектираат општествените нееднаквости. Пристрасностите во вештачката интелигенција можат да произлезат од неколку извори кои влијаат на сигурноста на ВИ системите, како:
1. ПРЕДРАСУДИ ВО ПОДАТОЦИТЕ -Предрасудите присутни во податоците што се користат за тренирање на ВИ моделите можат да доведат до пристрасни исходи. Ако податоците за тренирање претежно ги претставуваат одредени демографски групи
5
или содржат историски предрасуди, ВИ ќе ги рефлектира овие нерамнотежи во своите предвидувања и одлуки.
2. АЛГОРИТАМСКИ ПРЕДРАСУДИ – Ова се случува кога дизајнот и параметрите на алгоритмите ненамерно воведуваат предрасуди. Дури и ако податоците се непристрасни, начинот на кој алгоритмите ги обработуваат и приоритизираат одредени карактеристики може да резултира со дискриминаторни исходи.
3. ЧОВЕЧКИ ПРЕДРАСУДИ – Човечките предрасуди, познати и како когнитивни предрасуди, можат да се вметнат во ВИ системи преку субјективни одлуки при означување на податоци, развој на модели и други фази од животниот циклус на ВИ. Овие предрасуди ги рефлектираат предрасудите и когнитивните склоности на поединците и тимовите вклучени во развојот на ВИ технологиите.
4. ПРЕДРАСУДИ ВО ГЕНЕРАТИВНА ВИ: Генеративните ВИ модели, како оние што се користат за создавање текст, слики или видеа, можат да произведат пристрасни или неприкладни содржини врз основа на предрасудите присутни во нивните податоци за тренирање. Овие модели може да ги засилат стереотипите или да создадат содржини кои маргинализираат одредени групи или гледишта.
ПРИМЕРИ НА ВИ ПРИСТРАСНОСТ
Како што општеството станува сè посвесно за тоа како функционира вештачката интелигенција и можноста за пристрасност, организациите открија бројни примери на пристрасност во ВИ во широк спектар на примени.
• ЗДРАВСТВО – Недоволното застапување на податоци за жените или малцинските групи може да ги искриви предвидливите алгоритми на ВИ. На пример, системите за компјутерска поддршка при дијагностика (CAD) покажале пониска точност за црните пациенти во споредба со белите пациенти.
• ОНЛАЈН РЕКЛАМИ – Пристрасностите во алгоритмите на рекламните системи на пребарувачите можат да ги зацврстат родовите стереотипи во професиите. Независно истражување на Универзитетот Карнеги Мелон во Питсбург откри дека
6
онлајн рекламниот систем на Google почесто прикажувал огласи за високо платени позиции на мажи отколку на жени.
• ГЕНЕРИРАЊЕ СЛИКИ – Академските истражувања пронајдоа пристрасност во апликацијата за генерирање уметност со помош на ВИ, Midjourney. Кога ѝ било побарано да креира слики на луѓе во специјализирани професии, таа прикажувала и помлади и постари луѓе, но постарите лица секогаш биле мажи, зацврстувајќи го родовиот стереотип за улогата на жените во работната средина.
• ПОЛИЦИСКА РАБОТА -Алгоритмите за предвидување на криминал може да доведат до пристрасни практики. На пример, тие може да предвидат повисоки стапки на криминал во малцинските населби, што резултира со прекумерна полициска присуство.
• ПРЕПОЗНАВАЊЕ НА ЛИЦА – ВИ системите често имаат потешкотии со демографската точност. На пример, тие може да имаат поголеми стапки на грешки при препознавање на потемни тонови на кожата.
• ПРЕПОЗНАВАЊЕ НА ГЛАС – Системите за конверзациона ВИ може да покажат предрасуди кон одредени акценти или дијалекти. На пример, ВИ асистентите може да имаат потешкотии со не-мајчинските говорници или регионалните акценти, што ја намалува нивната употребливост.
• ОБРАЗОВАНИЕ – Алгоритмите за евалуација и прием можат да покажат пристрасност. На пример, ВИ-системите што предвидуваат академски успех кај студентите може да ги фаворизираат учениците од добро финансирани училишта, наспроти оние од институции со ограничени ресурси.
• Вработувањето често се наведува како еден од најдобрите примери за алгоритамска пристрасност. Тоа се случува кога тенденцијата за фаворизирање на одредени групи станува случајно вградена во вештачка интелигенција (ВИ) дизајнирана да извршува специфична задача.
Постојат безброј примери за ова. Најпознатиот е кога Amazon се обиде да користи ВИ во процесот на регрутирање. Во овој случај, податоците за тренирање на ВИ беа биографии (CV). Бидејќи најголем дел од CV-ата биле од мажи, ВИ научила да ги
7
игнорира сите елементи поврзани со жени, како што се позицијата претседател на женски шаховски клуб или дипломирање на женски колеџ. Како резултат, Amazon не го користел овој систем на пошироко ниво.
Слично на тоа, практиката на снимање видео-интервјуа, а потоа анализа на снимките со ВИ за да се процени соодветноста на кандидатите, редовно се критикува за потенцијалот да произведе пристрасни резултати. Сепак, поддржувачите на ВИ во процесите на вработување тврдат дека оваа технологија ги прави процесите поправедни и потранспарентни, намалувајќи ги човечките предрасуди.
НАМАЛУВАЊЕ НА ВИ ПРИСТРАСНОСТ
Постојат различни предизвици во ублажувањето на пристрасноста во ВИ системите, кои може да се разгледаат на три нивоа: организациско, индустриско и општествено. Следува преглед на предизвиците на различни нивоа, кои се одговорни за пристрасностите во ВИ системите и ја потенцираат потребата за меѓусебно поврзување и напорите за решавање на овие проблеми.
1. ОРГАНИЗАЦИСКО НИВО – Предизвиците се поврзани со тоа како се формираат тимовите и организациите, како и со вклученоста на трети страни, развивачи и добавувачи на алгоритми.
• Недостаток на разновидност во тимовите: Технолошките компании се главно машки, богати и бели. Предизвиците поврзани со недостаток на разновидност во областа се дел од причините за ова, а постојат и големи проблеми на работните места во технологијата – вклучувајќи пристрасности при регрутирање, вработување и напредување, како и мобинг, насилство и сексизам.
• Недостаток на социјални науки и експертиза во тимовите: Тимовите за развој на алгоритми се составени најчесто од податоци научници, компјутерски научници и/или инженери. Нивното знаење од СТЕМ области (наука, технологија, инженерство и математика) им дава специфичен пристап, кој многу се разликува од пристапот на
8
социјалните научници или философи. Но, знаењето од социјални науки е клучно за адресирање на патиштата што водат до пристрасен алгоритам и за размислување за прашањата поврзани со ферноста.
• Фокус само на техничка пристрасност и технички решенија: Терминот пристрасност се користи за да се опишат различни работи. Често, бизнисите се фокусираат само на техничката пристрасност во податоците, без да ги вклучат и решат другите, понезабележливи форми на пристрасност.
2. ИНДУСТРИСКО НИВО – ВИ индустријата расте брзо, но регулаторните рамки се отсутни или само се развиваат. Во меѓувреме, алгоритмите „црни кутии“ и постојните закони за интелектуална сопственост ги прават одлуките на алгоритмите тешки за разбирање.
• Пазарни приоритети и брза индустрија: Технолошките компании работат во брза и диструптивна индустрија каде пазарниот удел и конкурентската предност зависат од брзото пуштање на нови производи на пазарот.
• Недостаток на регулации и применливи упатства: Бизнисите бараат регулаторни рамки и надворешни владини упатства. Иако се појавуваат упатства и параметри од различни извори, тие се често нејасни и високи, без применливи алатки.
• Присуство на алгоритми „црна кутија“: Алгоритмите „црни кутии“ не можат лесно да се испитаат од надворешната страна, што ги прави тешки за разбирање и контрола.
3. ОПШТЕСТВЕНО НИВО – Се соочуваме со историски нееднаквости и моќни динамики кои се зајакнуваат преку податоци, тимови и авторитети при донесување одлуки, како и со застарени образовни пристапи и компромиси во однос на „ферноста“.
• Историски нееднаквости и моќни динамики во податоците: Историските нееднаквости и постојаните моќни динамики се присутни во пристрасните алгоритми. Добиените податоци што претставуваат различни идентитети за секој контекст не се секогаш возможни.
• Недостаток на разновидност во СТЕМ: Екстремниот недостаток на разновидност во СТЕМ полето го забавува напорот за подобрување на разновидноста во
9
технолошките компании и ја зајакнува моќта на одлуките при креирањето на ВИ системи.
• Застарени образовни пристапи за податоци и компјутерски научници: Недостатокот на етика, социјални науки и дизајн размислување во наставните планови за податоци и компјутерски научници ги ограничува напорите за разбирање на потенцијалните штети што ги носат ВИ системите.
ЗАКЛУЧОК
Со овие истражувања се покажа дека пристрасноста во ВИ не е само технички проблем, туку и општествен феномен кој ги рефлектира и засилува постоечките нееднаквости. Историјата за родова пристрасност е доказ дека таа е длабоко вкоренета во општествените норми и структури. Иако општеството напредувало во однос на родовата еднаквост, пристрасноста продолжува да постои во различни форми, вклучувајки ги и алгоритмите на ВИ. Може да се заклучи дека ако ВИ се користи на наивен начин, без заштитни механизми за спречување алгоритамска пристрасност, тогаш технологијата ќе ги повтори и засили постојните предрасуди така што потенцијално ќе создаде нови, кои претходно не постоеле. Сепак, ако ВИ се имплементира со внимание на инсклузивноста, преку избраните податоци во дизајност на алгоритмите и начинот на носење одлуки, таа може да биде корисна алатка за создавање поголема еднаквост.
10
КОРИСТЕНА ЛИТЕРАТУРА
1.
https://www.ilo.org/sites/default/files/wcmsp5/groups/public/@ed_dialogue/@act_emp/docu ments/publication/wcms_601276.pdf
2. https://www.sap.com/resources/what-is-ai-bias
3. https://www.spiceworks.com/tech/artificial-intelligence/articles/how-does-ai-learn-through ml-algorithms/
4. https://theconversation.com/ai-can-reinforce-discrimination-but-used-correctly-it-could make-hiring-more-inclusive-207966
5. https://www.ibm.com/think/topics/shedding-light-on-ai-bias-with-real-world-examples
6. https://haas.berkeley.edu/wp
content/uploads/UCB_Playbook_R10_V2_spreads2.pdf?utm_source=chatgpt.com
11