Потеклото и импликациите на родовата пристрасност во системите за вештачка интелигенциjа – Наш сопствен одраз

Published by

on

 

Тамара Костова 

Апстракт 

Зголемената употреба на системите за вештачка интелигенциjа (ВИ) во критични домени како здравствената заштита, финансиите и регрутирањето открива структурни предрасуди присутни во овие технологии. Оваа студиjа покажува дека родовите пристрасности во ВИ произлегуваат од сложената интеракциjа поме´гу историски пристрасни податоци, недостаток на разно видност во тимовите за развоj на ВИ модели и општествени норми кои ги рефлектираат постоечките родови хиерархии. Иако некои родови разлики се засновани на биолошки реалности (како разликите во невронската организа циjа ме´гу половите), поголемиот дел од штетните пристрасности произлегу ваат од културолошки конструирани стереотипи. Решението лежи во комби нациjа на технолошки интервенции (вклучуваj´ки алгоритми за откривање на пристрасности и разновидни податоци) и социjални реформи насочени кон трансформациjа на општествените норми. 

1 Вовед 

Вештачката интелигенциjа станува составен дел од нашиот секоjдневен жи вот, влиjаеj´ки на одлуките во области кои се движат од регрутирање на работа до одобрување кредити, па дури и здравствена заштита. Ме´гутоа, како што овие системи стануваат се поприсутни, загриженоста за нивните вродени предрасуди, особено родовата пристрасност, се jавува во етичките дискусии во технологиjата. Родовата пристрасност во вештачката интелигенциjа се однесува на ситуации каде што системите за вештачка интелигенциjа покажуваат стереотипично или дискри минаторно однесување засновано на пол, што често се поjавува кога вештачката 

1

интелигенциjа учи од историски податоци што ги рефлектираат општествените нееднаквости и стереотипи. 

Проблемот со родовата пристрасност во вештачката интелигенциjа не е еднос тавна грешка во дизаjнот, туку пове´ке вродена последица на тренирањето на веш тачката интелигенциjа со пристрасни податоци и користење на алгоритми кои мо жеби не се добро разгледани. Додека самата технологиjа е неутрална, системите што ги создава може да ги реплицираат, па дури и да ги засилат нееднаквости те, доколку не се дизаjнирани и имплементирани внимателно. Оваа пристрасност се манифестира на различни начини, од системите за препознавање лица кои се борат прецизно да ги идентификуваат жените во боjа до jазичните модели кои ги овековечуваат стереотипните родови улоги. 

Еден од наjзначаjните извори на родова пристрасност во вештачката интели генциjа се податоците што се користат за тренирање на овие системи. Доколку податочните множества jа одразуваат минатогодишната дискриминациjа или ро довата нерамнотежа, вештачката интелигенциjа вероjатно ´ке ги репродуцира тие предрасуди. На пример, жените – особено жени од различни раци – честопати се недоволно застапени во податоци што се користат за тренирање на модели со веш тачка интелигенциjа. Оваа недоволна застапеност може да доведе до значителни разлики во перформансите на системите за вештачка интелигенциjа каj различни демографски групи. 

Импликациите на родовата пристрасност во вештачката интелигенциjа се мно гу позначаjни едноставни од технички неточности. Овие предрасуди можат да ги заjакнат и влошат постоjните општествени нееднаквости, влиjаеj´ки на области ка ко што се можностите за вработување, пристапот до финансиски услуги, па дури и резултатите од здравствената заштита. Бидеj´ки системите за вештачка интелиген циjа с`e пове´ке влиjаат на процесите на донесување одлуки во различни сектори, решавањето на родовата пристрасност станува клучно за да се обезбедат правични и правични резултати за сите поединци, без оглед на полот. 

За разлика од оваа „природна“ или „органска“ пристрасност коjа доа´га од са мите податоци кога станува збор половата еднаквост, каj голем броj од останатите модели на машинско учење користени за други цели, вештачки се поставува од редена пристрасност при тренирањето, а клучот е да се наjде границата за таа да биде корисна. 

Овоj труд има за цел да го истражи потеклото на родовата пристрасност во системите за вештачка интелигенциjа, испитуваj´ки како општествените норми, ис ториските податоци и недостатокот на разновидност во тимовите за развоj на ВИ придонесуваат за проблемот. Исто така, ги истражува импликациите на овие пред расуди во различни домени и разгледува потенциjални стратегии за нивно реша вање. Со разбирање на сложената интеракциjа поме´гу полот, технологиjата и оп штеството, може да се работи на развоj на системи за вештачка интелигенциjа кои jа одразуваат различноста и еднаквоста кон кои се стремиме во нашите заедници. 

Решението лежи во комбинациjа на технолошки интервенции (вклучуваj´ки ал горитми за откривање на пристрасности и разновидни податоци) и социjални ре форми насочени кон трансформациjа на општествените норми. 

2

2 Природата на податоците за обука за вештачка интелигенциjа 

Податоците за тренирање на вештачка интелигенциjа се основата врз коjа се градат моделите за машинско учење. Множествата се состоjат од различни по даточни точки како што се текст, слики, аудио или отчитувања на сензори, во зависност од специфичната задача на моделите [?]. Овие податоци служат како „суровина“ од коjа моделите со вештачка интелигенциjа учат обрасци, корелации и прават предвидувања. 

Квалитетот и разновидноста на податоците за тренирање директно влиjаат на перформансите и правичноста на системите за вештачка интелигенциjа. Високок валитетните, точни податоци може значително да го намалат времето на трени рање и да jа подобрат способноста на моделот да генерализира на нови, невидени ситуации. Спротивно на тоа, пристрасните или неточните податоци може да дове дат до неверодостоjни резултати и да ги овековечат постоечките нееднаквости. 

Претходната обработка на податоците е клучен чекор во подготовката на пода тоците за тренинг. Ова вклучува чистење на податоците за отстранување на греш ки и недоследности, како и нивно трансформирање во формат погоден за обука на моделот на вештачка интелигенциjа. Дополнително, може да се користат техники за зголемување на податоците за да се зголеми разновидноста на комплетот за тренирање, особено кога обемот на достапни податоци е мал. 

3 Родова пристрасност во човечки-генерирани по датоците 

Податоците генерирани од човекот, кои jа формираат основата на многу пода точни множества за тренирање за вештачка интелигенциjа, често ги одразуваат општествените предрасуди и нееднаквости. Ова е причина за пристрасноста коjа подоцна може да се jави каj моделите на ВИ тренирани на вакви податоци [2]. 

Помалата застапеност на жените во развоjот на вештачката интелигенциjа го влошува ова прашање. Истражувањата покажуваат дека жените сочинуваат само 22% од професионалците за вештачка интелигенциjа ширум светот, што доведу ва до недостаток на различни перспективи во создавањето системи за вештачка интелигенциjа. Оваа родова нерамнотежа може да резултира со модели на веш тачка интелигенциjа кои не ги земаат предвид потребите и искуствата на жените и другите маргинализирани групи. 

Родовата пристрасност во податоците генерирани од човекот може да се мани фестира на различни начини, како на пример поврзување на одредени професии со специфични полови или заjакнување на традиционалните родови улоги. На при мер, откриено е дека системи за вештачка интелигенциjа поврзуваат зборови како „медицинска сестра“ со жени и „научник“ со мажи, што ги одразува историските родови разлики во овие области. 

Имплицитните родови пристрасности често пати остануваат незабележани во процесот на обработка на податоците, но имаат значително влиjание врз систе мите за вештачка интелигенциjа [1]. Овие пристрасности во податоците не се само 

3

технички проблем, туку и општествено прашање кое се рефлектира назад во техно логиjата. Системите за вештачка интелигенциjа, на тоj начин, стануваат огледало на нашите сопствени општествени норми и вредности, покажуваj´ки го она што во нас постои – добро или лошо. 

4 Манифестации на родовата пристрасност во сис темите за ВИ 

4.1 Jазични модели и генерирање на текст 

Jазичните модели како GPT-3 и слични системи покажуваат значителни родови пристрасности во нивните излезни резултати. Голем броj истражувачи се занима ваат со откривање како големите jазични модели, на пример GPT-3, генерираат приказни со различни родови претстави кои често ги заjакнуваат постоечките сте реотипи [4]. Нивната анализа покажува дека приказните генерирани со овие модели имаат тенденциjа да прикажуваат машки ликови во поактивни, доминантни улоги, додека женските ликови почесто се дефинирани преку нивните односи со другите или нивниот изглед. Постоjат и наоди од други истражувања [5], кои анализираат како моделите на вештачjка интелигенциjа, конкретно ChatGPT, имплицитно ги поддржува традиционалните родови улоги, без разлика на неговите обиди да биде родово-неутрален. Овие модели честопати произведуваат содржина коjа ги следи социjалните конвенции наместо да ги предизвикува, што ги одразува доминантни те наративи од податоците со кои биле тренирани. 

4.2 Биомедицина и здравствена заштита 

Во доменот на биомедицината и здравствената заштита, родовата пристрасност има особено сериозни импликации. Cirillo et al. [6] укажуваат на тоа како системите за вештачка интелигенциjа во здравството често не ги земаат доволно предвид биолошките разлики ме´гу половите, што може да доведе до несоодветни диjагнози или третмани. На пример, алгоритмите тренирани претежно на податоци од машки пациенти може да не ги препознаат специфичните симптоми на срцев удар каj жените, кои често се разликуваат од “стандардните”(т.е. машки) симптоми. 

Тука е важно да се напомене дека одредени биолошки разлики ме´гу половите се реални и релевантни за медицинските диjагнози и третмани. Затоа, системи те за вештачка интелигенциjа треба да ги препознаваат овие разлики, но без да ги генерализираат или стереотипизираат пациентите врз основа на нивниот пол. Овие системи треба да направат разлика ме´гу релевантните биолошки фактори и социjално конструираните родови норми кои може да влиjаат на здравствените исходи. 

5 Различни типови на родова пристрасност во ВИ 

Идентификувани се неколку различни категории на родова пристрасност што може да се поjават во системите за вештачка интелигенциjа [7]: 

4

Тип на пристрасност Опис и импликации
Собирање податоци Недоволната репрезентациjа може да резултира со модели кои ги игнорираат потребите на мали групи.
Обработка на податоци Технички недостатоци во чистењето на податоците може да ги овековечат постоечките пристрасности.
Алгоритамска пристрасност Вградување на имплицитни претпоставки што jа заjакнуваат социокултурната дискриминациjа.
Евалуациjа Недоволно прилагодени метрики.
Имплементациjа Примена на ВИ коjа ги репродуцира и заjакнува по стоечките родови нееднаквости.

Табела 1: Преглед на различните типови на родова пристрасност во ВИ 

• Пристрасност при собирање податоци: Кога податочните множества не ги претставуваат адекватно сите родови, или кога методите за собирање пода тоци фаворизираат одредени родови перспективи. 

• Пристрасност при обработка на податоци: Кога техниките за предобработка на податоци не успеваат да препознаат или адресираат родови пристрасности во суровите податоци. 

• Алгоритамска пристрасност: Кога самите алгоритми за машинско учење сод ржат имплицитни претпоставки кои фаворизираат одредени родови перспек тиви. 

• Пристрасност при евалуациjа: Кога метриките и методите за евалуациjа на перформансите на ВИ системите не ги земаат предвид родовите диспаритети во резултатите. 

• Пристрасност при имплементациjа: Кога системите за вештачка интелиген циjа се применуваат на начини кои ги заjакнуваат постоjните родови неед наквости. 

Важно е да се разбере дека не сите родови разлики во ВИ системите прет ставуваат штетна пристрасност. Некои разлики може да бидат соодветни и дури неопходни кога системите адресираат реални разлики ме´гу родовите. На пример, систем за препорачување облека може соодветно да прави разлика ме´гу машка и женска облека, без да имплицира дека едниот пол е помалку вреден од другиот. 

6 Разликување поме´гу штетни и биолошки засно вани разлики 

Клучен аспект на дебатата е разликата поме´гу социjално конструирани родови стереотипи и вистинските биолошки разлики. [6] истакнува дека во медицински контекст, игнорирањето на половите разлики може да има фатални последици. На пример, моделите за предикциjа на ризик од остеопороза кои не ги разликуваат 

5

половите покажуваат значително поголема неточност. Истотака, моделите за гене рирање на слики кои при барање на корисникот за генерирање на слика од Папата, генерираат женски лик, не се оценуваат како ефикасни и точни. 

Ме´гутоа, како што наведува [8], проблемот настанува кога алгоритмите ги ме шаат биолошките и социjалните аспекти. Системите за препознавање на емоции често погрешно ги толкуваат женските изрази на болка како “претерана емоцио налност игнорираj´ки ги реалните невролошки разлики во обработката на болката ме´гу половите. 

7 Стратегии за справување со штетните предрасу ди 

Еден предлог за аресирање на штетните предрасуди каj ВИ системите е холис тички пристап што комбинира технички и општествени интервенции [?]: Технички подобрувања 

• Адаптивни техники за балансирање на податоци (на пр. синтетичко генери рање на податоци за одредени групи) 

• Алгоритамска транспарентност што овозможува промена на родовите импли кации 

Структурни промени: 

• Мандати за разновидност во тимовите за развоj на ВИ (улогата на феминис тичката теориjа во дизаjнот на алгоритми е доста значаjна [3]) 

• Регулаторни рамки за етика вештачка интелигенциjа [9] 

Се предлага и употреба на дизаjнерско размислување (design thinking) [10] кое вклучува тестови за родова чувствителност во сите фази на развоjниот циклус. 

8 Етички рамки и идни насоки 

Родовата пристрасност во системите за вештачка интелигенциjа е резултат на комплексна интеракциjа поме´гу историските податоци, социокултурните норми и недостатокот на разновидност во развоjните тимови. Иако постоjат аргументи дека биолошките разлики можат да оправдуваат диференциjален пристап при генери рањето на содржини за мажи и жени, ваквите пристапи мора да се дефинираат со голема претпазливост за да не се засилат штетните стереотипи [3, 8]. 

За да се постигне вистинска етичка и техничка правичност, неопходно е да се работи и на унапредување на општествените норми, како и на редизаjнирање на ВИ системите врз основа на висококвалитетни, разновидни податоци. Само преку интегрирање на мултидисциплинарни пристапи може да се развиjат системи кои не само што се технички напредни, туку и социjално и етички одговорни. 

Идниот развоj на ВИ бара динамичен пристап што ги признава и промовира родовите разлики без да ги заjакнува хиерархиите. Како што заклучува [8], “Целта 

6

не е да се елиминираат сите родови разлики, туку да се осигураме дека системите ги одразуваат човечките вредности на еднаквост и правда”. 

Неопходна е трансдисциплинарна соработка ме´гу етичари, социолози и инже нери за да се создадат алгоритми кои ги почитуваат и биолошките реалности и социjалните напредоци во родовата еднаквост. Како што предложува [3], инкорпо рирањето на критичката родова теориjа во машинското учење може да послужи како мост поме´гу техничките и хуманистичките перспективи. 

9 Заклучок 

Родовата пристрасност во системите за вештачка интелигенциjа претставува сложен проблем коj бара мултидисциплинарен пристап. Додека некои родови раз лики се засноваат на биолошки реалности што треба да се земат предвид во ди заjнот на системите, како во здравствената заштита, така и во секоjдневниот жи вот, со цел да не добиваме содржина генерирана од моделите коjа нема никаква реална примена или поврзаност со реалната слика, поголемиот дел од штетните пристрасности произлегуваат од општествените норми вградени во податоците за обука. Решавањето на овоj проблем вклучува и технолошки иновации и коренити социjални промени. 

Пристрасноста каj овие системи главно не произлегува само од технологиjата, туку од неjзината интеркациjа со општеството. Како што покажавме во овоj труд, ВИ системите ги рефлектираат и понекогаш ги засилуваат постоечките родови стереотипи и нееднаквости. Ме´гутоа, важно е да се признае дека не сите родови разлики во ВИ системите се инхерентно штетни. 

Потребен е ниjансиран пристап коj прави разлика ме´гу родовите разлики кои точно ги одразуваат релевантните биолошки или социjални реалности и оние кои ги овековечуваат штетните стереотипи и дискриминациjата. Системите за вештачка интелигенциjа треба да бидат дизаjнирани на начин коj jа препознава и почиту ва родовата различност, без да им ги ограничува можностите на поединците врз основа на нивниот род. 

Справувањето со родовата пристрасност во ВИ бара координирани напори од различни засегнати страни, вклучуваj´ки истражувачи, развивачи, креатори на по литики и краjни корисници. Преку свесност, образование, различни тимови за раз воj, балансирани податочни множества и контекстуално-специфични стратегии, можеме да работиме кон создавање на посправедливи и поправични системи за вештачка интелигенциjа. [2] 

Во суштина, предизвикот на родовата пристрасност во ВИ не е само технич ки проблем, туку и огледало на нашето општество, повикуваj´ки н`e да се соочиме со нашите сопствени предрасуди и да создадеме технологиjа коjа jа одразува ед наквоста и правичноста кон кои се стремиме. Борбата против штетната родова пристрасност во ВИ е дел од поширокиот општествен напор за постигнување на родова еднаквост, и не може да биде целосно одвоена од тоj контекст. 

Истовремено, препознавањето дека одредени родови разлики можат да бидат релевантни и корисни во специфични контексти ни овозможува да создадеме посо фистицирани системи за вештачка интелигенциjа кои можат подобро да служат на различните потреби на сите родови. Предизвикот е да се наjде вистинскиот баланс 

7

– да се отстранат или намалат штетните пристрасности, истовремено задржуваj´ки ги оние разлики кои точно ги одразуваат релевантните аспекти на родовите искус тва и идентитети. 

Идниот развоj на вештачката интелигенциjа треба да биде воден од принци пот на “активна различност свесно инкорпорирање на различни перспективи во секоjа фаза од развоjниот процес. Ова вклучува создавање на разновидни тимо ви, инклузивни податочни множества и транспарентни алгоритми кои можат да се прилагодат на променливите општествени норми. Само преку комбинациjа на технолошки напредок и социjална свест можеме да создадеме системи на вештачка интелигенциjа кои ги одразуваат вредностите на еднаквоста и правдата. 

Литература 

[1] L. Marinucci, C. Mazzuca, A. Gangemi, “Exposing implicit biases and stereotypes in human and artificial intelligence: state of the art and challenges with a focus on gender” 

[2] S. Shrestha, S. Das, “Exploring gender biases in ML and AI academic research through systematic literature review” 

[3] S. Leavy – “Gender Bias in Artificial Intelligence: The Need for Diversity and Gender Theory in Machine Learning” 

[4] L. Lucy, D. Bamman, “Gender and Representation Bias in GPT-3 Generated Stories” 

[5] N. Gross, “What ChatGPT Tells Us about Gender: A Cautionary Tale about Performativity and Gender Biases in AI” 

[6] D. Cirillo, S. Catuara-Solarz, C. Morey, E. Guney, L. Subirats, S. Mellino, A. Gigante, A. Valencia, M. Jos´e Rementeria, A. Santuccione Chadha, N. Mavridis – “Sex and gender differences and biases in artificial intelligence for biomedicine and healthcar” 

[7] A. Nadeem, B. Abedin, O. Marjanovic, “Gender Bias in AI: A Review of Contributing Factors and Mitigating Strategies” 

[8] A. Manasi, S. Panchanadeswaran, E. Sours, S. Ju Lee, “Mirroring the bias: gender and artificial intelligence” 

[9] F. L¨utz, Gender equality and artificial intelligence in Europe. Addressing direct and indirect impacts of algorithms on gender-based discrimination 

[10] A. Kronqvist, R. Ann Rousib, “A quick review of ethics, design thinking, gender, and AI development” 

8