Етничките предизвици на вештачката интелигенција во однос на родовата еднаквост 

Published by

on

     Бериван.Османова

  • Вовед 

Во современиот дигитален свет, вештачката интелигенција станува се по присутна и повлијателна во многу аспекти од секојдневниот живот. Од системи за автоматско препознавање на лица и гласови, до алгоритми кои носат одлуки во здравството, образованието и вработувањето-Вештачката интелигенција има потенцијал да го подобри општеството но истовремено крие и сериозни ризици доколку не се развива внимателно и етничките адспекти. Еден од клучните ризици е одржувањето или дури и засилувањето н постојаните нееднаквости-особено оние што се заосноваат на родот и етничката припадност. Родовата еднаквост претставува основно човеково право и е суштински фактор за постигнување праведно и инклузивно општество. Сепак, и покрај напредокот во многу земји, дискриминацијата и нееднаквата застапеност на жените, особено во технолошкиот сектор,се уште е очигледно. Кога на оваа нееднаквост ќе се додаде и етничка припадност- особено на припадниците на малцински заедници -добиваме комплексна и чуствителна ситуација, која бара внимателна анализа. Алгоритмите и машинското учење не се неутрални – тие зависат од податоците со кои се обучуваат. Ако, податоците се пристрасни, резултатите од Вештачката интелигенција системите исто така ќе бидат пристрасни. Тоа значи дека Вештачката интелигенција може да ги репродуцира и засили родовите и етничките стереотипи,наместо да ги надмине. Примерите во пракса покажуваат дека системите за препознавање на лице имаат повисока стапка на грешки кај жени со потемна кожа или дека одредени апликации фаворизираат машки кандидати при вработување. Целта на оваа семинарска работа е да ги истражи етничките предизвици што се појавуваат во развојот и употребата на вештачката интелигенција, со фокус на нивната поврзаност со родовата еднаквост. Ќе се анализираат начините на кои Вештачката интелигенција влијае врз родовиот и етничкиот идентитет,ќе се даде преглед на етничките и социјалните импликации, како и препораки за создавање инклузивна и праведна технологија.

  • Родовата еднаквост во контекст на Вештачката интелигенција: Зошто е важна?

Вештачката интелигенција не е сама по себе неутрална или објективна- тие се алатки кои учат од податоците што им се даваат. Кога алгоритмите за машинско учење се обучувааат со податоци кои веќе имаат пристрасности, тие ќе ги репродуцираат овие пристрасности. Во многу случаи, овие пристрасности се базираат на родови стереотипи и претпоставки. На пример, во индустријата за технологија мажите се многу повеќе застапени во развојот на софтвери и алгоритми отколку жените. Оваа создава ситуација каде што многу алгоритми се дизајнирани со машките перспективи и искуства како основни, што доведува до тоа жените да бидат потценети во процесот на обука на ВИ системите. Родовата еднаквост во развојот на ВИ не се однесува само на балансот помеѓу мажите и жените туку и на тоа како различни етнички групи се засташени во технологоијата. Технологиите кои се развиваат денес се многу влијателни во општеството, а ако тие не ги земат во предвиид различните културни и етнички контексти , можат да создадат нови облици на нееднаквости. Во многу случаи,малциснксите групи -било да се работи за жени или етнички малцинсктва – не се доволно застапени во креирањето на технологијата, што доведува до пристрасност и неправедност во резултаите. На пример, алгоритмите за автоматско вработување, кои се користат за селекција на кандидати,можат да фаворизираат кандидати од одредени етнички или родови групи кои се преставени во историските податоци, така што резултира со ситуација каде што алгоритмите го репродуцираат постојаниот родов и етнички баланс и го намалува пристапот на жените и малцинставата до важни можности. Со оглед на тоа што ВИ веќе има огромно влијание на општествените процеси, важно е да се создадат системи кои ќе ги земат во предвид различните родови и етнички идентитети. Развојот на инклузивни технологии е од суштинско значење за праведно општество. Ако вештачката интелигенција не ја почитува родовата еднаквост, тоа ќе продолжи да создава бариери за жените и малцинствата во многу области, што дополнително ќе ја продлабочи нееднаквоста. Секој аспект на технологоијата, од дизајн до примена,треба да биде насочен кон обезбедување на инклузивност и правичност. Може да се каже дека родовата еднаквост во развојот на вештачката интелигенција не е само правно прашање – тоа е и морална и етничка обврска. Технологијата не треба да ја репродуцира постојаната нееднаквост во општеството,туку треба да биде алатка за намалување на овие разлики. Вештачката интелигенција може да понуди иновации кои ќе донесат позитвни промени, но само ако се развиваат со оглед на родовите и етничките различности.

  • Како може вештачката интелигенција да се користи за унапредување на родовата еднаквост

Еднен од начините на кои Вештачката интелигенција може да придонесе кон унапредување на родовата еднаквост е преку развој на алатки кои ќе помогнат жените да имаат пристап до ресурси, можности и информации кои им се недостапни. Пример за ова е примената на Вештачката интелигенција во здраството, каде што може да се користат алгоритми за подобро следење на здравствените потреби на жените, како што се репродуктивното здравје, ракот на дојка и други специфични болести кои ги погодуваат жените. Дополнително, Вештачката интелигенција може да помогне во намалување на родовата нееднаквост на работното место, преку развој на системи за вработување и процена на кандидатите кои се слободни од пристрасности и стереотипи. Овие системи можат да обезбедат еднакви можности за жените и мажите, без да се земат во предвид нивните полови или етнички идентитети. Една од клучните стратегии за постигнување родова еднаквост во Вештачката интелигенција е инклузивниот дизајн. Ова значи дека кога се развиваат нови технологии, треба да се вклучат различни перспективи и тоа не само од мажите туку и од жените и етничките малцинства. Секој член на тимот што го развива ВИ треба да има можност да ги претстави своите искуства и предизвици, така што ВИ ќе биде поефективна и ќе одговара на потребите на сите групи во општеството.

  • Неколку примери каде Вештачката интелигенција покажува нееднаквост, особено во контекст на родовата и етничката нееднаквост:

А) Алгоритми за препознавање на лица

Проблем: ВИ системите за препознавање на лица често покажуваат нееднаквост во точноста кога се работи за различни полови и етнички групи. На пример, системите за препознавање лица кои се користат од страна на полицијата или на социјалните медиуми, имаат тенденција да покажат многу пониска точност при препознавање на лица со темна кожа, посебно жени.

Пример: во 2018 година, истражување на MIT Media Lab откри дека комерцијалните системи за препознавање на лица на IBM, Microsoft и Face++ покажуваат погрешни резултати за 35% повеќе кога се во прашање жени со темна кожа во споредба со мажите со светла кожа.

Причина: оваа пристрасност потекнува од тоа што податоците што се користат за обука на овие алгоритми се претежно заосновани на слики од бели мажи, па системите не се доволно обучени за препознавање на други етнички групи и жени.

Б) Алгоритми за селекција на работни места

Проблем: Могу ВИ системи кои се користат за автоматска селекција на кандидати за работа имаат тенденција да ја репродуцираат нееднаквоста во однос на полот и етничката припадност. Алгоритмите се обучуваат на податоци од историските трендови во вработувањето, кои често фаворирзираат мажи и бели кандидати, додека жените и етничките малцинства можат да бидат исклучени од овие системи.

Пример: во 2018 година, Амазон го отсранил својот автоматизиран систем за селекција на кандидати, бидејќи покажа пристрасност против жените. Алгоритмот бил обучен на податоци од минатите апликации, кои претежно биле од мажи, што довело до фаворизирање на машките кандидати за технолошки работни места.

Причина: системот за автоматско вработување го користел историскиот податок како основа за избор, што довело до негрижливо дискриминирачки резултати за жените и малцинствата.

В) препораки за кредитирање 

Проблем: ВИ системите кои се користат за одобрување на кредит понекогаш покажуваат нееднаквост во однос на пол и етничка припадност, бидејќи алгоритмите често се обучуваат на историски податоци кои покажуваат нееднаквости во однос на овие два аспекти.

Пример: некои финансиски институции користат ВИ за одобрување кредити но податоците на кои се обучуваат овие системи можат да покажат пристрасност против жените или малцинските етнички групи кои мпожеби немаат исто ниво на финансиска историјаили кредитен рејтинг како главните демографски групи.

Причина: алгоритмите можат да ги користат историските финансиски трендови, кои се базирани на нееднаквости во достапноста на кредити и економски можности за жените и малцинставта, што ги води до потешкотии во добивањето кредити.

Г) ВИ во здравствената индустрија

Проблем: ВИ системите кои се користат за дијагностика или препорака на третмани понекогаш покажуваат пристрасности, бидејќи не ги земаат во предвид спецификите на здравствените потреби на жените или малцинските групи.

Пример: во 2019 година, истражувањето открило дека алгоритмите за анализа на здравствени сликиу за рак на дојка се помалку точни кога се работи за жени со темна кожа. Податоците кои се користат за обука на овие системи често се од бели пациенти, што доведува до грешки при дијагностицирање на рак кај жени од други етнички групи.

Причина: недостаток на инклузивни податоци доведува до нееднакви резултати во здравствената дијагностика и третман, што резултира со пониска точност и погрешни пресуди за некои пациенти.

Д) Препораки на социјалните медиуми

Проблем: ВИ алгоритмите на социјалните медиуми често ја засилуваат родовата и етничката нееднаквост преку фаворизирање на одредена содржина. Ова може да резултира во создавање на ехо-комори кои ги поддржуваат постојаните стереотипи и нееднаквости.

Пример: на социјалните мрежи, ВИ алгоритмите често го фаворизираат контентот што се базираа на популарни трендови, на овој контент може да има пресуди против жените,малцинствата и другите маргинизирани групи. Пример за ова е како жените или етничките малцинства може да бидат изложени на повеќе негативни или насилни коментари, додека мажите или доминантните етнички групи можат да бидат фаворизирани.

Причина: алгоритмите ги анализираат претходните интеракции, што може да ги поддржи тековните негативни трендови, наместо да промовираат инклузивност и различни перспективи.

  • Поттикнување на жените во ВИ
  • Примери на иницијативи

Women in al l-  глобална организација која има за цел да ги поддржи жените во сите области на ВИ преку обуки, менторства и вмрежување

Al4ALL- нуди образовни програми за млади девојчиња и маргинилизирани групи, со цел да ги вклучи во светот на вештачката интелигенција.

Google women Techmarkers- платформа за поддршка на жените во технологијата со стипендии и обуки

  • Родов биас 
  • Родов биас претставува форма на пристрасност во која информациите, одлуките или системите фаворизираат еден род- најчесто мажите, на сметка на жените или други родови ентитети. Во контекст на вештачката интелигенција, овој биас најчесто се појавува при обуката на алгоритмите, кога се користат историски податоци кои ја репродуцираат постојаната нееднаквост во општеството.
  • Многу алгоритми се обучуваат со користење на реални податоци од минатото. Но, ако тие податоци ја рефлектираат системската дискриминација на жените( пример, помал број жени на раководни позиции ), алгоритмот ќе ја научи таа норма и ќе ја репродуцира во идните одлуки.
  • Ако одреден датасет содржи 80% мажи и само 20% жени, алгоритмот ќе биде многу подобар во препознавање на обрасците кај мажите, и ќе има потешкотии при обработка на податоците поврзани со жените. Ова води до помала точност на резултатите за жените.
  • Ако алгоритмот учи од текстуални податоци како статии, огласи за работа, тој може да научи дека жените се почесто асоцирани со зборови како нега, учителка, домакинка и други, додека мажите се поврзани со зборовите како лидер, шеф, инжинер, пожарникар и други.
  • Последици од родов биас
  1. Неправедни одлуки: алгоритмите можат да дискриминираат жени во процесите за вработување, кредитирање или дијагностика.
  2. Недоверба кон технологијата: кога луѓето забележуваат дека ВИ ги фаворизира мажите или ги занемарува жените, се губи довербата во системите.
  3. Продлабочување на нееднаквостите: наместо да помогне во решавањена проблемите, ВИ може да ги влоши постојаните социјални и родови разлики.
  • Како да се намали родовиот биас?
  1. Разновидни и избалансирани податоци: сетови на податоци треба да бидат репрезентативни за сите родови и етнички групи.
  2. Етничко дизајнирање: развивачите треба да користат родово сензитивни методологии и да праваат ревизии на податоците
  3. Инклузија на жените во тимот за ВИ: поголемата застапеност на жените и другите маргинизирани групи во технолошките тимови ќе придонесе за пошироки перспективи и ќе помогне да се препознаваат пристрасностите.
  • Недоволната застапеност на етничките малцинства во податоците и нејзиното влијание врз ВИ
  • Во ерата на дигиталната трансформација, податоците претставуваат темел врз кој се гради системите на вештачката интелигенција. Сепак, не сите податоци се создадени еднакво, ниту пак сите групи се подеднакво застапени. Во многу современи општества, етничките малцинства се уште се соочуваат со маргинализација, не само на социјално и политичко ниво туку и во самата технолошка инфраструктура. Овој проблем особено доаѓа до израз во процесот на развој на ВИ, каде податоците што се користат често се некомплетни, пристрасни или целосно игнорираат важни етнички, јазични и културни разлики.
  • Кога ВИ алгоритмите се обучуваат со податоци во кои одредени етнички заедници се слабо претставени или целосно отсутни, системот немо7е да научи како да реагира соодветно на нивните потреби. Во практична смисла тоа значи:
  1. Непрецизни резултати( дијагностички алатки, системи за препознавање лица или јазични модели може да имаат значително пониска точност кај малцинствата.)
  2. Системска дискриминација ( ако алгоритмите се користат за носење важни одлуки, тие може несвесно да ги дискриминираат малцинските групи.)
  3. Невидливост (кога податоците не ја рефлектираат реалната разновидност на населението, тоа значи дека етничките малцинства се буквално не видливи за технолошките системи)
  • Примери :

 А) јазични модели и културна едностраност

Најголем дел од јазичните модели исе обучени врз англиски и други доминантни јазици. Малциските јазици како ромскиот, баскискиот или македонскиот- се недоволно застапени, што резултира со лоша машинска обработка на текстови, преводи и комуникација со ВИ системи. Последицата е дигитална изолација на тие заедници.

Б) ситуацијата во локален контекст: Македонија и Балканот

Во македонија постојат повеќе етнички заедници-македонци, албанци, турци , роми, срби , власи и др. Сепак, голем дел од официјалните и институционалните податоци не се детални или не се собираат на начин што ја вклучува етничката разновидност. На пример:

  • Здравствените податоци не се секогаш распределени по етничка припадност, што го отежнува развојот на специфични ВИ алатки за дијагностика или превенција кај различни заедници.
  • Системите за машински превод и препознавање говор често не поддржуваат малциснки јазици како ромски или турски.
  •  Образовните податоци не ја рефлектираат целосно состојбата на учениците од малциснките заедници, што може да резултира со пристрасни препораки и дигитални алатки што не ги разбираат нивните потреби.
  • Потенцијални решенија
  • Свесна и одговорна колекција на податоците ( потребно е институциите, истражувачите и технолошките компании да развијат системи за прибирање на податоци што вклучуваат етничка, родова и културна разновидност. Тоа значи и да се ангажираат луѓе од различни заедници во процесот на дизајнирање и анализа на податоците.)
  • Диверзитет во тимовите што креираат ВИ ( развојните тимови треба да бидат мултикултурни и родово избалансирани. Само така можат да препознаваат пристрасностите кои инаку би останале невидливи)
  • Етничко тестирање и ревизија ( секој алгоритам треба да помине низ процесот на етничка ревизија, при што ќе се проверува дали дава еднакви резултати за различни етнички и родови групи. Овој процес мора да биде транспарентен и достапен за јавноста)
  • Комбинирани дискриминации: род и етничка припадност во ерата на вештачката интелигенција
  • Современите општества се карактеризираат со сложени социјални структури, каде поединците не се дефинирани само по една основа- туку по повеќе истовремено. Жените што припаѓаат на етнички малцинства често се изложени на двојна маргинализација-како жени и како припаднички на заедници што традиционално се маргинализирани. Оваа појава се нарекува интерсекционалност, термин развиен од правничката и активистка Кимберли Креншоу, која улкажува на тоа дека различните форми на дискриминација може да се преклопуваат и засилуваат една со друга. Во контекст на вештачката интелигенција, интерсекционалноста станува се порелевантна, бидејќи алгоритмите често пати не препознаваат, ниту пак адекватно се справуваат со сложените идентитети на луѓето. Кога системите на ВИ се обучуваат врз податоци што се историски пристрасни или еднострани, тие имаат тенденција да ги репродуцираат истите социјални нееднаквости, дури и кога делуваат објективно. Ова е особено опасно кога се работи за жени од етнички малцинства, кои се изложени на комбинирана дискриминација што ги остава речиси целосно невидливи за технологијата.
  • Како се манифестира комбинираната дискриминација во ВИ?

А) невидливост на податоците (системите на ВИ се базираат на големи бази на податоци што ги формираат не само технолошките компании, туку и институциите и јавните сервиси. Проблемот се појавува кога овие податоци не се репрезентативни- односно не ги опфаќаат подеднакво сите групи. На пр, жените од ромската заедница во Македонија многу ретко се појавуваат во официјалните податоци, што значи дека алгоритмите што се обучуваат на тие податоци неможат да ги препознаат нивните специфични потреби или карактеристики.)

Б)преклопување на стереотипи ( кога ВИ анализира податоци, таа често ги учи шаблоните од минатото. Тоа значи дека ако системот забележува историски нееднаквости, ќе ги користи тие информации како нормални. Ваквиот пристап води до автоматско исклучување или маргинализирање на таквите профили од идни шанси- за работа, кредити , социјална поддршка и сл.

В) недоволна точност кај комбинирани категории( многу алгоритми не функционираат доволно прецизно кога треба да обработат информации за луѓе што не спаѓаат во стандардни категории. На пример, систем за препознавање на лице може добро да функционира кај бел маж, умерен кај бела жена, нешто послаба кајј црн маж – но значително полошо кај жена од етничко малцинство.

  • Примерот со ЈУТУБ 

Јутуб и други платформи користат автоматизирани системи за модерирање содржина. Сепак, истражувања и искуства на етничките малциснки заедници особено жени од тие групи, покажуваат дека: содржините што користат одреден јазик или дијалект, се почесто маркирани како непримерни. Жените кои зборуваат за родова или расна нееднаквост често пати се цензурирани од алгоритмите. Со тоа ВИ не само што не препознава различни културни и родови идентитети туку и активно ги потиснува.

Заклучок 

Развојот на вештачката интелигенција претставува една од најреволуционерните технологии во современото општество. Таа носи потенцијал за напредок, но и сериозни ризици кога нејзиниот развој и примена не се изведуваат на етнички и инклузивен начин. Како што се покажа низ истражувањата, вештачката интелигенција не е неутрална- таа ги рефлектира вредностите, пристрасностите и нееднаквостите на општествата што ја создаваат. Особено загрижувачки е тоа што ВИ може да ги репродуцира, па дури и да ги засили постоечките форми на дискриминација, вклучувајќи ги оние базирани на род и етничка припадност. Жените од етнички малцинства се соочуваат со комбинирани на дискримиација, кои ги праваат особено ранливи во дигиталниот свет. Нивната невидливост во податоците, недоволната застапеност во развојот на технологијата, како и пристапот до дигитални ресурси, придонесуваат кон дополнително маргинализирање. Алгоритмите што не препознаваат овие пресекувачки идентитети ризикуваат да донесуваат погрешни, па дури и штетни одлуки во области како вработување, безбедност и сл. Затоа, прашањето, за родова еднаквост и етничка инклузивност во контекст на вештачката интелигенција не е само техничко или академско прашање – туку тоа е општествена правда. Потребна е вклученост на жените и припадници на етничките малцинства не само како корисници, туку и како активни учесници во создавањето на овие технологии. Само преку интерсекциски пристап, критичко размислување и институционална поддршка, може да се создаде вештачка интелигенција, што ќе функционира праведна, етничка и навистина ќе служи за сите без исклучок.

Користена литература

UNESCO. (2021).Recommendation on the Ethics of Artifical Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000367416 

Crawford, K., & Paglen, T. (2019). Discriminating Systems: Gender, Race and Power in Al.Al Now Institute https://ainowinstitute.org/discriminatingsystems.html 

Stanford University. (2024). Al Index Report. Human – Centered Al (HAI)https://hai.stanford.edu/ai-index 

 TBD.org. (2022). Yapay Zeka Etigi Rehberi.https://www.tbd.org.tr/yapay-zeka-etigi-rehberi/ 

AA.com.tr. (2023). Yapay zekada kadinlar daha az temsil ediliyor.https://www.aa.com.tr/tr/bilim-teknoloji/yapay-zekada-kadinlar-daha-az-temsil-ediliyor/2415211 

TESEV. (2023). Yapay Zeka ve Kadin Isgucu Iliskisinin Toplumsal Esitlik Acisindan Degerlendirilmesihttps://www.tesev.org.tr/tr/research/yapay-zeka-ve-kadin-isgucu-iliskisinin-toplumsal-esitlik-acisindan-degerlendirilmesi/ 

Council of Europe. (2021). Women as Equal Partners in the Al Revolution : A call for Gender Equality in the Digital Age.https://www.coe.int/tr/web/ankara/-/women-as-equal-partners-in-the-ai-revolution-a-call-for-gender-equality-in-the-digital-age