Автор Дарко Донев
Апстракт
Оваа семинарска работа ја анализира родовата нееднаквост што постои во областа на вештачката интелигенција (ВИ). Истражувањето се фокусира на два главни проблеми: прво, како алгоритмите содржат и репродуцираат родови пристрасности и второ, недоволната застапеност на жените во развојот и креирањето на ВИ технологиите. Студијата покажува како ВИ системите што користат техники како “вгнездување на зборови” често впиваат и засилуваат постоечки стереотипи од податоците со кои се тренираат. Овие пристрасности потоа се појавуваат во различни примени како автоматско преведување, системи за вработување и здравствени апликации, што води до понатамошна дискриминација.
Преку анализа на повеќе студии и примери, откриваме дека многу ВИ системи “учат” од историски неизбалансирани податоци, што потоа води до одлуки што ја продлабочуваат наместо да ја намалат родовата нееднаквост во општеството. Забележуваме дека иако ВИ се претставува како неутрална и објективна технологија, резултатите што ги дава често ги одразуваат и зајакнуваат постоечките општествени предрасуди.
Нашата работа дополнително ги истражува предизвиците со кои се соочуваат жените во ВИ индустријата, вклучувајќи ограничен пристап до едукација, неповолни работни средини и недостаток на модели за пример на лидерски позиции. Доаѓаме до заклучок дека за ВИ навистина да придонесе кон поправедно општество, потребни се конкретни мерки како зголемена транспарентност во алгоритмите, подобар надзор над развојот на системите и систематска родова анализа при создавањето и тестирањето на ВИ решенијата. Само со активен пристап кон овие проблеми може да се обезбеди дека ВИ технологиите нема да ги продлабочат, туку ќе помогнат во решавањето на постоечките родови нееднаквости.
Родова пристрасност кај ВИ
Студијата на Беркли Хас Центарот за еднаквост, род и лидерство анализираше 133 системи за вештачка интелигенција во различни индустрии и откри дека околу 44 проценти од нив покажале родова пристрасност, а 25 проценти покажале и родова и расна пристрасност
Бејза Догуч, уметничка од Анкара, се соочила со родови предрасуди во ГВИ кога истражувала за роман и ја поттикнала да напише приказна за доктор и медицинска сестра. Генеративната вештачка интелигенција создава нова содржина (текст, слики, видео итн.) инспирирана од слична содржина и податоци на кои била обучена, честопати како одговор на прашања или потсетници од корисник.
ВИ го направила докторот маж, а медицинската сестра жена. Догуч продолжила да ѝ дава повеќе потсетници, а вештачката интелигенција секогаш избирала родово стереотипни улоги за ликовите и поврзувала одредени квалитети и вештини со машки или женски ликови. Кога ја прашала вештачката интелигенција за родовите предрасуди што ги покажува, вештачката интелигенција објаснила дека тоа е поради податоците на кои била обучена и поточно, „вградување на зборови“ – што значи начинот на кој одредени зборови се кодираат во машинското учење за да го одразат нивното значење и поврзаност со други зборови – така машините учат и работат со човечкиот јазик. Ако вештачката интелигенција е обучена на податоци што ги поврзуваат жените и мажите со различни и специфични вештини или интереси, таа ќе генерира содржина што ја одразува таа предрасуда.
Разбирање на пристрасноста во вештачката интелигенција
Иако вештачката интелигенција се користи во различни области, како што е скенирањето на снимки за знаци на рак, најпозната примена е преку ВИ-уредите што се сè поприсутни во домовите и работните места. Зголемената дигитализација, особено за време на пандемијата со COVID-19, дополнително придонесе за нивната сеопфатна употреба. Поради COVID-19, 55 проценти од компаниите ги забрзаа своите планови за имплементација на ВИ со цел да ги надминат недостатоците во вештини во различни индустрии. Сепак, влијанието на овие развојни процеси врз жените и нивното учество на пазарот на трудот, меѓу другото, сè уште не е темелно проучено и документирано.
Родовата пристрасност во ВИ може да се појави на различни нивоа: при развојот на алгоритмите, при обучувањето на податочните сетови, и во одлуките што ги носи ВИ. Апликациите на ВИ функционираат преку алгоритми – збир на инструкции за решавање на проблеми. Компјутерски гледано, овој процес вклучува трансформирање на влезни податоци во излезни податоци. Оттука, видот на податоци што се внесуваат директно влијае врз одлуките што алгоритмите ги носат. Доколку податоците во основа содржат одредени пристрасности, алгоритмите ќе ги реплицираат, а при долготрајна употреба тие пристрасности ќе се зацврстат во процесот на одлучување. Субјективните одлуки при изборот, собирањето или подготовката на податочните сетови исто така може да имаат влијание врз појавата на пристрасност. Ова е особено видливо во многу области на ВИ, како што е обработката на природен јазик (NLP), каде што „вгнездените зборови“ (word embeddings) може да доведат до лингвистички пристрасности кои произлегуваат од сексизам, расизам или ејблизам. На пример, во процес на селекција на кандидати за вработување, автоматизираниот систем за скрининг на биографии на Amazon дискриминирал жени. Моделот бил обучен врз основа на биографии од десетгодишен период, каде што жените биле слабо застапени. Затоа, системот ги поврзувал „лингвистичките сигнали“ со успешните машки кандидати. Откако била откриена пристрасноста, Amazon го отфрли овој модел.
Пристрасноста во евалуацијата на моделот со вештачка интелигенција произлегува и од податоците што се користат за обука на овие модели и од субјективните човечки проценки кои го информираат нивниот развој и проценка. Без разлика дали е свесна или несвесна, пристрасноста може значително да влијае на правичноста и ефективноста на системите за вештачка интелигенција. Примерите варираат од софтвер за препознавање лице што покажува разлики во точноста на различни демографија до алгоритми за одобрување заеми кои ненамерно ги продолжуваат историските предрасуди.
Употребата на ВИ може да има родови последици во широк спектар на контексти
Вгнездувањето на зборови (word embedding), тип на алгоритам, се користи за напојување на функции за автоматско преведување и автоматско довршување на текст во секојдневната технологија. Оваа технологија се обучува врз основа на корпус на податоци составен од обичен човечки јазик, најчесто преземен од онлајн извори како што се новински статии (Bolukbasi et al., 2016; Caliskan et al., 2017). Вистинската новина кај вгнездувањето на зборови е во тоа што се обидува да го разбере и пресмета односот меѓу зборовите, наместо да ги анализира поединечно (Nissim et al., 2020). И покрај неговата иновативност, вгнездувањето на зборови е пример за тоа како слепата примена на машинското учење може да ја засили родовата пристрасност. На пример, едно истражување што го тестирало капацитетот на системот да довршува аналогија добило резултат: „маж е спрема компјутерски науки како што е жена спрема домаќинка“ (Bolukbasi et al., 2016). Друго истражување покажало дека користењето на оваа алатка може да доведе до родова пристрасност во однос на професии што треба да се сметаат за родово неутрални – добиени се различни резултати кога системот добивал „тој“ (доктор) и „таа“ (медицинска сестра) (Lu et al., 2018). Не се работи само за родова пристрасност – се појавуваат и други проблематични културолошки поврзаности. За среќа, постои напор за развој на алатки за откривање и елиминирање на вакви пристрасности (Bolukbasi et al., 2016; Chakraborty et al., 2016; Lu et al., 2018; Prates et al., 2019). ВИ сè повеќе се користи при вработување и при претходни проценки на кандидати – што е клучен фактор за економска можност на секој поединец (Bogen and Rieke, 2018; Metz, 2020). Алатките за вработување базирани на ВИ не само што можат да ги намалат трошоците за работодавачите, туку и потенцијално да помогнат во справување или ублажување на пристрасноста, овозможувајќи (повеќе) еднакви можности за идни и сегашни вработени.
Една од главните предности што се промовира кај оваа технологија е способноста да се оценуваат кандидати објективно, без човечка пристрасност. Меѓутоа, ако алгоритмот е изграден без да ги земе предвид чувствителните карактеристики или ако учи од претходни пристрасни практики за вработување, тој ќе ја репродуцира институционалната и системска пристрасност, и тоа додека изгледа како објективен (Bogen and Rieke, 2018; Raghavan et al., 2020). Такви случаи веќе се случиле на пазарот на труд: неодамна, неколку американски компании користеле алгоритми што ги ставале женските кандидати во неповолна позиција, затоа што алгоритмите учеле од историјата на вработување во компанијата и не успеале да ги идентификуваат релевантните и чувствителни карактеристики во податоците, со што дополнително се зајакнала родовата пристрасност и сегрегација (Dastin, 2018). Потенцијалот на ВИ да коригира дискриминација и да овозможи разновидност на работното место е неоспорен, но може да се реализира целосно само со свесност, транспарентност и надзор.
ВИ има значителен потенцијал да го промени здравството преку сè поголемата достапност на податоци и аналитички техники. ВИ може да учи од големи количини здравствени податоци, самостојно да се коригира за подобрување на точноста и на медицинските дијагнози и терапии, при тоа обезбедувајќи најнови медицински информации на здравствените работници (Jiang et al., 2017). Сепак, медицинските истражувања традиционално не се карактеризираат со родова чувствителност – недоволната застапеност на жени во клиничките истражувања резултирала со родово слепи или пристрасни здравствени услуги (EIGE, 2020a). При примена на ВИ во здравствениот сектор, пристрасност може да се појави од податоците што се користат за креирање, обучување и функционирање на алгоритмите, а ограничувањата на алатката лесно можат да се пренесат во неточни, нецелосни или изобличени резултати. Комплексноста на системите ја отежнува идентификацијата и регулирањето на дискриминаторските практики – што е сериозна грижа со оглед на нивната широка употреба и потенцијалното влошување на животите. Отсуството на родова анализа при дизајнирање, имплементација и евалуација на примена на ВИ во здравствените политики може да резултира со занемарување на постојните здравствени и родови нееднаквости – или создавање на нови (Sinha and Schryer-Roy, 2018).
Лидерство и род
Според извештајот на Светскиот економски форум за глобалниот јаз меѓу половите за 2022 година, само 31% од лидерските позиции во светот ги држат жени, а родовата еднаквост на работното место се намалува. Студија од 2022 година, спроведена од професорите Пауел и Батерфилд, анализираше податоци од пет децении, откривајќи дека аспирациите на жените за врвни менаџерски позиции се намалија во овој век, додека аспирациите на мажите не се намалија. Тие шпекулираат дека општествените норми овековечени во медиумските наративи во кои се тврди дека жените „не можат да имаат сè“ се основа на овие вознемирувачки наоди.
Родовите предрасуди од прва генерација, карактеризирани со отворена и законски санкционирана дискриминација – како што се ограничувањата на правото на жените да гласаат, да одат на универзитет или да се впуштат во одредени професии – во најголем дел се укинати. Спротивно на тоа, токму родовите предрасуди од втората генерација се тие што продолжуваат да го поттикнуваат родовиот јаз во лидерството. За разлика од нивните претходници, овие предрасуди се прикриени, суптилни и честопати вградени во општествените норми, а не во формализираната политика. Иако се сеприсутни и влијателни, предрасудите од втора генерација може да бидат тешки за откривање и надминување.
Пристрасноста на втората генерација има три широки импликации за женското лидерство. Прво, за многу луѓе, кога „размислуваат за лидер“, тие „размислуваат за маж“, бидејќи искуството ги научило дека лидерите имаат тенденција да бидат мажи. На тој начин, лидерството станува премолчено сфатено како улога што е „несоодветна“ со женственоста, но навидум „природно одговара“ на мажите. Второ, истражувањата покажуваат дека жените лидерки честопати се соочуваат со намерни и несвесни напори да се поткопа нивното влијание и авторитет, бидејќи нивното заземање на лидерска улога е спротивно на очекувањата за родовата улога. Следствено, жените лидери имаат поголема веројатност од мажите да бидат прекинати, нивните одлуки да бидат доведени во прашање, нивната компетентност и лојалност да бидат доведени во прашање, нивниот изглед да биде испитуван и директно предизвикан од врсниците или подредените. Трето, истражувањата покажуваат дека постојат многу системски бариери што им отежнуваат на жените отколку на мажите да обезбедат и задржат лидерска улога. На пример, се покажа дека процесите и практиките за регрутирање, менторство, спонзорирање, вмрежување и унапредување се под влијание на родовите предрасуди, што значи дека вратите кон можностите и напредувањето е поверојатно да им бидат отворени на мажите отколку на жените.
Исто така, откривме јасни разлики во тоа како доброто лидерство се карактеризира кај мажите и кај жените лидери. Доброто лидерство од страна на мажите постојано се опишуваше како силни, храбри, спремни за преземање ризици, решителни, компетентни и стратешки, атрибути кои најчесто се совпаѓаат со конвенционалните поими за машкост, како што е овој индикативен цитат:
Добриот лидер секогаш има решеност да ги заврши работите до крај. Без разлика дали станува збор за задача или цел, тие ќе се напрегаат себеси за да го постигнат она што ќе го зацртаат. Луѓето ќе сакаат да следат некого кој е решителен и постојано се залага за успех.
Заклучок
Откако подлабоко ја истражив оваа тема, станува јасно дека родовата нееднаквост во ВИ не е само проблем за експертите – тоа е нешто што влијае на сите нас секој ден. Можеби изгледа дека компјутерите и алгоритмите се “неутрални”, но вистината е поинаква. Тие едноставно го одразуваат светот што го гледаме денес, со сите негови проблеми и неправди, а не светот каков што би сакале да биде.
Кога размислувам за ова, ме загрижува фактот дека нашите ВИ системи учат од податоци што се полни со историски предрасуди и стереотипи. Па така, кога некоја компанија користи ВИ за избор на кандидати за работа, или кога лекарите користат ВИ за дијагностицирање на болести, овие пристрасности може да влијаат на нечиј живот на многу реален начин.
Уште еден голем проблем е што премалку жени работат во ВИ секторот. Во моето истражување видов колку е важно да имаме различни луѓе кои работат на овие технологии. Кога имаме тимови составени главно од мажи од слично потекло, постои голема шанса никој да не забележи проблеми што би биле очигледни за луѓе со поинакви животни искуства.
За да го решиме овој проблем, не е доволно само да направиме “подобри алгоритми”. Треба да работиме на поголеми промени во општеството. Потребно е:
- Да размислуваме за родови прашања во секој чекор од создавањето на ВИ
- Да бараме поголема отвореност за тоа како функционираат овие системи
Без овие промени, се плашам дека ВИ би можела да ги направи работите уште полоши, наместо да ги подобри.
Референци
- https://ssir.org/articles/entry/when_good_algorithms_go_sexist_why_and_how_to_advance_ai_gender_equity
- https://theglobalobservatory.org/2023/03/gender-bias-ethical-artificial-intelligence/
- https://eige.europa.eu/publications-resources/toolkits-guides/gender-equality-index-2020-report/digitalisation-and-equal-rights-role-ai-algorithms?language_content_entity=en
- https://www.bruegel.org/working-paper/gender-perspective-artificial-intelligence-and-jobs-vicious-cycle-digital-inequality
- https://www.sciencedirect.com/science/article/pii/S0090261623000426
- http://periodica.fzf.ukim.edu.mk/godzb/GZ76(2023)/GZ76.57%20Bobi%20Badarevski%20eng-805-815.pdf