Автор Драган Ризов
Вовед
Во современото дигитално општество, вештачката интелигенција (ВИ) претставува една од најтрансформативните технологии, со длабоко влијание врз сите аспекти на човековиот живот. Од автоматизација на работните процеси до персонализирани здравствени дијагнози, ВИ веќе го редефинира начинот на кој функционираме како поединци и како општество. Меѓутоа, иако оваа технологија носи големи ветувања за ефикасност и напредок, таа исто така предизвикува сериозни етички дилеми, особено во областа на родовата еднаквост.
Проблемот со родовите предрасуди во ВИ системите стана особено истакнат во последните години, кога бројни истражувања открија дека алгоритмите често ги засилуваат постоечките општествени неравенки. На пример, системите за автоматизирано регрутирање кои дискриминираат жени, или софтверот за препознавање на лице кој е помалку точен кај жените од одредени етнички групи, се само неколку од многуте примери што ја илустрираат оваа загриженост.
Целта на оваа семинарска работа е да се истражи сложената врска помеѓу вештачката интелигенција и родовата еднаквост, со посебен осврт на начините на кои ВИ ги репродуцира или засилува постоечките родови предрасуди, клучните фактори кои придонесуваат за овие предрасуди (како што се пристрасните податочни множества и недостатокот на разновидност во тимовите што ги развиваат алгоритмите), како и можните решенија и стратегии за создавање на поинклузивни и фер ВИ системи.
Оваа тема е од клучно значење не само за техничките стручњаци, туку и за пошироката јавност, бидејќи одлуките донесени од страна на ВИ системи влијаат на секојдневниот живот на милиони луѓе. Разбирањето на ризиците и можностите поврзани со ВИ и родовата еднаквост е прв чекор кон изградба на поеднакво и праведно дигитално општество.
Вештачката интелигенција (ВИ) претставува област на компјутерските науки која се занимава со создавање системи способни да извршуваат задачи кои традиционално бараат човекова интелигенција. Овие задачи опфаќаат разбирање на природен јазик како што се ChatGPT или гласовните асистенти, перцепција и препознавање преку
компјутерски вид и препознавање на говор, како и решавање на проблеми и одлучување што се манифестира во алгоритмите за препораки и автономните возила. Исто така, ВИ вклучува машинско учење и адаптација, каде системите се подобруваат со искуство.
Во рамките на вештачката интелигенција постојат неколку клучни гранки. Машинското учење (Machine Learning – ML) се однесува на алгоритми кои “учат” од податоци без експлицитно програмирање, како на пример системите за препознавање на слики кои идентификуваат објекти на фотографии. Длабокото учење (Deep Learning – DL) претставува подмножество на машинското учење кое користи невронски мрежи за моделирање на сложени обрасци, како што се GPT-4 за генерирање на текст или AlphaGo за играње Go. Обработката на природен јазик (Natural Language Processing – NLP) ги опфаќа технологиите што ги разбираат, толкуваат и генерираат човечкиот јазик,
како што се преведувачите од типот на Google Translate или разни чатботови. Роботиката и автономните системи се однесуваат на ВИ што контролира физички уреди, како што се роботите во производството или автономните возила.
Денешната примена на вештачката интелигенција е широка и разновидна. Во здравствената заштита се користи за дијагноза на болести преку анализа на медицински слики, во финансиите за откривање на измами и алгоритамско тргување, во образованието за персонализирано учење преку адаптивни платформи, а во транспортот за автономни возила и оптимизација на сообраќајот.
Иако ВИ нуди револуционерни можности, таа сè уште се соочува со бројни предизвици и ограничувања. Меѓу нив се проблемот на “силен AI”, односно системи со свесност како луѓето кои сè уште не постојат, различни етички дилеми поврзани со пристрасност, приватност и употреба во војна, како и зависноста од квалитетни податоци, бидејќи лошите податоци доведуваат до лоши резултати.
Оваа анализа е особено важна за родовата еднаквост, бидејќи ВИ системите се “обучуваат” на историски податоци кои често ги репродуцираат општествените предрасуди, како на пример поврзувањето на жените со домашни улоги. Токму поради ова, испитувањето на врската помеѓу вештачката интелигенција и родовите прашања е од критичка важност за создавање на пофер и поинклузивни технолошки решенија.
Родовата еднаквост, позната и како гендерска еднаквост, претставува фундаментален концепт кој ги опфаќа еднаквите можности, права и обврски за сите родови, без присуство на дискриминација или стереотипизација. Овој концепт се заснова на разбирањето дека родот (Gender) е социјално конструирана категорија која ги опфаќа улогите, однесувањата и очекувањата поврзани со машкоста и женскоста, за разлика од биолошкиот пол.
Родовата еднаквост подразбира отсуство на дискриминација врз основа на родовата припадност во пристапот до ресурси, учеството во одлучувачките процеси и искористувањето на општествените прилики. Понатаму, родовата правда се однесува на активните мерки превземани за исправување на историските и структурните неравенки, како што се воведувањето на квоти за жени во политичките функции.
Значењето на родовата еднаквост се манифестира на повеќе нивоа. Од аспект на човековите права, секој индивидуа има неотуѓиво право на еднаков третман, како што е утврдено во Универзалната декларација за човекови права. Во економска смисла, бројни студии потврдуваат дека компаниите со разновиден родов состав се поефикасни и поуспешни. На социјално ниво, родовите предрасуди претставуваат значителна пречка за напредок, одржувајќи го циклусот на сиромаштија и необразуваност, што се одразува во ограничените можности за девојчињата во STEM областите.
Род и ВИ
Во контекст на вештачката интелигенција, родовата еднаквост добива нова димензија. Од една страна, ВИ може да послужи како моќна алатка за промовирање на еднаквост, на пример преку откривање на дискриминаторни практики во платните разлики. Од друга страна, постои ризик од засилување на постоечките предрасуди, како што демонстрираат случаите на AI-асистентите со женски гласови кои ги нормализираат стереотипите за “послушни жени”, или алгоритмите за кредити кои систематски дискриминираат жени, како во познатиот случај на Apple Card во 2019 година.
Во светот се преземаат различни иницијативи за промовирање на родовата еднаквост во технологијата. UN Women ја води програмата “Gender Equality in Tech” која се фокусира на обучување на жени во областа на вештачката интелигенција. Европската Унија, преку своите директиви, го наметнува барањето за “родова анализа” пред имплементација на ВИ системи. Глобалната кампања #HeForShe, пак, ги поттикнува мажите да се вклучат активно во борбата за родова еднаквост.
Ефикасноста на родовата еднаквост во ВИ системите може да се мери преку неколку клучни индикатори. Разновидноста на податоците е од суштинско значење – дали тренинг множествата вклучуваат претставници од различни родови. Ферноста на алгоритмите се оценува преку анализа дали резултатите се пристрасни кон одреден род. Исто така, клучен показател е и застапеноста на жените и небинарните лица во тимовите кои работат на развојот на ВИ решенија. Вештачката интелигенција (ВИ) претставува не само технолошки инструмент, туку и социјална сила со значително влијание врз родовите норми и стереотипи. Таа поседува двојна природа – може да служи како алатка за напредок на еднаквоста, но истовремено да ги засилува постоечките предрасуди.
Клучните начини на кои ВИ влијае врз родовите норми вклучуваат засилување на стереотипи преку податоците. Добар пример за ова се алатките за машински превод како Google Translate, кои систематски ги преведуваат неутралните зборови кон машки родови форми. Исто така, ВИ придонесува за нормализирање на патријархалните модели преку дизајнерските одлуки, како што е употребата на претежно женски гласови за дигиталните асистенти, што ги поттикнува стереотипите за “послушната женска улога”.
Проблемот на дискриминација во одлучувачките системи е особено изразен. Алгоритмите за вработување, како оној на Amazon, покажаа тенденција да отфрлаат CV-а што содржат зборови поврзани со женските улоги. Слично, кредитните алгоритми, како во случајот со Apple Card, демонстрираа систематска дискриминација кон жените при одредување на кредитни лимити.
Влијанието врз перцепцијата за способности е исто така значајно. Истражувањата покажуваат дека изложеноста на девојчињата на STEM-алатки со машки стереотипи ја намалува нивната самодоверба во математичките области. Платформите за препораки, како YouTube и TikTok, често ги насочуваат младите девојки кон традиционално “женски” содржини.
Овие појави се особено опасни поради нивниот самозасилувачки карактер. ВИ системите, обучени на пристрасни податоци, ги репродуцираат овие предрасуди во своите одлуки, создавајќи своевиден “замрзнат” одраз на општествените норми. Ова доведува до ограничување на можностите за жените и малцинствата и ерозија на јавната доверба во технолошките решенија.
За справување со овие предизвици, неопходни се систематски промени. Првиот чекор е деконструкција на пристрасните податоци преку исклучување на стереотипните примери и инкорпорирање на рамноправни податочни множества.
Дизајнерските решенија треба да се насочат кон создавање на неутрални интерфејси и разновидни претстави. На регулативно ниво, неопходни се закони против AI-дискриминација и воведување обавезни тестови за ферност.
Постојат и позитивни примери на промени. Project Debater на IBM демонстрира како ВИ може да дебатира на неутрален начин, додека феминистичките чатботови како “Феми” активно работат на разбивање на родовите стереотипи. UNESCO, преку своите политики, го промовира развојот на етичка ВИ со родова перспектива.
Овие напори укажуваат на можноста за трансформација на вештачката интелигенција во алатка за промовирање на вистинска родова еднаквост, наместо во инструмент за засилување на постоечките нееднаквости.
Вештачката интелигенција, како технологија која учи од човечкото општество, често ги репродуцира и засилува постоечките родови предрасуди. Овие примери ја откриваат сложената поврзаност меѓу технологијата и општествените норми.
Еден од најпознатите случаи е Amazon AI за регрутирање од 2018 година. При развојот на алгоритам за преселекција на CV-а за технички позиции, системот автоматски ги понижувал кандидатките кои споменувале зборови како “женско здружение” или “женски колеџ”. Оваа пристрасност произлегла од фактот што алгоритмот бил обучен на историски податоци од Amazon кои претежно вклучувале машки кандидати, што го навело системот да го смета присуството на жени за “непожелно”. Откако ја откриле оваа дискриминаторна практика, Amazon го прекинал проектот.
Друг значаен пример е случајот со Apple Card во 2019 година. Алгоритмот на Goldman Sachs, кој го управуваше овој производ, им доделувал значително помали кредитни лимити на жените, иако тие често имале подобри финансиски показатели од мажите. Најгласно е случајот со сопругата на Дејвид Хајнемајер Хансон, создателот на Ruby on Rails, која добила 20 пати помал кредитен лимит од својот маж, и покрај заедничката сметка и нејзиниот повисок кредитен рејтинг. Оваа практика доведе до истрага од страна на Њујоршкиот оддел за финансии.
Проблемот со родовите стереотипи е очигледен и во алатките за машински превод како Google Translate. Овие системи постојано ги преведуваат неутралните зборови кон машки родови форми. На пример, реченицата “He is a nurse. She is a doctor.” се преведува како “Тој е медицинска сестра. Таа е доктор.” Но, во множина, “They are doctors.” автоматски се преведува како “Тие се доктори” (машки род). Оваа практика придонесува за нормализирање на стереотипот дека докторите се мажи, а медицинските сестри жени.
Генеративната вештачка интелигенција, како DALL·E и MidJourney, исто така покажуваат јасни родови предрасуди. Кога се генерираат слики за “CEO”, “scientist” или “engineer”, овие алатки претежно создаваат ликови од мажи. Студиите покажуваат дека 85% од генерираните слики на “научник” се мажи, додека жените се претставени главно како “асистенти” или во “традиционални улоги”. Ова има сериозни последици врз јавната перцепција за тоа кои можат да бидат лидери или научници.
Фејсбук (Meta) исто така се соочи со критики за пристрасност во своите рекламни алгоритми. Истражувањата покажаа дека платформата прикажува реклами за високоплатени работни места претежно на мажи, додека жените ги гледале реклами за “нископлатен” работен простор. Оваа практика доведе до тужба од страна на Американската унија за граѓански слободи (ACLU) во 2019 година.
Овие примери се манифестација на неколку основни проблеми. Прво, ВИ системите се обучуваат на пристрасни податочни множества кои ги рефлектираат историските општествени предрасуди. Второ, тимовите кои ги развиваат овие системи често се претежно машки, што доведува до игнорирање на родовите прашања. Трето, многу компании не спроведуваат доволно етички проверки пред лансирање на своите алгоритми.
За решавање на овие проблеми, неопходни се неколку клучни чекори. Прво, потребно е деконструирање на постоечките податочни множества и вклучување на разновидни примери. Второ, редовни аудити на алгоритмите за проверка на нивната родова ферност пред употреба. И трето, зголемување на застапеноста на жените во тимовите кои работат на развој на ВИ системи, што ќе донесе повеќе разновидни перспективи во процесот на дизајнирање.
Причини за појава на предрасуди во алгоритмите
Вештачката интелигенција како технологија не постои во вакуум – таа е производ на општествените структури и податоците од кои учи. Појавата на родови предрасуди во алгоритмите има длабоки системски корени. Првиот и најфундаментален проблем се пристрасните тренинг-податоци. Бидејќи ВИ системите се обучуваат на историски податоци кои ги рефлектираат општествените предрасуди, тие неминовно ги усвојуваат овие пристрасности. На пример, ако во минатото 80% од извршните директори биле мажи, алгоритмот автоматски ќе поврзе “лидерски улоги” со машкоста, засилувајќи ги постоечките стереотипи.
Друга клучна причина е недостатокот на разновидност во тимовите што ги развиваат овие алгоритми. Статистиките покажуваат дека само 22% од професионалците во областа на вештачката интелигенција се жени, а помалку од 5% потекнуваат од Африка или Латинска Америка. Оваа хомогеност на тимовите доведува до тоа што потенцијален предрасуди остануваат незабележани во процесот на развој.
Техничките одлуки при дизајнирањето на алгоритмите често придонесуваат за појавата на предрасуди. Користењето на погрешни променливи, како на пример употреба на “пол” наместо “кредитна историја” при одлучување за кредитни лимити, или игнорирањето на контекстот како што е отфрлањето на фразите поврзани со женските здруженија како “нерелевантни”, создава системски пристрасности. Случајот со Amazon AI за регрутирање е добар пример за ова, каде системот автоматски ги понижувал CV-а што содржеле зборови поврзани со жените.
Недостатокот на етички стандарди и процедури за проверка претставува уште еден значаен фактор. Многу компании не спроведуваат доволно тестирања за откривање на потенцијални предрасуди пред лансирањето на своите алгоритми. Apple Card, на пример, немал механизам за откривање на родова дискриминација, додека Фејсбуковите рекламни алгоритми не биле проверувани за расна или родова пристрасност пред нивното имплементирање.
Техничките ограничувања на самите алгоритми дополнително го комплицираат проблемот. Современите системи за длабоко учење често се толку сложени што нивните создавачи не можат да објаснат како дошле до одредени одлуки. Оваа “црна кутија” феноменологија ја отежнува идентификацијата на скриените предрасуди во алгоритмите.
Најдлабоко, сепак, проблемот лежи во културните и институционалните предрасуди кои се вградени во самата технологија. Дизајнерските одлуки како што е создавањето на “послушни” и “женствени” гласовни асистенти (Siri, Alexa) или способноста на генеративната ВИ да ги репродуцира општествените стереотипи, сведочат за тоа како општествените норми се инкорпорираат во технолошките решенија.
Решенијата за овие проблеми вклучуваат создавање на разновидни податочни множества кои ги вклучуваат жените, малцинствата и различните култури, спроведување на редовни етички аудити за тестирање на ферноста на алгоритмите, зголемување на разновидноста во тимовите што ги развиваат овие системи, како и зголемување на транспарентноста во процесот на донесување одлуки од страна на алгоритмите. Само со целосен пристап кој ги адресира сите овие аспекти може да се создадат поферни и поправедни системи на вештачка интелигенција.
Покрај веќе наведените фактори, важно е да се разгледа и улогата на економските интереси во одржувањето на родовите предрасуди во ВИ системите. Технолошките компании често се фокусираат на брзина и ефикасност во развојот на алгоритмите, жртвувајќи го вниманието кон етичките импликации. Оваа приоритизација на профитот пред општествената одговорност создава средина каде предрасудите лесно се вкоренуваат. На пример, користењето на постоечки, лесно достапни податочни множества (кои често се пристрасни) е попрентапно и поевтино од создавањето на нови, балансирани збирки податоци. Исто така, пазарните механизми често ги наградуваат алгоритмите кои ги задоволуваат постоечките општествени очекувања (и предрасуди), бидејќи тие се “познати” и “препознатливи” за корисниците. Оваа економска динамика создава инерција која ја отежнува промената, дури и кога компаниите се свесни за проблемот. Дополнително, глобалната природа на технологијата значи дека предрасудите вградени во алгоритмите добиваат меѓународен опсег, пренесувајќи ги општествените норми на една култура во други култури каде тие норми може да бидат уште поштетни. Оваа комплексна економска и културна динамика ја зголемува итниста за развој на нови бизнис модели кои ќе ги вклучат етичките размислувања во сржта на технолошкиот развој
Во последните години се појавуваат и нови форми на предрасуди поврзани со генеративната вештачка интелигенција. Системите како ChatGPT или DALL-E, иако револуционерни, често ги засилуваат стереотипите не само преку содржината што ја создаваат, туку и преку самиот дизајн на нивната интеракција. На пример, студија спроведена во 2023 година од страна на Stanford University откри дека генеративните ВИ модели имаат тенденција да ги претстават жените во традиционални улоги дури и кога експлицитно се бара спротивното. Ова укажува на длабоко вкоренети предрасуди кои не се ограничени само на податоците, туку се вградени во самите архитектури на моделите.
За системско решавање на проблемот со родовите предрасуди во ВИ системите, потребен е сеопфатен пристап кој ги опфаќа техничките, организациските и регулаторните аспекти. Клучната точка на интервенција се податочните множества кои ги користат алгоритмите за обука. Традиционалните збирки податоци често рефлектираат историски предрасуди, па затоа е неопходно да се развијат нови, балансирани податочни ресурси. Ова вклучува креирање на синтетички податоци за недостапно застапените групи, како и активно балансирање на постоечките збирки. IBM, на пример, разви база на податоци наречена “Diversity in Faces” која содржи над еден милион слики од луѓе со различни родови, етнички припадности и возрасти,
специјално дизајнирана за подобрување на точноста на системите за препознавање на лице.
На техничко ниво, постојат неколку напредни методи за намалување на предрасудите во алгоритмите. Adversarial debiasing е една таква техника каде моделот се тренира истовремено да ги отстрани предрасудите додека учи. IBM ја разви библиотеката AI Fairness 360 која овозможува имплементација на вакви методи. Друг пристап е rejection option classification, каде системот е дизајниран да ги отфрла потенцијајално пристрасните одлуки. Овој метод е успешно применет во кредитните алгоритми на Zest AI. Дополнително, развојот на explainable AI (XAI) алатки како LIME и SHAP овозможуваат подобро разбирање на процесот на донесување одлуки од страна на алгоритмите.
Дизајнот на корисничките интерфејси исто така игра клучна улога во намалувањето на родовите предрасуди. Традиционално, гласовните асистенти како Siri и Alexa биле дизајнирани со претежно женски гласови, што ги засилува стереотипите. Како алтернатива, IBM го разви гласот Q за својот Watson систем, кој има неутрални, андрогени карактеристики. Исто така, при креирањето на генеративни содржини, важно е да се користат инклузивни промпти кои ја промовираат разновидноста, на пример со експлицитно наведување на “жена-инженер” наместо само “инженер”.
На регулаторно ниво, неопходни се јасни стандарди и политики. Европската унија со својот AI Act стана пионер во воспоставувањето на правна рамка која ги регулира алгоритмите со висок ризик. Овој акт специјално ги адресира прашањата поврзани со дискриминација и предрасуди. Слично, компаниите како Microsoft развија внатрешни Guidelines for Responsible AI кои вклучуваат детални процедури за проверка на родови предрасуди во секоја фаза од развојниот циклус.
За да се осигура долгорочната одржливост на овие решенија, неопходно е да се вклучат жените и малцинските групи во самиот процес на развој на ВИ. Истражувањата покажуваат дека тимовите со поголема разновидност се поефикасни во идентификувањето и решавањето на проблемите со предрасуди. Програмите за менторство и стипендии за жени во STEM области, како и иницијативите за зголемување на застапеноста на малцинските групи во технолошките компании, се клучни за создавање на поинклузивна индустрија.
Имплементацијата на овие решенија бара соработка помеѓу академската заедница, индустријата и регулаторните тела. Потребни се континуирани истражувања за евалуација на ефективноста на различните методи, како и создавање на стандардизирани метрики за мерење на предрасудите. Паралелно со тоа, важно е да
се развијат образовни програми кои ќе ги осигурат идните генерации на AI инженери да бидат свесни за етичките импликации на нивната работа.
Длабинската анализа на родовите предрасуди во вештачката интелигенција открива уште неколку критични аспекти кои заслужуваат внимание. Еден од највознемирувачките примери доаѓа од областа на здравствената технологија. Во 2019 година, истражувачите откриле дека алгоритам кој се користи за упатување на пациенти во специјалистичка нега систематски ги потценувал потребите на жените. Системот, обучен претежно на податоци од машки пациенти, не ги препознавал симптомите на срцеви заболувања кај жените, бидејќи тие често се манифестираат поинаку. Ова довело до тоа илјадници жени да бидат упатени на помалку интензивни третмани од колку што им биле потребни.
Уште еден значаен пример се алгоритмите за препознавање на лице. Студија спроведена од MIT Media Lab во 2018 година открила дека комерцијалните системи имаат значително поголема стапка на грешки кај жените со потемна кожа – до 34% во споредба со мажите со светла кожа. Оваа разлика станува уште позабележителна кога се анализираат возрасни жени, што укажува на “тројна предрасуда” врз основа на пол, раса и возраст.
Во областа на образованието, алгоритмите за препорака на кариерни патишта често ги насочуваат девојчињата подалеку од STEM дисциплини. Во една студија спроведена во европски училишта, било откриено дека платформите за едукативна ВИ во 73% од случаите ги препорачувале “традиционално женските” професии на ученички кои покажале извонредни резултати по математика и науки.
Проблемот на родовите предрасуди во вештачката интелигенција претставува сложен системски предизвик кој ги рефлектира длабоко вкоренетите општествени нееднаквости. Како што покажаа примерите од различни сектори – од здравствената заштита до образованието и регрутирањето – овие предрасуди имаат реални и потенцијално опасни последици врз животите на милиони луѓе.
Сепак, оваа криза носи и можност за трансформација. Развојот на етички рамки, подобрувањето на разновидноста во технолошките тимови и создавањето на поинклузивни податочни множества можат да ја претворат вештачката интелигенција од алатка за засилување на предрасудите во моќен механизам за промовирање на родова правда. Клучно е технолошката индустрија да ги признае овие предизвици и активно да работи на нивно надминување, а регулаторните тела да воспостават јасни стандарди и механизми за надзор.
Иднината на вештачката интелигенција не треба да биде продолжение на нееднаквото минато, туку можност за изградба на поправеден дигитален свет. Ова бара колективен напор на истражувачи, програмери, политичари и општеството во целина. Само преку свесна и наменска акција можеме да обезбедиме дека технологијата ќе ги отсликува најдобрите, а не најлошите аспекти на човечкото општество.
Користена литература:
1. Buolamwini, J., & Gebru, T. (2018). “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”. Proceedings of the Conference on Fairness, Accountability, and Transparency. DOI: 10.1145/3178876.3186038
2. Obermeyer, Z., et al. (2019). “Dissecting racial bias in an algorithm used to manage the health of populations”. Science, 366(6464), 447-453. DOI: 10.1126/science.aax2342
3. Mehrabi, N., et al. (2021). “A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys, 54(6). DOI: 10.1145/3457607
4. Holstein, K., et al. (2019). “Improving Fairness in Machine Learning Systems: What Do Industry Practitioners Need?”. Proceedings of the CHI Conference on Human Factors in Computing Systems. DOI: 10.1145/3290605.3300830
5. IBM Research (2020). “Diversity in Faces: A Dataset for Advancing the Study of Facial Recognition”. IBM Journal of Research and Development.
6. European Commission (2021). “Proposal for a Regulation on Artificial Intelligence (AI Act)”. Достапно на: https://eur-lex.europa.eu/legal content/EN/TXT/?uri=CELEX%3A52021PC0206
7. Microsoft (2022). “Responsible AI Standard”.
8. Google AI (2021). “MinDiff Framework: Mitigating Unfair Bias in Machine Learning Models”. Google AI Blog.
https://ai.googleblog.com/2021/01/mitigating-unfair-bias-in-machine.html 9. Zest AI (2022). “Fair Lending Through Machine Learning”. White Paper.
10.UNESCO (2021). “AI and Gender Equality”. https://unesdoc.unesco.org/ark:/48223/pf0000378234