Родовата нееднаквост во алгоритмите: Како  машинското учење ги репродуцира општенствените  предрасуди

Published by

on

6em4wxg1

Автор  Јордан Грков

Вовед 

Во современото дигитално општество, вештачката интелегенција (ВИ) и машинското  учење играат се поголема улога во нашето секојдневие – од одлуки во банкарство, здраство  и образование, до препораки на социјални мрежи и филтрирање на содржина. Иако овие  технологии нудат бројни предности, тие исто така носат и ризици, особено кога станува  збор за општенствената правичност и еднаквоста. Еден од најзагрижувачките аспекти е  начинот на кој алгоритмите можат да ја репродуцираат и зајакнат родовата нееднаквост,  особено кога станува збор за родовите улоги и дискриминацијата врз жените. 

Машинското учење се потпира на големи количини историски податоци , кои често  рефлектираат длабоко вкоренети општенствени предрасуди и нерамнотежи. Наместо да ги  неутрализира овие неправди, технлогоијата честопати ги засилува, токму поради тоа што  алгоритмите се обучуваат врз основа на реални податоци. Иронијата е што системи кои се  сметаат за технички прецизни и непристрасни, во суштина може да доведат до создавање  на автоматизирана дискриминација која е потешка за препознавање и оспорување. 

Ќе биде разгледано како алгоритмите ,,учат” од историски податоци кои веќе содржат  пристрасност, и на кој начин ова влијае врз жените во различни области. Ќе бидат  анализирани конкретни случаи од пракса и предложени стратегии и насоки за содавање  поправични и инклузивни технолошки решенија. Целта е да се укаже на важноста на  интегрирањето на родова перспектива во дизјанот и имплементацијата на вештачката  интелегенција. 

Што е машинско учење и алгоритамска пристрасност  

Машинското учење е гранка на вештачката интелегенција која се заснова на развој  на алгоритми што учат од податоци и со тек на време го подобруваат своето 

однесување без експлицитно програмирање. Овие системи се користат за  предвидување, препознавање на шаблони и донесување одлуки. 

Сепак, машинското учење не е неутрално. Алгоритмите учат од податоците кои им  се дадени, а ако тие податоци содржат родова пристрасност – на пример,  историски примери на дискриминација или родово нееднаква распределба на  улоги, тогаш алгоритмот ќе ги интернализира тие пристрасности. Ова се нарекува  алгоритамска пристрасност (algorithmic bias ) и претставува сериозна закана за  правичноста на автоматизираното донесување на одлуки. 

Како настанува родова пристрасност во алгоритмите 

Родовата пристрасност може да настане во некоклу клучни чекори во процесот на развој  на машинското учење:

При избор на податоци за обука: Ако податоците се засноват на општенствени  практики каде што жените биле помалку присутни ( во лидерски позиции),  алгоритмот ќе научи дека мажите се посоодветни за тие улоги. 

При означување на податоци: Често луѓето кои ги категоризираат податоците  несвесно внесуваат сопствени предрасуди. 

При избор на метрика за успех: Алгоритмите се оптимизираат за точност, а не за  правичност, што значи дека дискриминаторски модел може да биде успешен од  техничка гледна точка 

Реални примери за дискриминација врз основа на пол 

Пример 1: Amazon систем за вработување

Амазон во 2018 година разви систем за автоматско рангирање на биорафии за работни  позиции. Системот учеше од податоци за вработувања од претходни 10 години, каде што  најголем дел од успешните кандидати биле мажи. Како резултат на тоа , алгоритмот почна  да ја намалува оценката на кандидатки само затоа што во нивните биографии се  споменувале зборови како ,,women’s”, автоматски претпосавувајќи дека се помалку се  квалификувани 

Пример 2: Face recognition системи 

Истражувањата покажаа дека системите за препознавање на лица имаат значително  помала точност за жени со потемна кожа. Ова се должи на фактот што системите биле  тренирани главно на слики од бели мажи, што резултира со висока стапка на грешки за  другите групи. 

Родовата присрасност во препорачувачки системи 

Препорачувачките алгоритми, кои се користат на платформи како YouTube, Netflix,  или други дури и Linkedin, можат да ги репродуцираат родовите стереотипи, преку тоа  што препорачуваат содржини или можности различно за мажи и жени. На пример,  некои истражувања покажуваат дека машките корисници добиваат повеќе  препораки за високо платени работни позиции, додека жените почесто добиваат  препораки за административни или помалку платени улоги. Овие несвесни  пристрасности може да влијаат на самодовербата и изборите на жените, што  дополнително го засилува родовиот јаз.

Технолошка писменост и родовата нееднаквост 

Еден од начините за намалување на родовата пристраност во технлогоијата е  зголемување на технолошката писменост кај жените и девојчињата. Истражувањата  покажуваат дека многу земји, девојчињата имаат помал пристап до компјутери,  интернет и формално ИКТ образование. Ова ги става во неповолна позиција не само  како корисници на технологијата, туку и како потенцијални креатори.  

Организации како Girls Who Code и UNESCO спроведуваат програми кои имаат за цел  да ги охрабрат девојчињата да се вклучат во СТЕМ областа уште од млади години.  Овие иницјативи не само што ги едуцираат младите жени, туку и создаваат мрежа на  поддршка и модели кои ги рушат стереотипите дека технологијата е ,,машка област”. 

Проблеми со генеративна вештачка интелегенција и род 

Генеративните модели како GPT, DALL-E или други слични алатки можат да  произведуваат содржина што ја репродуцира општествената притрасност. На  пример, кога ќе се побара ,,директор” или ,,инженер” повеќето генерации  претставуваат машки фигури, додека за ,,учителка” или ,,медицинска сестра” се  прикажуваат жени. Овие модели се тренирани на големи количини на интернет  податоци, каде што постојат длабоко вкоренети стереотипи, и тие несвесно ги  пренесуваат во својата продукција. 

Последици од алгоритамска пристрасност 

Родовата пристраност во алгоритмите не е само технички проблем , таа има реални  последици врз животите на луѓето: 

Неправедно вработување 

Жените може да бидат исклучени од процеси на селекција во ИТ или  инженерски компании.

Пристап до кредити и здраствени услуги 

Автоматизирани системи може да понудат понеполовни услови за жени, или  да препознаат помалку ризик за машки пациенти. 

Општенствено нормализирање на дискриминацијата 

Кога алгоритмите се сметаат за објективни луѓето може да ја прифатат нивната  дискриминаторна одлука без преиспитување 

Мерки за подобрување на правичноста 

За да се намали или елиминира алгоритамската родова пристрасност, потребни се  некои од следниве чекори: 

Разновидни и балансирани податоци 

Мора да се користат податоци кои се репрезентативни за различни родови и  социјални групи. 

Тестирање на алгоримите за пристрасност 

Програмерите треба редовно да ги тестираат алгоритмите за резултати кои се  дискриминаторски и да ги прилагодуваат метриките за правичност. 

Интердисциплинирани тимови 

Развој на ВИ системи треба да вклучува не само инженери, туку и експерти по  етика, социологија и родови студии. 

Транспарентност и одговорност 

Потребно е да се знае како функционираат алгоритмите и кој е одговорен кога  тие ќе направат штета.

Едукација и етичка обука во развојот на ВИ 

Еден начин тоа да се намали пристрасноста е преку вклучување на етичка обука во  образованието на идните инженери, програмери и аналитичари на податоци. Освен  технички вештини, потребно е младите да бидат запознаени со социјалните  импликации на технологијата која ја создаваат. Ова вклучува и познавање на  родовите студии, како и обуки за критичко размислување при избор и анализа на  податоците. 

Економските импликации на алгоритамската пристрасност 

Алгоритамската присрасност има и значителни економски последици. Кога жените  се недоволно претставени или дискириминирани преку автоматизирани системи, тоа  значи дека економијата ја губи нивната потенцијална продуктивност. На пример, ако  алгоритам за регутација редовно одбива ги одбива жените за ИТ позиции,  компаниите ја пропуштаат шансата да вработат квалификувани кадри и да создадат  поразновиден тим, што е докажано дека води до поголема иновација и  профитабилност. 

Законска регулатива и политика 

Во последните години, некои земји почнаа да размислиуваат за воведување на  законски рамки кои ќе ги регулираат пристрасните алгоритми. ЕУ, преку предлогот за  Акт за вештачка интелегинција , планира да ги регулира високоризичните системи,  кои вклучуваат алгоритми за вработување, образование и јавни услуги. Овие закони  бараат транспарентност, објаснивост и тестирање за правичност, чекори кои  придонесуваат за поголема заштита на ранливите групи, вклучително и жените.

Родовата застапеност во технолошките тимови 

Поголема родова застапеност во тимовите кои развиваат алгоритми може да влијае  на свесноста за пристрасност. Жените често имаат различна перспектива за тоа како  технологијата функционира во реалниот свет, особено кога станува збор за прашања  повразани со дискриминација. Промовирање на инклузивност во технолошките  компании не само што е фер, туку и резултира со поквалитетни поправични  производи 

Медиумите и јавната перцепција за ВИ и род 

Како што алгоритмите стануваат се поинтегирани во секојдневниот живот, медиумите  играат клучна улога во обликувањето на јавната перцепција за нивната улога и  влијание. Често, медиумите ги прикажуваат вештачката интелегенција и роботиката  како машки домени, иако се користат од сите. Популарната култура и рекламирањето  исто така често ги користат стереотипите, мажи како програмери и хакери, жени како  асистентки или дигитални помошници. 

Овој наратив дополнително ја зајакнува родовата рамнотежа и влијае на младите  генерации во формирањето на нивните амбиции и интереси. Потребни се  поинклузивни и родово свесни претстави за ВИ во медиумите, како кампањи кои ја  нагласуваат важноста на жените во технолошкиот развој.

Вештачката интелегенција и иднината на родовата еднаквост 

Развојот на вештачката интелегеницја (ВИ) претставува двосек меч во однос на  родовата еднаквост. Од една страна, технологијата има потенцијал да се користи за  унапредување на еднаквоста преку алатки што откриваат и корегираат пристасности.  Од друга страна, ако не се дизајнира внимателно ВИ може да ги влоши постојаните  нееднаквости. 

Во иднина, важно е да се вклучат повеќе жени во дизајнирањето , програмирањето и  развојот на системи базирани на ВИ. Разновидноста во тимовите што ги градат овие  технологии може да помогне да се идентификуваат пристрасности во рана фаза и да  се обезбеди пофер дизајн. 

Покрај тоа, се појавуваат иницијативи кои користат ВИ за мониторинг на родова  еднаквост, како пример анализа на јазикот во огласите за работа, за да се избегне  користење на јазик што нсвесено исклучува жени или други маргинлизирани групи. 

Иднината ќе зависи од тоа како ќе ги обликуваме алатките, дали ќе ги користиме за  одржување на статус,или како средства за трансформација и праведност. За да се  постигне втоорот, неопходна е меѓусекторска соработка: од акедемијата,  индустријата, граѓанскиот сектор и владините тела. 

Препораки за идни истражувања 

• За да се создадат уште посилни механизми за справување со алгоритамската  пристрасност, потребни се следниве насоки за идни истражувања: • Анализа на родова пристрасност во локални ИКТ проекти и алатки, особено во  земји во развој. 

• Истражување на ефектот од родовата нееднаквост на податоците при  имплементација на ВИ во образованието. 

• Развој на методологии за инклузивно собирање и обработка на податоци со  почит кон разновидноста. 

• Креирање на отворени платформи за следење и пријавување на  дискриминациски случаи предизвикани од алгоритми.

Заклучок 

Машинското учење и вештачката интелегенција имаат огромен потенцијал да го  подобрат квалитето на живот, но доколку не се користат внимателно, тие можат да ја  зајакнат родовата нееднаквост. Како што технологијата се повеќе интегрира во  општенствените процеси, неопходно е да се осигураме дека нејзиното влијание е  праведно и инклузивно. Препознавањето и адресирањето на алгоритамската  присрасност е чекор кон изградба на дигитална иднина, каде што технлоогијата не ги  репродуцира старите предрасуди, туку ги надминува 

Библиографија 

1. Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word  Embeddings. 

[1607.06520] Man is to Computer Programmer as Woman is to Homemaker?  Debiasing Word Embeddings 

Dissecting racial bias in an algorithm used to manage the health of populations – PubMed 

2. Dissecting racial bias in an algorithm used to manage the health of populations. Dissecting racial bias in an algorithm used to manage the health of populations – PubMed 

Dissecting racial bias in an algorithm used to manage the health of populations |  Science 

3. Gender Shades: Intersectional Accuracy Disparities in Commercial Gender  Classification. 

Gender Shades: Intersectional Accuracy Disparities in Commercial Gender  Classification 

4. Amazon scrapped ‘biased’ AI recruiting tool. 

Insight – Amazon scraps secret AI recruiting tool that showed bias against women |  Reuters 

5. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. а Automating Inequality 

6. Algorithms of Oppression: How Search Engines Reinforce Racism. Algorithms of Oppression

Algorithms of Oppression: How Search Engines Reinforce Racism: Noble, Safiya  Umoja: 9781479837243: Amazon.com: Books 

7. Cracking the Code: Girls’ and Women’s Education in STEM. 

unesdoc.unesco.org/ark:/48223/pf0000253479 

8. How Ai reinforces gender bias – and what we can do about it 

How AI reinforces gender bias—and what we can do about it | UN Women – Headquarters