Стефан Балоски
Во последните неколку години, вештачката интелигенција станува се поголем и поголем дел од нашето секојдневие. Ја користиме за одговори на секакви прашања, различни препораки за исхрана, музика, филмови итн. Може да се каже дека таа е веќе дел од нашиот живот како една помошна алатка која е тука во секој момент да ни помогне да се справиме со било каков проблем од секојдневието. Со брзиот развој на вештачката интелигенција, произлегува и прашањето за тоа какви општествени и морални последици ќе има користењето на вештачката интелигенција. Па затоа се отвораат многу дискусии за тоа какво влијание ќе има врз родовата еднаквост.
Оваа технологија е наменета да се користи како алатка се со цел да им помогне на луѓето за напредок на човековите права и еднаквоста. Погрешното користење на оваа алатка може да ги репродуцира или уште повеќе да ги засили веќе постоечките нееднаквости кои се моментално присутни, што може да доведе до тотален колапс на секој можен напредок кој е постигнат до овој момент. Затоа ова особено се однесува на родовата еднаквост, бидејќи и без постоењето на вештачката интелигенција, областа на родовите еднаквости се соочува со бројни предизвици на секаде во светот.
Во оваа семинарска работа ќе се фокусираме на тоа како ВИ влијае врз родовата еднаквост. Преку примери од реалниот свет ќе ги согледаме позитивните и негативните аспекти, како и препораки за етичка и инклузивна примена на оваа технологија. Целта е да се добие појасна слика за тоа како може да се создаде технолошки развој кој нема да ги исклучува луѓето врз основа на нивниот пол, него ќе ги вклучува и поддржува. Вештачката интелигенција има голем потенцијал да биде клучен фактор за голем напредок во решавање на прашањата за родовата еднаквост, но се тоа зависи од начинот на кој се употребува, етичките стандарди и свесноста за постоечките општествени нееднаквости кои треба да се надминат. Само со одговорен и инклузивен пристап, ВИ може да стане моќен сојузник во борбата за еднаквост и правда во општеството.
Родовата нееднаквост не е ништо ново, таа отсекогаш била присутна векови и векови во минатото, таа отсекогаш била длабоко вкоренета во сите економски, културни и историски структури. Без разлика на кое место во светот, на пример жените со децении, па дури и со векови биле мета на оваа нееднаквост, соочувајќи се со ограничен пристап за образование, пронаоѓање на работа или работно место, различни технолошки ресурси и ред други ограничувања. Овие ограничувања често ги ставале во подредена позиција во однос на мажите, особено во полињата како што се науката, инженерството и технологијата, со тоа што мажите имале најголем приоритет во било кое поле. Во минатото, дури и кога жените ќе имале некаков придонес кон науката или развој на технологијата, нивниот труд честопати останувал невидлив и никој не го забележувал тоа. Еден пример за ова се жените програмери кои работеле на првите компјутери во текот на Втора светска војна, така наречени “компјутерки” во НАСА или жените кои работеле и ги програмирале првите ЕНИАК машини. Иако нивниот придонес резултирал со револуционерни иновации и развиток на технологијата што денес ја знаеме и користиме, денес нивните имиња ретко се споменуваат во историските книги и учебници.
Со појава на дигиталната ера и интернетот, се создаваат нови можности, но исто така и нови предизвици. Жените се уште помалку застапени во ИТ секторот, а некои од денешните сервиси и алгоритми кои се користат за секакви апликации за вработување и слично и социјални мрежи, доколку лошо се дизајнирани или имплементирани, тогаш може да го репродуцираат овој историски дисбаланс. Ова историско разбирање е клучно, бидејќи покажува дека технологијата не е неутрална и во секој момент може да прерасне во опасно оружје против родовата нееднаквост.
Технологијата е производ на општествените вредности, а доколку овие фундаментални вредности не ја вклучуваат родовата еднаквост, технологијата може несвесно да ја одржува или дури и да ја влоши нееднаквоста. Со појавата на вештачката интелигенција ова станува многу покомплицирано.
Иако вештачката интелигенција е технички напредна, нејзината „интелигенција“ доаѓа од големиот број на податоци со кои е обучена. Ако овие податоци содржат родови пристрасности и дискриминирање кон специфичен пол, тогаш и системите што ги користат овие алатки ќе донесуваат пристрасни одлуки кои ќе наштетат на родовата еднаквост. Во продолжение се неколку примери за ова:
Алгоритам за вработување на Amazon: Во обид за да се автоматизира и подобри процесот за селекција на кандидати, Amazon развива систем за скрининг на биографии користејќи вештачка интелигенција. По одредено време, било откриено дека алгоритмот има тенденција да ги фаворизира кандидатите од машкиот пол, а да ги дискриминира кандидатите од женскиот пол, особено за технолошките позиции. Главната причина за ова била многу едноставна, системот односно алгоритмот учел од историски податоци каде што повеќето вработени биле мажи, па овој алгоритам заклучил дека машките кандидати се поквалифицирани, односно посоодветни од жените.
Алгоритми за препознавање на лица: Истражувањата покажуваат дека многу системи за препознавање на лица имаат низок степен на точност кај жените, особено кај жени со потемна кожа. Според една студија на MIT Media Lab, некои алгоритми грешеле до 34% кога идентификувале црни жени, додека точноста за бели мажи била над 99%. Ова претставува сериозен проблем, особено ако се користи за безбедносни цели, при што постои ризик некој да биде погрешно идентификуван.
Гласовни асистенти и родови стереотипи: Гласовните асистенти како Siri, Alexa и Google Assistant традиционално користат женски гласови поради перцепцијата дека женскиот глас е „посмирен“ и „послушен“. Ова дополнително го засилува стереотипот дека жените треба да бидат сервилни и подредени. Иако ова е директна дискриминација, испраќа суптилни пораки кои можат да влијаат врз нашето несвесно доживување на родовите улоги. Ова не претставува толку голем проблем со тоа што има опција за гласот на овие асистенти да биде сменат во машки глас.
Социјални мрежи и алгоритамски пристрасности: Алгоритмите што ги контролираат нашите социјални мрежи често одлучуваат кој и што ќе види, базирано на претходно однесување. Постојат докази дека ваквите системи може да промовираат содржини што се повеќе видливи кај машка публика или дека одредени огласи (на пример, за високо платени работни места) се прикажуваат почесто на мажи отколку на жени.
Овие примери ја покажуваат сериозноста на проблемот – иако ниту еден од овие системи не бил намерно дизајниран да биде негативно насторен кон родовите еднаквости, последиците сепак се реални. Затоа е важно да се вклучи родова перспектива уште во фазата на дизајн и тестирање на ВИ-системите.
Иако ВИ може да придонесе за репродукција на родова нееднаквост, таа истовремено нуди голем потенцијал за промени на подобро само ако се користи свесно, одговорно и инклузивно. Се повеќе истражувачи, организации и институции се фокусираат на тоа како ВИ може да се искористи за поддршка и унапредување на родова еднаквост. Еден од овие начини е анализата на податоци за родова нееднаквост. Преку ВИ алатки и алгоритми, можеме побрзо и подетално да анализираме огромни количини податоци и да откриеме модели на дискриминација кои инаку би останале незабележани. Овие анализи се користат од невладини организации и меѓународни тела како ОН за мерење на родовиот јаз во образованието, платите, политичката застапеност и здравствената грижа. Исто така компаниите и истражувачите се почесто ги применуваат така наречени “етички рамки за ВИ” кои вклучуваат различни критериуми како правичност, транспарентност и инклузивност. Некои иницијативи како на пример AI4Good, активно промовираат проекти кои вклучуваат жени и се фокусираат на прашања како насилство врз жени, родова здравствена едукација или економска поддршка.
Постојат апликации базирани на ВИ кои се дизајнирани специјално за жени како на пример, апликација за детекција на здравствени симптоми поврзани со менструални циклуси, бременост или ментално здравје. Други се користат во рурални области за да им помогнат на жените земјоделки со прогнози за времето или пристап до информации за пазарот. Се повеќе и повеќе програми и иницијативи се појавуваат со цел да ги вклучат жените во секторот за вештачка интелигенција, преку стипендии, курсеви, хакатони и менторски програми. Една од познатите е „Women in AI“, глобална заедница која промовира лидерство на жени во оваа област. Присуството на жени во дизајн и имплементација на ВИ значи и поголема чувствителност кон прашањата на еднаквост.
Со цел да се минимизира ризикот од репродукција и влошување на родовата дискриминација, важно е уште од почетокот дизајнирањето и развојот на ВИ системите да се вгради родовата свесност. Ова не е нешто што може да биде додадено подоцна, туку треба да биде дел од целиот процес, односно треба да биде дел од фундаменталните темели на системот кој се гради. Ова ќе се постигне со тоа што податоците на кои овие ВИ системи се тренираат, тие треба да бидат разновидни и репрезентативни. Како на примерот од претходно за системот кој препознава лица, ако базата на податоци за препознавање на лица содржи фотографии со само машки лица, системот ќе биде пристрасен и ќе има потешкотии да препознае лица кои не одговараат на тие параметри. Затоа еден од првите чекори е темелна анализа на податоци и корекција на родовиот дисбаланс. Друга работа е разновидноста на тимовите кои ги развиваат и градат овие системи. Ако во овие тимови има индивидуалци од различен род, различна етничка припадност, позадина и искуство тогаш можностите се зголемуваат за да се идентификуваат потенцијални пристрасности уште во раните фази. Жените и другите маргинилизирани групи често имаат искуства кои им овозможуваат да забележат детали кои другите можеби ќе ги испуштат.
По развивање на овие системи, важно е тие да бидат тестирани со реални сценарија, во различни контексти и со различни корисници. На пример, систем за автоматска селекција на кандидати треба да биде тестиран така што ќе се провери дали подеднакво ги оценува машките и женските апликации на едно работно место, без разлика на личноста или начинот на изразување. За крај секако откако се ова ќе биде завршено останува редовно ажурирање и надзор на овие системи. Како што светот се менува и системите треба да бидат прилагодувани на овие промени. Пристрасност може да се појави и со текот на времето, дури и ако на почетокот била минимизирана. Постои потреба од континуирано подобрување.
И покрај зголемениот интерес за темата, жените сè уште се недоволно застапени во областа на вештачката интелигенција. Овој дисбаланс не само што го одразува поширокиот родов јаз во технологијата, туку и директно влијае на квалитетот и пристрасноста на самите ВИ-системи. Истражувањата на World Economic од 2023 година покажува дека помалку од 26 проценти од професионалците кои работаат во областа на вештачката интелигенција се жени. Во академските кругови и научните трудови, само околу 18 проценти од авторите на трудови за вештачка интелигенција се жени. Овие бројки се речиси идентични и во индустријата и во истражувањето.
Неколку фактори придонесуваат за ниската застапеност на жените во оваа област како што е недостатокот на поддршка и менторство во технолошките кариери, родовите стереотипи уште во основното и средното образование, недостаток на женски примери или модели за идентификација, несоодветна работна култура и несигурни услови во некои ИТ сектори итн.
Кога во развојот на вештачката интелигенција доминираат мажи, особено во лидерските позиции, постои ризик важни родови перспективи да бидат игнорирани. Одлуките за тоа кои податоци ќе се користат па се до тоа кои проблеми вреди да се решаваат, се засноваат на искуствата и перцепциите на ограничена група. Ова доведува до системи кои несвесно ја репродуцираат родовата нееднаквост.
Во последниве неколку години се појавуваат низа иницијативи за вклучување на што е можно повеќе жени во технолошкиот сектор и секторот за вештачка интелигенција. Од претходно спомнатите се Women in AI, AI4All, универзитетски стипендии и специјални програми за девојчиња во СТЕМ области итн. Овие иницијативи се од голема важност за секоја дискриминирана особа која е цел на родовата нееднаквост.
За вештачката интелигенција да биде вистински корисна алатка за општествен напредок, нејзината примена мора да биде внимателно планирана, етичка и инклузивна. Интеграција мора да биде во етички рамки во сите фази, со тоа што компаниите треба уште од фазата на дизајн да вградат принципи како правичност, транспарентност и недискриминација. Препорачано е да се користат алатки за автоматско тестирање на пристрасности како што се Fairlearn и AI Fairness 360. Разновидноста во развојните тимови е клучна за откривање пристрасности и градење на инклузивни решенија. Важно е не само да има жени во тимовите, туку и тие да имаат глас во клучните одлуки.
Исто така владите и институциите можат да создадат регулативи кои ќе бараат проценка на влијанието врз човековите права и родова еднаквост пред да се имплементира ВИ-систем. За користење на овие системи во јавните услуги како што се здравството, образованието, правосудството и другите, треба да бидат јавно достапни за анализа, со јасно наведени методологии и извори на податоци за да се има поголема транспарентност и доколку постои некаква дискриминација да се утври навремено и точно од каде произлегла. Универзитетите треба да ги вклучат прашањата за етика, инклузија и родова еднаквост со курикулумите за ИТ, машинското учење и вештачката интелигенција. Раното охрабрување и создавање поддржувачка средина за жените да се вклучат во наука и технологија е клучно за долгорочна промена. Корисниците на овие системи треба јасно да бидат информирани дека вештачката интелигенција не секогаш е и може да биде неутрална, туку таа е производ на луѓе со свои лични ставови и предрасуди. Затоа многу важно е критичкото размислување при употреба на овие системи. Граѓание и организациите треба да бараат одговорност од компаниите и институциите кога ВИ системите имаат непожелни последици, особено врз ранливи групи.
Оваа технологија сама по себе не е ниту добра, ниту лоша. Таа едноставно учи од податоците кои ние луѓето и ги даваме. Ако во тие податоци има содржина која е полна со стереотипи, нееднаквости и историски исклучувања, тогаш таа ќе ги користи овие податоци за одговорите кои ќе ги дава. Многу луѓе мислат дека ако се зборува за етика, еднаквост и проверка, тоа само ќе го успори технолошкиот напредок, но реалноста е сосем спротивна. Траен и стабилен напредок се гради врз правичност, па така ако ВИ системите создадат нови проблеми, тие ќе мора да се повлекуваат, што е губење на време и ресурси. Ова значи дека секоја иновација треба да биде развивана со луѓето на ум и не само со корисниците, туку со сите што може да бидат засегнати. Жените, малцинствата, лицата со попреченост, постарите лица секој глас треба да има тежина во развојот на овие системи кои имаат огромно влијание врз општеството.
Технологијата никогаш не била сосема фер, таа отсекогаш повеќе му служела на оние кои имаат поголема моќност од другите. Со појавата на вештачката интелигенција, се појавува прилика таа да стане попаметна, поинклузивна и похумана со цел да им послужи на секој оној кој има потреба од неа, подеднакво. Ова не е затоа што така било кажано дека треба да е, туку затоа што така е правилно. Иновацијата и етиката не се спротивности, тие се партнери. Ако сакаме свет со повеќе можности за сите, мора да ја ставиме родовата еднаквост во срцето на технолошкиот напредок, а не на неговиот раб.
Вештачката интелигенција веќе не е нешто далечно или некоја измислена научна фантастика. Таа е дел од реалноста, од нашето секојдневие кога пребаруваме, кога слушаме музика, кога конкурираме за работа, па дури и кога бараме здравствен совет. Но како што расте нејзиното влијание, така расте и нашата одговорност да се запрашаме дали оваа технологија работи за сите или само за некои. Родовата еднаквост не треба да биде дополнителна точка во планот за развој на ВИ, туку основен принцип. Затоа што во спротивно, постои реален ризик да ги засилиме веќе постоечките нееднаквости и да создадеме уште поголем јаз меѓу половите. Технологијата не е неутрална. Таа ги рефлектира нашите вредности, намери и – најчесто – нашите предрасуди. Но токму тука се отвора можноста да вложиме доволно свесност, труд и етика во нејзината изградба за да можеме да создадеме вештачка интелигенција која ќе биде алатка за праведност, а не за дискриминација. Вештачката интелигенција одамна не е нешто што постои само во лаборатории или во филмови. Таа сè повеќе ја обликува нашата реалност: од препораки на социјални мрежи, преку системи за медицинска дијагностика, до софтвери за вработување и образование.
Во текот на ова истражување видовме дека технологијата не е ослободена од општествениот контекст во кој настанува. Напротив, таа често ги репродуцира и зацврстува постоечките предрасуди. Ако алгоритмите се тренирани врз податоци што ја одразуваат историјата на дискриминација, тогаш тие и без намера ја пренесуваат таа дискриминација во иднината. Тоа не е само технички проблем, туку длабоко етички и општествен предизвик.
Меѓутоа, не треба да ја гледаме вештачката интелигенција само како потенцијален ризик. Напротив, ако ѝ пристапиме со свесност и одговорност, таа може да стане силен сојузник во борбата за родова еднаквост. Системите за ВИ може да помогнат во идентификување на скриени обрасци на дискриминација, во унапредување на пристапот до образование и здравство за жени, или во создавање инклузивни алатки за комуникација и поддршка на маргинализирани заедници.
Но тоа нема да се случи автоматски. Бара вклучување на повеќе жени во секторот на технологијата, како истражувачи, програмери, дизајнери, но и како креатори на политики. Бара системски пристап, повеќе едукација за родова еднаквост во STEM областите, повеќе отворени податоци, транспарентни алгоритми и јавни расправи за тоа како технологијата ја обликува нашата иднина.
Затоа, борбата за еднаквост не треба да се одвои од развојот на новите технологии, тие две работи мора да одат рака под рака. Бидејќи ако технологијата е иднината, тогаш нема вистинска иновација без инклузија. Нема праведно општество ако само еден дел од него ги обликува алатките што ќе го водат напред.
Како млади луѓе, студенти и идни професионалци, наша е одговорноста да не ја гледаме ВИ само како техничка алатка, туку како можност за нова етапа во развојот на општеството, онаа каде секој има место, глас и можност. Само така ќе изградиме технологија што нема да биде само паметна, туку и праведна.
Библиографија
- Dastin, J. (2018). Amazon scrapped ‘sexist AI’ recruiting tool. Reuters.
Достапно на: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G - UNESCO. (2020). I’d blush if I could: Closing gender divides in digital skills through education.
Достапно на: https://unesdoc.unesco.org/ark:/48223/pf0000367416 - West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating Systems: Gender, Race and Power in AI. AI Now Institute.
Достапно на: https://ainowinstitute.org/discriminatingsystems.html - World Economic Forum. (2023). Global Gender Gap Report.
Достапно на: https://www.weforum.org/reports/global-gender-gap-report-2023 - EIGE – European Institute for Gender Equality. (2021). Artificial Intelligence, gender equality and ethics.
Достапно на: https://eige.europa.eu/publications/artificial-intelligence-gender-equality-and-ethics - AI4ALL. (2022). Diversity in AI: Why it matters.
Достапно на: https://ai-4-all.org/diversity-in-ai/ - Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency.
Достапно на: https://dl.acm.org/doi/10.1145/3287560.3287576 - Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research.
Достапно на: http://proceedings.mlr.press/v81/buolamwini18a.html
