Автор Јана Трпковска
1. Апстракт
Вештачката интелигенција (ВИ) во денешно време е интегрирана во секој аспект од нашите животи, од работа, здравство до безбедност и интернет комуникација. Покрај тоа што е претставена како објективна и непристрасна, ВИ зависи од податоците и социјалната средина во која таа е создадена. Овој труд ја доведува во прашање надежта за ВИ како неутрална технологија и анализира како родовите норми и нееднаквоста се закоренети во технологијата. Се повикува на феминистичката теорија и испитува како ВИ може да ги зајакне родовите стереотипи и дискриминација. Дополнително, преку практични примери од реалноста илустрира како предрасудите се манифестираат во пракса и потенцира насоки за тоа како може тие да се избегнат.
2. Вовед
Во текот на изминатите неколку години, вештачката интелигенција (ВИ) стана составен дел од секојдневниот живот, обликувајќи се, од перзонализирани онлајн реклами и огласи за вработување, до медицински дијагнози и спроведување на законски мерки. Иако честопати е сметана за неутрална и објективна технологија, системите за ВИ се изградени и тренирани на историски податоци, во кои се среќаваат многу родови нееднаквости. Токму ова ја прави ВИ погодна за разгледување од областа на родови студии, бидејќи може истовремено да ја отсликува и зајакне родовата дискриминација.
Оваа семинарска се фокусира на тоа како ВИ системите се далеку од неутрални алатки и ги реплицираат и зголемуваат родовите нееднаквости кои постојат во општеството. Започнувајќи од алгоритми за вработување кои фаворизираат машки кандидати, до технологии за препознавање на лица кои даваат погрешни резултати на жени и луѓе во боја, ВИ покажува способност за дискриминација.
За да се истражи ова прашање, оваа семинарска се потпира на примери од реалниот свет, феминистичка теорија и концепти од етиката на вештачката
2
интелигенција. Се анализираат сценарија во кои е прикажана пристрасност на алгоритмите, како и етичките димензии при развој на ВИ.
Семинарската е структуирана на следниов начин. Започнува со генерален преглед на ВИ и нејзиното влијание врз општеството. Потоа се фокусира на главни примери во општеството за родова нееднаквост во ВИ системи. Па следи испитување на тоа како таквите предрасуди се вградени во вештачката интелигенција. Следниот дел воведува теоретски перспективи од родовите студии. На крај, следи заклучок со препораки за поинклузивни системи за вештачка интелигенција и размислувања за идните насоки.
3. Разбирање на вештачката интелигенција и нејзиното општествено влијание
Терминот вештачка интелигенција се однесува на развој на компјутерски системи способни да извршуваат задачи кои бараат човечка интелигенција. Овие задачи вклучуваат донесување на одлуки, разбирање на јазици, препознавање слики, и учење од искуство. Главна компонента на ВИ е машинско учење. Тоа е техника која овозможува системот автоматски да се подобрува и да учи од искуство, преку анализирање на големо количество на податоци и пронаоѓање на шеми.
Суштински, ВИ е изградена врз алгоритми – инструкции кои дефинираат прецизни детали за тоа што машината треба да направи за да реши одреден проблем или да донесе некоја одлука. Алгоритмите се учат преку огромни количини на податоци и се користат за елементи како зборови, слики или внес од корисникот. По тренирањето, системите за ВИ го користат тоа што го научиле за да генерираат претпоставки или пак за да автоматизираат одредени задачи како филтрирање на кандидати за работа или идентификување на предмети на слики. Целта е да се имитира човечкото размислување на ефикасен начин.
3
3.1. Зошто се јавува пристрасност кај вештачката интелигенција
И покрај тоа што технологијата е современа, податоците на кои се обучува ВИ сепак произлегуваат од човечки средини кои се обликувани од социјални норми и нееднаквости. Доколку податоците кои се користат содржат дискриминации и нееднаквости, тогаш ВИ ќе ги научи тие пристрасности и ќе ги реплицира во идни одлуки кои ќе бидат донесени.
3.2. Митот за неутралност
Честа заблуда за ВИ е дека таа е објективна или неутрална. Бидејќи алгоритмите се математички и компјутерите не размислуваат самостојно, се претпоставува дека одлуките кои ги прави ВИ се помалку пристрасни од човечките одлуки, но тоа не е вистина. Причината за тоа е дека податоците кои се користат во процесот на тренирање потекнуваат од луѓето и нормално е во нив да има и пристрасни податоци, кои потоа ќе се провлечат и во одлуките кои ги носи ВИ. Затоа, верувањето дека ВИ е неутрална и непристрасна е опасно, бидејќи може да бидат занемарени или да не бидат приметени одредени дискриминации при носење на одлуките и како последица некој да настрада поради тоа.
3.3. Родот во дигитален контекст
Технологијата е обликувана од социјалниот, културниот и политичкиот контекст во кој се создава. Полот, расата, сексуалноста, и други социјални индентитети влијаат врз дизајнот на технологијата и тоа каде ќе биде фокусот и како ќе се носат одлуки. Во општество каде се уште доминираат мажи, технологијата е дизајнирана на претпоставки што истакнуваат машки вредности и перспективи.
Таквата хомогеност, може да донесе до пропусти во процесот на дизајн. На пример, системите за препознавање на глас порано давале полоши резултати при препознавање на женски гласови, бидејќи биле тренирани на машки гласови. Слично, некои алатки со ВИ во областа на медицина имале тенденција да занемарат како одредени болести се манифестираат кај жени.
4
4. Родови предрасуди во вештачката
интелигенција: Клучни примери
Како што беше дискутирано и претходно, ВИ не е неутрална алатка и постојат голем број на примери кои покажуваат дискриминација во системите и одлуките кои тие ги носат. Оваа секција се фокусира на четири домени – вработување, здравство, препознавање на лица и гласовни асистенти.
4.1. Алгоритми за вработување
Еден од најпознатите примери за родова нееднаквост во ВИ е случен во компанијата Амазон. Таа има создадено прототип ВИ како алатка за вработување чија цел било да се забрза и поедностави процесот на вработување во компанијата. Алатката престанала да се употребува во 2018, кога вработените инженери откриле дека алатката има тенденција да биде повеќе насочена кон машки кандидати во споредба со женски.
Причината поради која се случило ова е тоа што податоците од кои учел алгоритмот биле од период кога во индустријата повеќе доминирале мажи и системот открил како да идентификува потенцијални и успешни кандидати користејќи вокабулар поврзан со мажи. Било кое резиме во кое доминирало женски вокабулар било отфрлано.
Овој пример покажува од колкава важност е да се проверува не само резултатот кој го даваат системите за ВИ, туку и податоците кои се користат за тренирање со цел што повеќе да се намали, па доколку е возможно и да се искорени родовата пристрасност.
4.2. Технологија за препознавање на лица
Оваа технологија е уште еден пример каде родовите предрасуди се очигледни. Џој Буоламвини (Joy Buolamwini) е истражувач во MIT Media Labs, кој има спроведено истражување кое покажува предрасуди во системите за препознавање на лица развиени од IBM, Microsoft и Face++.
5
Истражувањето докажало дека системите биле прецизни кога идентификувале лица на мажи од бела раса до точност од дури 99%. Од друга страна, кога требало да идентификуваат лица на жени од потемна раса, тие правеле грешки 35% од времето.
Овие пропусти може да имаат сериозни последици. Во полициската пракса, ваквите системи се користат за надзор, а погрешна идентификација може да доведе до погрешно апсење и вознемирување. За жените од потемни раси, кои и без тоа се соочуваат со разни видови на дискриминација, овие системи ги ставаат во уште поголем ризик.
Истражувањето на Буоламвини има создадено движење кое го има доведено во прашање користењето на овие технологии без соодветен надзор, транспарентност и инклузивност. Исто така, истакната е улогата која ја имаат истражувачите во откривањето и справувањето со грешките во ваквите технологии кои инаку би останале незабележани.
4.3. Алгоритми во здравството
Пристрасноста во ВИ не е само поврзана со вработување и надзор. Постојат ситуации во кои се работи за живот или смрт во здравството каде ВИ покажала пристрасност. Еден пример за тоа е поврзан со алгоритмот дизајнирен да ги предвиди медицинските потреби на пациентите и да обезбеди дополнителна медицинска помош. Во истражување кое било спроведено во 2019 се открило дека алгоритмот конзистентно давал лоши и погрешни резултати за пациенти од потемна раса, дури и кога симптомите биле полоши во споредба со пациенти од бела раса.
Причината за ова е затоа што алгоритмот се базирал на трошоците за здравствена заштите кои ги имале пациентите. Порано, црните пациенти добивале помалку грижа поради структурен расизам и институционални бариери, па затоа и нивните трошоци биле помали. Затоа, алгоритмот ги базирал своите претпоставки на тоа дека тие се поздрави отколку што навистина биле.
6
Друг проблем со ВИ во медицина е јазот во податоците за половите. Голем број од алгоритмите се развиваат повеќе на податоци за машкото тело, што потоа резултира во помалку точни дијагнози за жени. На пример, симптомите за срцев удар кај жени може да се разликуваат од генералните симптоми, но ако податоците за тренирање се од машки пациенти, тогаш алгоритмот би ги игнорирал таквите знаци.
Ова се само неколку примери кои ја разоткриваат погрешната претпоставка дека ВИ во здравството е неутрална и покажуваат како нееднаквостите во здравствените технологии може да доведат до катастрофални последици.
4.4. Гласовни асистенти (Siri, Alexa)
Гласовните асистенти како Siri на Apple, Alexa на Amazon и Google Assistant, се веќе составен дел од телефоните и домаќинствата. Иако се едноставни за употреба, тие покренуваат прашања во врска со родовата застапеност, бидејќи повеќето од нив користат женски гласови како default опција и се програмирани да бидат учтиви, корисни и да не навредуваат со своите одговори.
Одлуката за да се феминизираат овие системи не е случајна. Таа ги одразува родовите претпоставки што ги поврзуваат жените со грижа, услужност и учтивост. Стандардниот дизајн претпоставува дека корисниците – кои се замислени да се мажи – ќе се чувствуваат опуштено давајќи команди на женски глас кој ќе се покорува без прашање. Ова го потврдува стереотипот за послушната жена-помошник и покажува еднонасочен однос на моќ во интеракцијата човек-компјутер.
Голем број на критичари ги критикуваат овие системи и велат дека тие се феминизирани, програмирани да извршуваат деградирачка работа. Кога поединците разговараат со гласовни асистенти, тие зборуваат во повластен стави, што може да покажува навредливи или непочитувачки зборови.
Иако голем број од компаниите имплементираат промени како одговор на ваквите критики, основниот проблем останува. Овие системи ги отсликуваат родовите и општествените улоги на жените.
7
5. Како се вградуваат пристрасности во вештачката интелигенција?
Системите за ВИ не се самостојни. Тие се изградени од луѓе, тренирани врз основа на информации произведени од човекот и имплементирани во човечки општествени средини во кои постојат структурни пристрасности. Според тоа, ВИ е изложена на ризик од одразување на предрасуди, особено врз основа на пол, раса и класа на луѓето. За да се намали ризикот од предрасуди, најпрво потребно е да се разгледа како тој всушност се појавува и вкоренува во ВИ.
5.1. Пристрасни податоци
Како и претходно што беше споменато, еден од основните начини на кои пристрасноста влегува во системите за ВИ е преку податоците што се користат при обука. ВИ се потпира на алгоритми од машинско учење кои учат од историски податоци. Доколку во тие податоци се провлекува родова нееднаквост – а и скоро секогаш е така – тогаш таа ќе се провлече и во заклучоците на алгоритмот.
Пристрасноста не се однесува само на податоците што се вклучени, туку и на податоците кои се исклучени од тренирањето. Кога голем број од податоците не ги претставуваат жените доволно добро, нормално е и ВИ да не биде прецизна кога треба да носи заклучоци или претпоставки за жени.
5.2. Пристрасност во тимовите за развој на вештачка интелигенција
Друг извор на вградена пристрасност е од демографијата и културата на тимовите на поединци кои дизајнираат системи со ВИ. Технолошката индустрија, и особено ВИ е претежно доминирана од мажи, особено мажи од белата раса и од пределите на Азија. Жените, особено оние од понизок статус, не се доволно застапени.
Овој недостаток на разновидност создава пропусти. Програмерите несвесно може повеќе да преферираат проблеми и решенија од нивно сопствено
8
искуство и да ги пропуштат прашањата поврзани со оние кои не се доволно застапени.
Дополнително, кога групите не се разновидни, има тенденција да има помалку критички дебати за етичките последици и штети кои може да се појават. Со вклучување на повеќе жени и други незастапени групи во процесот на развој на ВИ, може да се зголеми свеста за одредени проблеми кои би останале неприметени.
5.3. Недостаток на регулатива и транспарентност
Конечно, недостатокот на транспарентност и надзор при развојот на ВИ значи дека пристрасностите нема да се искоренат. За голем дел од алгоритмите, дури ни самите автори кои ги направиле не се сигурни како тие доаѓаат до одредени заклучоци. Затоа е многу тешко за некој од надвор да ги ревидира системите за праведност и одговорност.
Компаниите ги чуваат алгоритмите во тајност и не откриваат како тие работат. Тоа е опасно во ситуации каде што последиците може да бидат сериозни, а не е доволно истражено за тоа дали постојат предрасуди или не.
Сепак, се уште не постои некоја заедничка законска регулатива за одржување на родова еднаквост во ВИ. Постојат одредени принципи кои се доброволни, но не секогаш се тие јасни и лесно може да се спроведат. Без некои јасни регулативи, многу е веројатно дека пристрасноста ќе продолжи да постои во ВИ.
6. Теоретски перспективи од родовите студии
За целосно да се разбере како родовите предрасуди се провлекуваат во ВИ, не е доволно само да се земат предвид техничките механизми. Потребно е и да се разгледаат родовите студии, особено феминистичката теорија, бидејќи нуди важни концепти за разоткривање на подлабоките сили кои кои ги движат технолошките системи.
9
Неколку основни идеи на феминистичката теорија помагаат да се преобликува разбирањето за ВИ. Заедно гледани, овие парадигми помагаат во замислување на поправедни и поинклузивни системи.
6.1. Дона Харавеј и манифестот на киборгот: Преклопување на границите
Во нејзиниот есеј напишан во 1985 година, Дона Харавеј го воведува концептот на киборг – пола машина, пола организам. Таа излегува надвор од дефиницијата за родот и ги брише границите меѓу луѓето, животните и машините. Сугерира дека технолошките мрежи ги отстрануваат дуализмите на маж/жена или човек/технологија и нудат простор за да се преосмисли индентитетот и моќта. Меѓутоа, во пракса, ВИ најчесто наметнува такви дуализми. Работата на Харавеј поттикнува да се размислува за други начини на дизајнирање на технологија кои ќе бидат помалку хиерархиски.
6.2. Џуди Вајкман и технофеминизмот: Родова моќ во технологијата
Технофеминизмот на Вајкман оди подалеку со испитување на начините како родот го обликува развојот на технологијата. Таа дискутира дека не само што технолошките полиња се доминирани од мажи, туку и се изградени околу машки концепти како контрола, брзина, објективност. Овие концепти многу влијаат на развојот на технологиите, на тоа кој ќе ги користи и на тоа што ќе се смета за проблем. Вајкман истакнува дека решение не е да се вклучат повеќе жени во индустријата, туку дека мора да се искоренат одредени претпоставки за родот со цел да се промени технолошката култура.
6.3. Кимберле Креншо и интерсекционалност: Слоевити нееднаквости во вештачката интелигенција
Теоријата за интерсекционалност на Кимберле е особено значајна за тоа како интерсекционалните идентитети како пол, раса, класа и други се пресекуваат со ситеми на угнетување. Истакнува дека треба да се разбере дека ВИ не е неутрална и дека предрасудите не влијаат исто на сите. Како пример ги
10
истакнува претходно споменатите системи за препорнавање на лица кои вадат значително полоши резултат за жени од потемните раси, во споредба со мажи од бела раса. Нејзиното истражување истакнува дека ВИ треба да биде дизајнирана со искуства од различни извори, кои ќе се поинклузивни.
6.4. Социјалната конструкција на технологијата: Вредности, не само инженерство
За крај, социјалната конструкција на технологијата (social construction of technology (SCOT)) укажува на тоа дека технолошките напредоци не се чисто научни процеси, туку се обликувани од човештвото и културата. Тренирањето на ВИ, податоците кои се користат за работа и мерењата со кои тие се оценуваат се предмет на општествени влијанија. Затоа доколку се смета технологијата за општествено конструирана, ќе може да се забележат пристрасностите во системите.
7. Заклучок
Оваа семинарска го истражува сложениот однос меѓу ВИ и родовите предрасуди. Иако ВИ е често претставувана како објективна алатка, овој труд покажува дека таа е длабоко обликувана од социјалните, културните и историските контексти од кои се црпат информации. Како резултат на тоа овие системи не само што ги одразуваат родовите нееднаквости, тие можат и да ги засилат.
Започнувајќи од алгоритми за вработување кои фаворизираат мажи, до системи за препознавање на лица кои лошо работат за жени и луѓе од други раси, оваа семинарска докажува дека ВИ е далеку од неутрална. Предрасудите често се појавуваат поради податоците кои се користат во процесот на тренирање на ВИ, бидејќи тие се генерирани од општество во кое се уште постои родова нееднаквост. Дополнително, отсуството на разновидни програмери при развој на ВИ допринесува да се зголеми проблемот.
11
Примената на феминистичката теорија ја нагласува потребата од критичност при развој на ВИ. Со прифаќање на фактот дека ВИ не е безгрешна и има недостатоци, полека може да се оди во насока на правични системи.
7.1. Предлози за инклузивни системи за вештачка интелигенција и размислувања за начините за
напредување
• Диверзификација на тимовите за развој – Со зголемување на вклученоста на жените и групите кои не се доволно застапени во процесот на развој на ВИ се обезбедува поголема разновидност на мислења и помала шанса за пристрасност.
• Ревизија на податочните множества – ВИ мора да биде обучена на податоци без предрасуди. Затоа, многу е битно уште пред самото тренирање да се ревидираат податочните множества кои се користат со цел да не се добијат несакани резултати.
• Воспоставување на инклузивни правила и стандарди – Институциите и владите треба да воспостават регулативи кои ќе ја поттикнуваат одговорноста и правдата во рамките на овие системи.
Во иднина, од особена важност е да се продолжи со истражување на пресекот помеѓу технологиите, идентитетот, моќта и нееднаквоста. Во време кога ВИ станува составен дел од животот, се зголемува потребата за транспарентност, инклузивност и еднаквост во технологијата. Само преку колективно дејствување е возможно да се обезбеди ВИ да им служи на сите сектори од општеството подеднакво.
12
8. Референци
[1] UNESCO 2020, “Artificial intelligence and gender equality: key findings of UNESCO’s Global Dialogue”
[2] Joy Buolamwini et. al 2018, “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification”
[3] Judy Wajcman 2004, “Techno Feminism”
[4] Donna Haraway 2017, “A Cyborg Manifesto”
[5] Sinead O’Connor, Helen Liu 2024, “Gender bias perpetuation and mitigation in AI technologies: challenges and opportunities”
[6] Ayesha Nadeem et. al 2020, “Gender Bias in AI: A Review of Contributing Factors and Mitigating Strategies”
[7] Akhil Alfons Kodiyan 2019, “An overview of ethical issues in using AI systems in hiring with a case study of Amazon’s AI based hiring tool”
[8] Caitlin Chin-Rothmann, Mishaela Robison 2020, “How AI bots and voice assistants reinforce gender bias”
[9] Norori N, Hu Q et. al 2021, “Addressing bias in big data and AI for health care: A call for open science”
13