Пристрасност на алгоритмите и вештачката интелигенција кон родот

Published by

on

Mydtm

Филип Трајановиќ

Апстракт
Оваа истражување има за цел да ја прикаже појавата на родова пристрасност на алгоритмите и системите на вештачка интелигенција – ВИ. Со зголемувањето на примената и употребата на machine learning моделите и автоматизираните системи во различни области, прашањето за ферност спрема двата рода и етичка одговорност станува сè поактуелно. Родова пристрасност може да се појави во различни фази од развојот на еден алгоритам , започнувајки од собирањето на податоците, до начинот на кој моделите се обучуваат и тестираат па на крај до начинот на одговорите и содржината која тие ја даваат. Преку анализа на реални примери и академски извори, овој труд ќе понуди детален, критички насочен увид во тоа како технологијата може несвесно да ја репродуцира и предизвика општествената нееднаквост и истовремено ќе предложи можни решенија за нејзино надминување и бришење од општеството.

  1. Вовед
    Во последната деценија, вештачката интелигенција стана неразделен дел од секојдневниот живот и е присутна во најразлични области започнувајки од препорачани содржини на социјалните мрежи, преку системи за селекција на кандидати при вработување, до алгоритми за препознавање лица па на крај се до автоматска дијагностика во медицината. Брзиот развој на машинското учење на самите модели и технологиите за собирање големите податоци овозможи создавање на сложени модели кои можат да анализираат огромни количини информации и да донесуваат одлуки со минимална човечка интервенција, која вклучува промптање.
    Сепак, колку и да звучи напредно и објективно, вештачката интелигенција не е независна од луѓето кои ја создаваат. Алгоритмите се резултат на неуморна работа и посветеност на човечки труд, а множествата податоци врз кои тие се обучуваат, често содржат скриени општествени нееднаквости и предрасуди. Кога овие предрасуди се рефлектираат во излезните резултати на алгоритмите, се создава т.н. algorithmic bias, кој може да го засили веке постоечкото нерамноправно општествено однесување спрема родовите.
    Овој феномен е особено забележлив кога станува збор за родовата пристрасност, бидејќи историските податоци кои што се користат во технологијата често ја одразуваат нееднаквата положба на жените, мажите и другите маргинализирани групи. На пример, системи за автоматска селекција на биографии може несвесно да фаворизираат машки кандидати, бидејќи моделите се обучени на податоци каде доминираат мажи во одредени професии.
    Дополнително, face recognition технологиите покажале значително повисоки стапки на грешки при препознавање на жени и лица со потемна кожа, што укажува дека родот и расата се двојно маргинализирани во алгоритмите. Таквите резултати не само што ја поткопуваат довербата во AI системите, туку отвораат и сериозни етички прашања за транспарентноста, одговорноста и фер насоченоста на вештачката интелигенција спрема родовите.
    Во овој контекст, од суштинско значење е да се анализира како и зошто се јавува родовата пристрасност во алгоритмите, какви последици може да има врз поединците и општеството, и кои се можните методи, кои треба да се разгледаат, за намалување на овие ризици. Текстот што следува има за цел да ги разгледа токму овие аспекти, да ги идентификува причините за појавата на родовата пристрасност во AI системите, да ги анализира последиците од таа пристрасност, и да понуди решение односно насоки за создавање пофер ,поинклузивни технологии и недискриминирачки однос.
  2. Алгоритамска пристраност – algorithm bias
    Алгоритамската пристрасност (анг. Algorithm bias) може да се појави во различни етапи на развој на системите на вештачка интелигенција (AI) почнувајки од прибирање на податоци, преку нивна обработка ,селекција, класифицирање, средување во соодветен формат , па се до периодот на тестирање и примена на моделот во вистински живот. Проблемот често започнува со самите податоци (data bias), бидејќи тие не се секогаш соодветни и релевантни за сите групи во општеството. Ако во еден dataset доминираат примери од една категорија (на пр. мажи, луѓе од одредена етничка група или географски регион, припадници на една верска заедница), алгоритмот ќе научи шаблони кои го рефлектираат тој нерамномерен однос.
    Но, пристрасноста не завршува тука. Таа може да се појави и во фазата на feature selection, кога развивачите несвесно избираат параметри што се поврзани со родот или социјалниот статус. Дури и начинот на кој се дефинира целта на алгоритмот, што е „успех“ или „најдобар резултат“, може да влијае врз тоа кои групи ќе бидат фаворизирани, а кои потценети, кои ке бидат повеке прикажани како добри а кои помалце. На пример, ако моделот за селекција на кандидати за работа се темели на историја на претходни успешни вработувања, а тие најчесто биле мажи, системот ќе ја репродуцира истата пристрасност во однос мажи спрема жени.
    Овој феномен покажува дека алгоритмите не се објективни математички структури, туку производ на општествен контекст и човечки избори. Вградувањето на предрасуди во кодот и податоците може да се смета за нова форма на дигитална дискриминација, која е потешко забележлива, но со подеднакво сериозни последици кои може да бидат фатални на подолг период.
    Пристрасноста често пати е многу тешко да се открие бидејќи резултатите од AI системите делуваат легитимно и научно прецизно. Сепак, зад тие „неутрални“ бројки се крие цела мрежа на нееднаквости кои можат да го обликуваат начинот на кој алгоритмите ја „разбираат“ реалноста. Тоа особено доаѓа до израз во системи за facial recognition, каде што истражувањата покажале дека точноста при препознавање на машки лица е значително поголема отколку кај женски или лица со потемен тен на кожата.
    Дополнителен проблем кај алогиртмите на пристрасност е и feedback loop ефектот. Кога алгоритмите се применуваат во реални услови и нивните одлуки се користат како нови податоци за понатамошно обучување, се создава затворен круг што ја засилува почетната пристрасност. Така, еден модел кој првично бил минимално насочен кон одредена група, со текот на времето може да стане значително поодбивен кон истата.
    Понатаму, треба да се напомене дека пристрасноста не мора секогаш да биде резултат само на податоците. Одредени дизајнерски одлуки, како изборот на алгоритам, параметри, или начин на евалуација, можат да придонесат за нерамномерни резултати. Овие технички аспекти често се игнорираат во јавните дискусии, иако имаат суштинско влијание врз тоа како се манифестира родовата пристрасност.
    Важно е и тоа што алгоритамската пристрасност не е проблем ограничен само на технолошката сфера. Таа има општествени, економски и етички импликации, бидејќи влијае врз начинот на кој луѓето се вреднувани, категоризирани и третирани во современото дигитално општество. На пример, ако алгоритам за одобрување кредити често им дава поволни резултати на мажи, а поретко на жени со слични профили, тоа ја репродуцира истата дискриминација која во минатото се јавувала преку човечки одлуки.
    Алгоритамската пристрасност, оттука, може да се сфати како огледало на општествената неправда. Наместо да ги надмине човечките слабости, вештачката интелигенција понекогаш ги пренесува во дигиталната сфера, но во помалку транспарентна форма. Ова го прави проблемот уште потежок за регулирање и откривање, бидејќи граѓаните често немаат увид во начинот на кој алгоритмите донесуваат одлуки.
    Затоа, се поставува прашањето: како може да се обезбеди фер одност и транспарентност во дизајнот и примената на овие системи? Првиот чекор е прифакање дека пристрасноста постои, дури и во најнапредните технологии. Вториот чекор е развој на нови методологии и стандарди кои ќе овозможат анализирање и корекција на пристрасноста пред системите да се применат во практика.
    Во овој контекст, улогата на академските институции, како што е ФИНКИ, е од клучно значење. Преку воведување на предмети што ја опфаќаат етиката на технологијата и општествените последици од вештачката интелигенција, студентите можат да развијат свесност за овие прашања уште во почетните фази на нивната професионална кариера. Така, идните инженери и истражувачи ќе бидат подобро подготвени да креираат системи кои не само што се технички ефикасни, туку и социјално праведни.
    На крајот, проблемот на algorithmic bias претставува повик за критичко размислување и одговорен развој на технологијата. Наместо да се гледа како неизбежен нуспроизвод на дигиталната ера, пристрасноста треба да се сфати како предизвик кој бара интердисциплинарен пристап, комбинација од техничко знаење, етички размислувања и родова свесност. Само така може да се создадат AI системи што ќе служат на сите луѓе подеднакво, без оглед на нивниот род, етничка припадност, верска приапдност,општествен статус или боја на кожа.
  3. Родова пристраност во податоците
    Овој проблем ја открива суштинската поврзаност помеѓу квалитетот на податоците и ферноста на резултатите добиени од алгоритмите. Податоците не се неутрални, тие се производ на општествени процеси, историски услови и културни норми. Кога машините „учат“ од минатото, тие всушност ги повторуваат и несвесно ги зацврстуваат старите знаења на нееднаквост. Во случајот со Amazon, машината не била намерно програмирана да дискриминира, туку едноставно ги научила и применила статистичките обрасци од историските податоци, каде што мажите биле почесто вработувани во технолошки позиции.
    Ова покажува дека gender bias може да се појави дури и кога програмерите немаат никаква намера за дискриминација и наклонетост кон одредена група. Пристрасноста станува резултат на структурните општествени нерамнотежи кои се кријат во податочните множества На пример, ако податоците за успешни менаџери во една компанија главно се однесуваат на мажи, алгоритмот може да „научи“ дека машките имиња или одредени зборови во биографиите (како „captain“, „leader“) се поврзани со успех, а женските со неуспех, и поими како обичен работник и немање можност за иднина.
    Покрај тоа, податоците можат да бидат пристрастни во начинот на прибирање, што дополнително го комплицира проблемот. Ако системите за препознавање лица се обучуваат претежно на фотографии од бели мажи, тие ќе имаат послаби перформанси при препознавање на жени и луѓе со потемен тен, како и луге со одредени делови на лицето(Кинези, Јапонци, Корејци). Истражувањето на Joy Buolamwini и Timnit Gebru (2018) од MIT Media Lab откри дека грешката при препознавање на лица кај жени со потемна кожа изнесува и до 34%, додека кај белите мажи била под 1%. Овие резултати ја демонстрираат длабоката нерамнотежа во податоците што стојат зад многу комерцијални AI системи.
    Родовата пристрасност во податоците не се однесува само на визуелни системи, туку и на јазични модели (language models). Голем број истражувања покажуваат дека моделите за обработка на природен јазик (NLP), како што се GPT, BERT и други, често репродуцираат родови стереотипи присутни во текстовите на кои се обучени. Така, зборови како „engineer“ или „scientist“ се поврзуваат со машки род, додека „nurse“ или „teacher“ често со женски, што ги потврдува и ги прави посилни традиционалните општествени поделби.
    Проблемот станува уште посериозен кога ваквите модели се користат во реални системи, како што се препораки за работа, автоматски преводи, или едукативни апликации. Ако не се изврши корекција на пристрасноста во податоците, тие системи можат директно да влијаат врз одлуки што засегаат реални луѓе, ограничувајќи ги можностите на жените и небинарните лица во различни професионални и социјални контексти.
    Овој вид пристрасност се смета за структурна, бидејќи не произлегува од една поединечна грешка, туку од целокупниот општествен систем што ги обликува податоците. Податоците кои се собираат од интернет, социјални мрежи или јавни институции, често го одразуваат начинот на кој општеството го вреднува различниот род. Токму затоа, доколку немаме внимателен пристап кон анализата и прочистувањето на податоците (data cleaning и data auditing), е невозможно да се изгради објективен модел без наклонетост и дискриминација што е и темата на овој труд.
    За да се надмине овој проблем, во последните години се развиваат нови истражувачки насоки кои вклучуваат gender-aware datasets, односно збирки на податоци кои се дизајнирани се со цел да бидат родово балансирани. Овие пристапи вклучуваат анализа на застапеноста на жените и мажите во податоците, проверка на јазичните изрази и избегнување на родово обележани категории.
    Сепак, едно од најголемите предизвици е што дури и кога се создаваат „балансирани“ збирки, тие сепак можат да носат скриени културни пристрасности. На пример, податоците што се собираат од Западна Европа или САД не секогаш ја одразуваат реалноста во други региони на светот, каде што улогата на родот во општеството е различна. Тоа покажува дека интерсекционалниот пристап, кој ги зема предвид повеќе аспекти како раса, пол, социјален статус и култура, е неопходен за да се постигне вистинска правичност во AI системите.
    Од образовен аспект, важно е идните програмери и истражувачи да ја разберат одговорноста што ја носи работата со податоци. На ФИНКИ и слични институции, треба да се поттикнува развивање на критичко размислување и етички стандарди при креирање и користење на datasets. Само со ваков пристап може да се спречи повторување на грешките како оние во случајот на Amazon и да се промовира развој на технологии што ќе бидат инклузивни и праведни за сите родови.
    Конечно, родовата пристрасност во податоците претставува еден од најважните предизвици на модерната информатички и етичкиот развој на вештачката интелигенција. Нејзиното решавање бара постојана соработка помеѓу експерти од технологијата, општествените науки и политиката. Само преку заеднички напори може да се создадат системи што ќе ја почитуваат различноста и ќе придонесат за вистинска родова еднаквост во дигиталната ера.
  4. Последици од родовата и алгоритамска пристрасност
    Последиците од алгоритамската пристрасност имаат голем дофат и големи последици. Тие можат да влијаат врз можностите за вработување, кредитна способност, здравствена грижа и дури и на правдата. Во контекст на родот, ваквата пристрасност може да ја зајакне постојната дискриминација и да создаде нови бариери за жените и другите родови групи. Со тоа, технологијата, наместо да промовира еднаквост, може несвесно да ја одржува нееднаквоста.
    Покрај тоа, ваквите системи можат да имаат долгорочни социјални ефекти, бидејќи одлуките донесени врз основа на пристрасни алгоритми често се користат за понатамошна автоматизација на процесите. Тоа значи дека еднаш вградена пристрасност може да се мултиплицира преку времето. На пример, ако системот за вработување во одредена компанија континуирано фаворизира мажи, тој ќе создаде организациска култура која дополнително ја намалува застапеноста на жените во технолошкиот сектор.
    Исто така, ваквите ефекти не се ограничени само на индивидуалните случаеви, туку имаат несакани страшни последици. Тие можат да ја засилат родовата сегрегација на пазарот на труд, каде одредени професии стануваат доминирани од еден пол. Алгоритмите во здравствените системи, пак, можат да потценат или игнорираат симптоми типични за жените, бидејќи тие не се доволно претставени во клиничките податоци од предходно.
    Дополнително, присуството на родова пристрасност во технологиите може да доведе до губење на довербата на граѓаните во дигиталните системи и јавните институции што ги применуваат. Во образованието, пристрасните системи за автоматска евалуација можат да доведат до неправедно оценување на студентите од различни родови. На тој начин, алгоритамската пристрасност не е само технички, туку и општествен проблем кој бара мултидисциплинарен пристап за решавање.
    Во академски контекст, ова прашање го поттикнува развојот на нови области како „Fairness in AI“ и „Ethical Machine Learning“, кои ја истражуваат транспарентноста, правичноста и наклонетоста на алгоритмите. Решението на овој огромен проблем не лежи само во подобрување на технологијата, туку и во активно вклучување на жени и други маргинализирани групи во процесот на дизајнирање и тестирање на AI системите. Само преку таков инклузивен и сеопфатен пристап може да се создаде технологија што вистински ја поддржува родовата еднаквост.
  5. Методологии за намалување на пристрасноста во алгоритмите
    За да се минимизира широко појавената пристрасност во денешните алгоритми, неопходно е воведување на етички, технички, ефикасни и ефективни мерки и проверки пред нивна употреба. Првин треба да започнеме од составувањето на dataset-ите да вклучува разновидни и репрезентативни податоци. Потоа, тимовите што ги развиваат AI моделите треба да бидат родово и култулорошки насочени и непристрасни. Трето, потребно е развивање на алгоритми за ферност на резултати (fairness-aware algorithms), кои активно ја проверуваат и корегираат пристрасноста во процесот на учење на моделите. На крај, транспарентноста и одговорноста се многу клучни делови со што секој модел треба да биде подложен на ревизија и етичка проценка. Покрај овие основни мерки, важен аспект е и воведувањето на континуирано bias auditing, односно системска проценка на моделите за откривање на потенцијална пристрасност во различни фази од нивниот животен циклус и употреба. Ваквите проверки треба да се спроведуваат не само при иницијалното обучување, туку и при секоја понатамошна фаза на моделот, бидејќи дури и мали промени во податоците можат да создадат нови форми на пристрасност.
    Еден од најефективните методи кои постојат за спречување на родова пристрасност е употребата на data preprocessing techniques, со кои се чистат и балансираат податоците пред да бидат употребени за тренирање на самиот модел. Преку техники како re-sampling, re-weighting или synthetic data generation, може да се обезбеди поголема застапеност на сите родови групи. Исто така, важно е податоците да бидат анонимни, така што моделот да не може експлицитно да ги користи родовите ознаки како фактор на одлучување.
    Од друга страна, и algorithmic transparency е клучен предуслов за фер и етничка употреба на вештачката интелигенција. Со отворање на изворниот код и објаснување на начинот на кој моделот донесува одлуки (explainable AI), се овозможува поголема јавна контрола и доверба. Преку тоа, корисниците можат да разберат зошто е донесена одредена одлука и да пријават случаи на можни неправди.
    Во едукативниот контекст, факултетите за информатика, инженерство и дизајн треба да воведат предмети што комбинираат AI ethics, родови студии и општествена одговорност. На тој начин, идните инженери ќе бидат свесни за влијанието на технологијата врз различни групи луѓе и ќе развиваат решенија кои се еднакво корисни за сите.
    Исто така, организациите треба да воспостават Ethical AI boards. Тоа се тела составени од експерти од различни дисциплини кои ќе даваат насоки и ќе спроведуваат независна евалуација на AI системите. Ваквите тела можат да служат како мост помеѓу технолошките компании и јавноста, обезбедувајќи поголема транспарентност и отчетност.
    Понатаму, во контекст на јавните институции, неопходно е воведување на законски рамки што ќе ја регулираат употребата на AI технологиите. Европската унија со AI Act-от веќе започна со дефинирање на стандарди за безбедност, ферност и заштита на човековите права во автоматизираните системи. Република Македонија, во своите идни стратегии за дигитална трансформација, треба да ги следи овие примери и да вгради јасни механизми за превенција на алгоритамска дискриминација.
    Дополнително, соработката меѓу академијата, индустријата и граѓанските организации е од суштинско значење. Преку заеднички проекти може да се создадат open datasets кои се родово балансирани и транспарентно документирани. Тоа ќе овозможи поефикасна проценка и подобра репликабилност на истражувањата.
    На крај, суштинската цел не е само елиминација на пристрасноста, туку и изградба на доверлив, инклузивен и етички AI екосистем. Вистинската иновација произлегува од разновидноста, и само кога технологијата ќе биде создадена од луѓе со различни перспективи, таа може да стане навистина фер и праведна.
  6. Родова перспектива во иднината на вештачката интелегенција
    Иднината на вештачката интелигенција зависи од начинот на кој ќе ги интегрираме принципите на еднаквост и инклузивност. Многу меѓународни организации, како UNESCO и OECD, веќе развиваат насоки за етнички AI кој ке ги почитува човековите права. Во академски контекст, факултетите, вклучително и ФИНКИ, имаат важна улога во образованието на идните инженери за етичките аспекти на технологијата. Само преку критичка свест и размислување и интердисциплинарен пристап може да се создаде технологија која работи за сите, без оглед на род или идентитет.
    Развојот на AI треба да се заснова на gender-sensitive design principles, кои ќе осигураат дека технолошките решенија не ги реплицираат постојаните општествени стереотипи. Ова значи дека уште во фазата на концепт и дизајн на системите мора да се земат во предвид различните искуства, потреби и перспективи на жените, мажите и лицата со различен родов идентитет. На тој начин, AI може да стане инструмент за промовирање на родова еднаквост, наместо средство за нејзино нарушување.
    Во иднината, се очекува пораст на AI ethics дисциплината, која ќе обедини експерти од информатиката, социологијата, филозофијата и родовите студии. Овој интердисциплинарен пристап е суштински за создавање општествено одговорна технологија. Универзитетите, како ФИНКИ, треба активно да вклучуваат предмети што ги поврзуваат техничките знаења со социјалните импликации на технологијата.
    Дополнително, идните AI инженери треба да развиваат critical AI literacy — способност да ги препознаат и анализираат потенцијалните нееднаквости и дискриминации во автоматизираните системи. Тоа подразбира разбирање не само на кодот и алгоритмите, туку и на културниот и општествениот контекст во кој тие функционираат.
    Интегрирањето на родовата перспектива во AI исто така подразбира активно учество на жените и маргинализираните групи во процесите на развој и одлучување. Со зголемување на нивното присуство во технолошките компании и истражувачките институции, се создава поголем баланс на моќта и поголема разноликост во идеите и решенијата.
    На глобално ниво, потребно е создавање на регулативи што ќе ја обврзат секоја институција да врши gender impact assessment пред имплементација на AI системи. Ова ќе обезбеди дека секоја технологија се проценува според нејзиното влијание врз различните родови групи.
    Конечно, иднината на AI мора да се движи кон human-centered innovation, каде човековите вредности, еднаквоста и достоинството се во центарот на технолошкиот развој. Само така, вештачката интелигенција може да стане алатка за општествен напредок, која ги обединува луѓето наместо да ги дели.
  7. Заклучок
    Родовата пристрасност во алгоритмите и системите на вештачка интелигенција претставува сериозен и комплексен предизвик во современото општество. Како што технологијата се подлабоко се интегрира во секојдневниот живот, од вработување и здравство до образование и дигитална комуникација, потребата за фер и инклузивни системи станува посуштинска и попотребна. Промената започнува со подигање на свеста кај креаторите на технологијата, идните информатичари, програмери и истражувачи, кои мора да ја разберат етичката и општествената одговорност што ја носат при развојот на алгоритмите.
    Само преку комбинација на техничка експертиза, етничка свест и родова застапеност може да се создадат системи што ја унапредуваат, а не ја поткопуваат еднаквоста. Факултетите, како ФИНКИ, имаат клучна улога во едукацијата на идните генерации што ќе ја градат иднината на технологијата заснована врз принципите на праведност и човековото достоинство. Вештачката интелигенција не смее да биде само технолошка иновација, туку и општествена можност за изградба на порамноправен и поетички свет.
  8. Библиографија
    Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings. In Advances in Neural Information Processing Systems.
    UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence. Paris: UNESCO Publishing.
    Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning. Available at: https://fairmlbook.org
    Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.