Филип Иваноски
- Вовед
Вештачката интелигенција претставува една од најзначајните технолошки иновации на современото општество. Таа се користи во различни области, од медицината и образованието, па се до индустријата и секојдневните дигитални услуги. Сепак, иако алгоритмите се замислени како објективни и рационални, тие често ја репродуцираат пристрасноста која постои во податоците со кои се тренираат. Еден од најчесто дискутираните аспекти на оваа проблематика е родовата пристрасност, која може да доведе до дискриминација и нееднакви можности за различни групи во општеството.
Родовата еднаквост е суштинска вредност во современиот свет, а нејзиното нарушување преку технолошките системи претставува сериозен предизвик. Во време кога алгоритмите се користат за разни намени, како регрутација на кадри, за препознавање лица или за препораки на содржини, нивната пристрасност може да има директни последици врз жените, ЛГБТИ+ заедницата и други маргинализирани групи. Ова ја прави темата релевантна не само од академски аспект, туку и од практична перспектива, бидејќи технологијата се повеќе ја обликува секојдневната реалност.
Целта на оваа семинарска работа е да се анализира како алгоритмите за вештачка интелигенција ја репродуцираат родовата нееднаквост и кои се последиците од тоа. Фокусот ќе биде ставен на конкретни примери од индустријата, како системот за регрутација на Амазон или технологиите за препознавање лица, со цел да се покаже како историските и општествените нееднаквости се пренесуваат во дигиталната сфера. Дополнително, ќе се разгледаат етичките и општествените импликации од ваквите практики, како и можните решенија за нивно надминување.
Методологијата на истражувањето се заснова на анализа на релевантна литература, академски трудови и студии на случај достапни преку интернет и книги. Ќе се користи компаративен пристап за да се споредат различни примери и да се извлечат заклучоци за нивното влијание врз родовата еднаквост.
2. Теоретски основи
2.1. Дефиниција на род и родова еднаквост
Родот претставува социјална конструкција која ги опишува улогите, очекувањата и однесувањето што општеството ги припишува на жените, мажите и другите родови идентитети. Тој се разликува од биолошкиот пол, бидејќи не е ограничен на биолошките карактеристики, туку опфаќа културни и општествени аспекти.
Историски гледано, концептот на род се развивал паралелно со општествените промени. Во традиционалните општества, улогите биле строго поделени – жените биле поврзувани со семејството и грижата, а мажите со јавниот и професионалниот живот. Со текот на времето, овие поделби почнале да се преиспитуваат, особено со појавата на феминистичките движења.
Во современиот контекст, родот се сфаќа како динамична категорија која може да се менува и да се изразува на различни начини. Европскиот институт за родова еднаквост (EIGE, 2016) нагласува дека родот опфаќа социјални атрибути и можности поврзани со тоа да се биде машко или женско, како и односите меѓу нив.
Родовата еднаквост подразбира еднаков пристап до ресурси, можности и права, без оглед на родовата припадност. Таа е призната како клучен предуслов за одржлив развој и општествена правда. Во практична смисла, тоа значи еднакви плати за еднаква работа, еднаков пристап до образование и здравство, како и еднакво учество во политичкиот и економскиот живот.
Во контекст на технологијата, родовата еднаквост значи обезбедување фер пристап до дигитални алатки и спречување на дискриминација преку алгоритамски системи. Ако алгоритмите се развиваат без внимание на родовата перспектива, тие можат да ја засилат постоечката нееднаквост. Затоа, инженерите и истражувачите имаат одговорност да создаваат системи кои ја промовираат правичноста. [1] [4] [5]
2.2. Што е вештачка интелигенција (ВИ) и машинско учење
Вештачката интелигенција (ВИ) претставува поле во информатиката кое има за цел да развие системи способни да извршуваат задачи што традиционално бараат човечка интелигенција, како препознавање на говор, анализа на слики, донесување одлуки и решавање проблеми. Таа се смета за една од најзначајните технолошки иновации на 21 век, бидејќи има потенцијал да ја трансформира секоја сфера од општеството.
Концептот на ВИ започнува во 1950-тите години, кога Алан Тјуринг ја постави познатата „Тјурингова тест“ како критериум за интелигентно однесување на машини. Во следните децении, ВИ се развиваше преку симболички системи и експертски програми, но вистинскиот напредок дојде со појавата на машинското учење и статистичките модели, кои овозможија алгоритмите да учат од податоци наместо да бидат експлицитно програмирани.
Машинското учење (ML) е подполе на ВИ кое се заснова на идејата дека алгоритмите можат да учат од податоци и да го подобруваат своето однесување со тек на време. Наместо да се програмираат сите правила, ML користи статистички методи за да препознава шаблони и да прави предвидувања. Columbia Engineering (2023) објаснува дека ВИ е поширок концепт за имитација на човечка интелигенција, додека ML е конкретна технологија што овозможува системите да идентификуваат шеми и да се подобруваат преку искуство.
Примери за примена на ML се системите за препознавање лица, автоматски преведувачи, препораки на содржини на платформи како YouTube или Netflix, како и медицински апликации за дијагностика. Овие системи функционираат така што анализираат огромни количини податоци и извлекуваат статистички врски, што им овозможува да донесуваат одлуки или да даваат предвидувања со висока точност.
Иако ВИ и ML носат огромни придобивки, тие истовремено се ранливи на пристрасности. Алгоритмите учат од податоци кои ја одразуваат реалноста, а ако таа реалност е исполнета со историски нееднаквости и стереотипи, тие ќе ги репродуцираат. Затоа, разбирањето на разликата меѓу ВИ и ML е важно не само од техничка перспектива, туку и од етичка, бидејќи тоа ни овозможува да идентификуваме каде и како може да се појави дискриминација. [3] [4]
2.3. Како алгоритмите „учат“ од податоци
Алгоритмите за машинско учење функционираат преку процес на тренирање, каде што големи количини податоци се користат за да се изгради модел кој може да препознава врски и да донесува одлуки. Во суштина, тие учат од примери: ако им се дадат доволно случаи на одредено однесување или обрасци, алгоритмите можат да ги препознаат и да ги применат во нови ситуации.
Податоците се „горивото“ на алгоритмите. Колку повеќе и поквалитетни податоци се користат, толку е поголема точноста на моделот. Сепак, ако податоците содржат историски нееднаквости или стереотипи, алгоритмот ги препознава и ги вградува овие обрасци во своите предвидувања. Ова значи дека пристрасноста во податоците директно се пренесува во алгоритмите.
На пример, ако систем за регрутација е обучен врз податоци каде што мажите се доминантно застапени во технолошки професии, алгоритмот може да заклучи дека мажите се „подобри“ кандидати и да ја намали шансата за жените. Овој феномен е познат како пристрасност во податоците и претставува еден од најголемите предизвици за правичноста на системите базирани на ВИ.
Технички гледано, алгоритмите користат статистички модели за да ги идентификуваат најчестите врски во податоците. Ако тие врски се резултат на историски дискриминации, моделот ќе ги засили. На пример, ако жените историски имале помал пристап до одредени образовни институции, алгоритмот може да ги фаворизира мажите при селекција за работа.
Ова покажува дека алгоритмите не се неутрални, туку ја одразуваат реалноста што им е дадена преку податоците. Како што истакнува Žliobaitė и Read (2022), алгоритмите учат статистички шеми од податоците, но ако тие шеми ја одразуваат историската нееднаквост, моделите ја репродуцираат и засилуваат пристрасноста. Затоа, контролата на квалитетот и разновидноста на податоците е клучна за да се обезбеди правичност во ВИ системите. [8]
2.4. Врска меѓу технологија и општествени вредности
Технологијата никогаш не е целосно неутрална, туку секогаш е производ на општествени контексти, вредности и интереси. Алгоритмите и системите за вештачка интелигенција се развиваат од луѓе кои носат сопствени претпоставки и културни перспективи, а податоците што се користат за нивно тренирање се резултат на историски и општествени процеси.
Општеството влијае врз тоа како се развива технологијата. На пример, ако одредена култура има силни родови стереотипи, тие ќе се пренесат во податоците и алгоритмите. Dhar (2013) нагласува дека технологијата секогаш ги носи вредностите на своите креатори, што значи дека пристрасноста е неизбежна доколку не се преземат свесни мерки за нејзино ублажување.
Од друга страна, технологијата влијае врз тоа како се обликува општеството. Алгоритмите за препораки на содржини можат да ја засилат поделбата на родови улоги, системите за регрутација можат да ја ограничат разновидноста во работната сила, а системите за препознавање лица можат да ја нарушат довербата кај маргинализираните групи. Така, технологијата не само што ја одразува реалноста, туку и ја трансформира.
Пример за оваа двонасочна врска е случајот со Google Translate, кој ја репродуцира родовата поделба на професиите. Овој систем учи од текстови што ја одразуваат историската нееднаквост, но истовремено влијае врз корисниците кои го користат и ја засилува нивната перцепција за тоа кои професии „припаѓаат“ на мажи, а кои на жени.
Во контекст на родовата еднаквост, ова значи дека инженерите и истражувачите имаат одговорност да создаваат системи кои ја промовираат правичноста и ја намалуваат дискриминацијата. Ако технологијата се развива без внимание на општествените вредности, таа може да ја засили нееднаквоста. Затоа, неопходно е да се интегрира родовата перспектива во секој чекор од развојот на ВИ – од собирање податоци, преку дизајн на алгоритми, до нивната примена во реалниот свет. [4] [9] [10]
3. Родови пристрасности во податоците
3.1. Објаснување на поимот „пристрасност во податоци“
Пристрасноста во податоците претставува систематско искривување на информациите што се користат за тренирање на алгоритми. Таа се јавува кога одредени групи се недоволно застапени или кога податоците содржат стереотипи и историски нееднаквости. Во контекст на ВИ, ова значи дека алгоритмите учат од податоци кои не ја одразуваат реалната разновидност на општеството.
Историски гледано, податоците се собирани во општествени услови каде што жените и маргинализираните групи имале ограничен пристап до образование, професии и јавен живот. Овие нееднаквости се пренесуваат во современите бази на податоци, што доведува до тоа алгоритмите да ги репродуцираат истите ограничувања.
Пример за пристрасност во податоци е системот за регрутација кој е обучен врз биографии од минатото, каде што мажите биле доминантно застапени во технолошките позиции. Алгоритмот, учејќи од тие податоци, почнува да ги фаворизира машките кандидати и да ги дискриминира жените. Ова покажува дека пристрасноста не е резултат на намерна дискриминација, туку на историски услови.
Технички, пристрасноста може да се мери преку метрики како „false positive rate“ и „false negative rate“, кои покажуваат колку често алгоритмот погрешно класифицира одредени групи. Ако системот има висока точност за една група, но значително пониска за друга, тоа е јасен знак за пристрасност. Žliobaitė и Read (2022) нагласуваат дека пристрасноста е социо-технички феномен – таа не произлегува само од податоците, туку и од начинот на кој инженерите ги дизајнираат моделите.
Пристрасноста во податоците е еден од најголемите предизвици за правичноста на ВИ системите. Таа покажува дека технологијата не е независна од општеството, туку ја одразува неговата историја и култура. Затоа, контролата на квалитетот и разновидноста на податоците е клучна за да се обезбеди фер и инклузивна технологија. Без свесно управување со податоците, алгоритмите ќе продолжат да ја репродуцираат и засилуваат дискриминацијата. [8]
3.2. Пример од реалниот свет
Во 2020 година, истражувања покажаа дека системите за автоматизирано преведување, како Google Translate, често репродуцираат родови стереотипи. Кога англиски реченици со родово неутрални професии („The doctor said…“, „The nurse helped…“) беа преведувани на јазици што користат граматички род, алгоритмот систематски ги поврзуваше професиите со традиционални родови улоги: „лекар“ најчесто се преведуваше во машки род, а „медицинска сестра“ во женски род.
Оваа пристрасност не произлегува од намерна дискриминација, туку од податоците со кои моделот е обучен – текстови што историски ја одразуваат родовата поделба на професиите. Случајот јасно покажува дека дури и наизглед неутрални апликации, како автоматски преведувачи, можат да ја репродуцираат и засилат родовата нееднаквост. (Prates, Avelar & Lamb, 2020) [12]
3.3. Како историските нееднаквости се рефлектираат во технолошките системи
Историските нееднаквости, како ограничениот пристап на жените до образование, професии и јавен живот, не исчезнуваат со развојот на технологијата. Наместо тоа, тие се пренесуваат во современите алгоритми преку податоците што се користат за нивно тренирање. Алгоритмите, наместо да ја коригираат оваа состојба, често ја репродуцираат и ја засилуваат.
Во технолошките компании, каде што мажите историски биле доминантно застапени, базите на податоци за регрутација содржат повеќе машки биографии. Кога алгоритмите се обучуваат врз такви податоци, тие заклучуваат дека мажите се „подобри“ кандидати и ја намалуваат шансата за жените. Ова е директна последица од историската нееднаквост во индустријата.
Алгоритмите за препознавање лица исто така ја одразуваат историјата на нееднаквост. Ако базите на податоци содржат повеќе фотографии од белци, системите ќе имаат повисока точност за таа група, а значително пониска за жени и лица со потемна кожа. Buolamwini и Gebru (2018) покажаа дека оваа разлика е резултат на нерамномерната застапеност во податочните множества.
Dhar (2013) нагласува дека технологијата никогаш не е неутрална, туку секогаш ги носи вредностите и претпоставките на своите креатори. Тоа значи дека историските нееднаквости стануваат дел од технолошките системи и продолжуваат да влијаат врз можностите и правата на различни групи во општеството.
Оваа состојба покажува дека технологијата не може да се разгледува изолирано од општеството. Ако историските нееднаквости не се адресираат при развојот на алгоритмите, тие ќе продолжат да создаваат нови бариери. Затоа, неопходно е да се применуваат стратегии за свесно собирање податоци, тестирање на алгоритмите и интегрирање на родовата перспектива во секој чекор од развојот на ВИ. [2] [4] [8]
4. Родови пристрасности во алгоритмите
4.1. Како алгоритмите ги репродуцираат пристрасностите
Алгоритмите за машинско учење не се независни од податоците што ги користат. Тие функционираат така што ги идентификуваат статистичките шаблони и ги применуваат во нови ситуации. Ако податоците содржат родови стереотипи или историски нееднаквости, алгоритмите ги усвојуваат овие обрасци и ги репродуцираат во своите предвидувања.
На пример, системите за автоматизирана селекција на кандидати можат да ја засилат родовата нееднаквост. Ако жените историски биле помалку застапени во технолошките позиции, алгоритмот ќе заклучи дека мажите се „подобри“ кандидати и ќе ги фаворизира. Ова покажува дека алгоритмите не само што ја одразуваат реалноста, туку и ја институционализираат дискриминацијата.
Слично, системите за препознавање лица имаат значително повисока точност кај белите мажи отколку кај жените со потемна кожа. Buolamwini и Gebru (2018) покажаа дека оваа разлика е резултат на нерамномерната застапеност во податочните множества. Алгоритмите, учејќи од тие податоци, ја репродуцираат историската нееднаквост и создаваат нови бариери за маргинализираните групи.
Технички гледано, алгоритмите ја репродуцираат пристрасноста преку изборот на карактеристики (features) и метрики за успех. Ако критериумите се поврзани со историски стереотипи, моделот ќе ги засили тие врски. На пример, ако образованието е клучен фактор, а жените историски имале помал пристап до одредени институции, алгоритмот ќе ги фаворизира мажите.
Ова покажува дека пристрасноста не е само технички проблем, туку и општествен феномен. Алгоритмите ја репродуцираат културата и вредностите на своите креатори, што значи дека инженерите и истражувачите имаат одговорност да ја препознаат и да ја намалат пристрасноста. Без свесно управување, технологијата може да ја засили дискриминацијата и да ја направи потешко видлива. [2] [8]
4.2. Примери: Face Recognition системи, Chatbots, Recommendation Engines
4.2.1. Системи за препознавање лица (Face Recognition)
Еден од најпознатите примери е технологијата за препознавање лица, каде истражувањата покажаа дека алгоритмите имаат значително повисока стапка на грешки при препознавање на жени и лица со потемна кожа.
Buolamwini и Gebru (2018) во својата студија „Gender Shades“ открија дека комерцијалните системи за препознавање лица имаат точност од над 99% за белите мажи, но само околу 65% за жените со темна кожа. Оваа разлика е директна последица од нерамномерната застапеност во податочните множества што се користат за тренирање на моделите. [2]
4.2.2. Систем за препорака (Recommendation Engine)
Системите за препораки, пак, често ја засилуваат родовата сегрегација. На пример, платформи за видео содржини можат да препорачуваат различни жанрови врз основа на претходни избори, што доведува до тоа жените да добиваат препораки за „традиционално женски“ содржини, а мажите за „традиционално машки“. Ова ја ограничува разновидноста на искуствата и ја засилува поделбата на родови улоги. [2]
4.3. Статистички и технички аспекти
Технички гледано, пристрасноста се јавува кога моделот има различни стапки на грешки за различни групи. На пример, ако системот за препознавање лица има точност од 99% за мажи, но само 65% за жени, тоа претставува статистичка нееднаквост. Оваа разлика може да се мери преку метрики како „false positive rate“ и „false negative rate“, кои покажуваат колку често алгоритмот погрешно класифицира лица од различни групи.
Алгоритмите исто така можат да бидат пристрасни поради изборот на карактеристики (features) што се користат за тренирање и предикција кај моделите. Ако тие карактеристики се поврзани со историски стереотипи, моделот ќе ги засили тие врски. На пример, ако во регрутациски систем се користи образованието како критериум, а жените историски имале помал пристап до одредени образовни институции, алгоритмот ќе ги фаворизира мажите.
Овие статистички аспекти покажуваат дека пристрасноста не е само етички проблем, туку и технички предизвик кој бара внимателно дизајнирање на моделите и свесно управување со податоците.
5. Етички и општествени импликации
5.1. Последици од родова пристрасност во ВИ
Родовата пристрасност во алгоритмите има последици кои се протегаат надвор од технолошката сфера и директно влијаат врз општеството. Кога системите за регрутација, кредитирање или препознавање лица ја репродуцираат историската нееднаквост, тие создаваат нови бариери за жените и другите маргинализирани групи.
Во контекст на регрутација, пристрасните алгоритми можат да ја намалат шансата за жените да бидат избрани за технолошки позиции. Ова не само што ја ограничува нивната професионална мобилност, туку и ја засилува родовата сегрегација во индустријата. Примерот со Амазон покажува дека алгоритмите можат да институционализираат дискриминација ако не се развиваат со внимание на правичноста.
Пристрасноста не се ограничува само на работното место. Системите за препознавање лица можат да доведат до погрешна идентификација на жени и лица со потемна кожа, што има сериозни последици за нивната безбедност и пристап до услуги. Кога технологијата не функционира еднакво за сите, тоа создава чувство на исклученост и недоверба кај граѓаните.
Родовата пристрасност во ВИ може да ја засили постоечката нееднаквост и да ја направи потешко видлива. Алгоритмите често се перципираат како објективни и рационални, па нивната дискриминација е потешко да се препознае и да се оспори. Ова доведува до институционализирање на нееднаквоста во дигиталната сфера, што е особено проблематично бидејќи технологијата сè повеќе ја обликува секојдневната реалност.
На пример, Амазон мораше да го повлече својот систем за автоматизирана селекција на кандидати откако беше откриено дека алгоритмот систематски ги фаворизира машките апликанти (Reuters, 2018). Овие последици покажуваат дека пристрасноста во ВИ не е само технички проблем, туку и етички и општествен предизвик. Ако не се адресира, таа може да ја поткопа довербата во технологијата и да ја засили дискриминацијата. Затоа, неопходно е инженерите, истражувачите и политичките институции да работат заедно за да обезбедат правичност и инклузивност во дигиталните системи. [2] [7]
5.2. Влијание врз жените, ЛГБТИ+ заедницата, маргинализирани групи
Алгоритмите кои се обучени врз нерамномерни податоци често имаат поголема стапка на грешки кај жените, ЛГБТИ+ заедницата и маргинализираните групи. Оваа нееднаквост не е само техничка, туку има реални последици врз секојдневниот живот и пристапот до услуги.
Жените често се дискриминирани во системите за регрутација и препознавање лица. Buolamwini и Gebru (2018) покажаа дека точноста на алгоритмите за препознавање лица е значително пониска кај жените со темна кожа во споредба со белите мажи. Ова доведува до погрешна идентификација, ограничен пристап до услуги и зголемена изложеност на ризик
Алгоритмите кои се базираат на бинарни категории на род и пол често не успеваат да ги препознаат идентитетите на ЛГБТИ+ заедницата. На пример, системите за препознавање лица или за анализа на податоци можат да ги игнорираат небинарните идентитети, што доведува до нивно исклучување и невидливост во дигиталниот простор.
Маргинализираните групи, како етничките малцинства или лицата со потемна кожа, исто така се соочуваат со повисока стапка на грешки во алгоритмите. Ова може да доведе до дискриминација при пристап до кредити, здравствени услуги или образовни можности. Алгоритмите, наместо да ја коригираат оваа состојба, ја засилуваат историската нееднаквост.
Овие примери покажуваат дека пристрасноста во ВИ има мултидимензионално влијание – таа не ги засега само жените, туку и ЛГБТИ+ заедницата и другите маргинализирани групи. Затоа, неопходно е да се развиваат алгоритми кои ја признаваат и ја интегрираат разновидноста на идентитетите. Само така може да се обезбеди фер и инклузивна технологија која ќе служи на сите граѓани.. [2] [12] [15]
5.3. Доверба во технологијата и јавна перцепција
Кога јавноста дознава дека алгоритмите се пристрасни, довербата во технологијата значително се нарушува. Луѓето очекуваат дигиталните системи да бидат објективни и правични, но кога тие ја репродуцираат дискриминацијата, се создава чувство на недоверба и отпор кон нивната примена.
Недовербата може да доведе до намалена употреба на технологијата, отпор кон нови дигитални решенија и барање за построга регулатива. На пример, по скандалите со системите за препознавање лица, многу градови во САД воведоа забрани или ограничувања за нивна употреба, токму поради загриженоста за пристрасност и дискриминација.
Јавната перцепција за технологијата зависи од тоа дали граѓаните веруваат дека инженерите и компаниите работат во интерес на правичноста. Dhar (2013) нагласува дека технологијата секогаш ги носи вредностите на своите креатори, што значи дека довербата е тесно поврзана со транспарентноста и одговорноста на компаниите.
Европската Унија со AI Act (2021–2024) воведе обврска за проценка на ризик и заштита од дискриминација. Ова е директен одговор на јавната загриженост за пристрасноста во ВИ системите. Регулативите покажуваат дека довербата во технологијата може да се обнови само ако постојат јасни правила и механизми за одговорност.
Довербата во технологијата е клучна за нејзината успешна примена. Ако граѓаните ја перципираат како неправична или дискриминаторска, тие ќе ја одбијат и ќе бараат алтернативи. Затоа, развивачите и политичките институции мора да работат заедно за да обезбедат транспарентност, етички стандарди и инклузивност, со цел да се зајакне јавната доверба. [4] [11] [16]
6. Примери и студии на случај
6.1. Амазон и родовата пристрасност во регрутација
Амазон започна да развива автоматизиран систем за регрутација во 2014 година, со цел да го олесни процесот на селекција на кандидати. Алгоритмот беше обучен врз десет години биографии што компанијата ги добила, но бидејќи технолошката индустрија е доминирана од мажи, мнозинството податоци потекнуваа од машки кандидати. Како резултат, системот почна да ги фаворизира машките апликанти и да ги дискриминира жените.
Биографии што содржеа зборови како „women’s“ или имиња на женски колеџи беа автоматски казнувани од алгоритмот. Во 2018 година, Амазон мораше да го повлече системот откако беше откриено дека тој систематски ја репродуцира родовата пристрасност и создава нови бариери за жените во технолошките професии. [7]
6.2. Google Photos и проблемот со препознавање
Во 2015 година, Google Photos беше критикуван откако неговиот алгоритам за автоматско означување на фотографии погрешно ги класифицираше црните лица како горили. Овој инцидент предизвика голема јавна реакција и ја истакна опасноста од недоволна разновидност во податочните сетови.
Иако Google веднаш се извини и ги отстрани проблематичните ознаки, случајот покажа дека алгоритмите не само што можат да бидат пристрасни по род, туку и по раса и етничка припадност. Причината лежи во фактот дека тренинг-податоците не биле доволно репрезентативни за различни групи, што доведе до сериозни грешки во класификацијата. [13]
6.3. Microsoft Tay. Чат бот кој учеше од дискриминација
Во 2016 година, Мајкрософт го лансираше Tay, чат бот наменет за интеракција со корисници на Твитер. Наместо да демонстрира интелигентна и корисна комуникација, Tay за само 16 часа почна да објавува навредливи, сексистички и расистички пораки.
Причината беше што алгоритмот учеше директно од содржината што ја добиваше од корисниците, а голем дел од тие содржини беа токсични и дискриминаторски. Овој случај покажа дека алгоритмите не само што можат да ја репродуцираат пристрасноста од податоците, туку и да ја засилат ако се изложени на непроверени извори. [14]
6.4. Македонски и балкански контекст
Иако нема многу документирани случаи на големи скандали поврзани со ВИ во Македонија, постојат истражувања кои укажуваат на родова асиметрија во јазикот и технологијата.
На пример, Институтот за родови студии при УКИМ анализирал употреба на феминативи во македонскиот јазик и заклучил дека многу професионални титули постојат само во машки род, а нивните женски деривати се ретки или се сметаат за неформални. Оваа јазична пристрасност се пренесува и во дигиталните системи, бидејќи ВИ модели обучени врз македонски текстови ја репродуцираат истата асиметрија.
На поширок балкански план, UNDP Eurasia предупредува дека генеративната ВИ во регионот често ги засилува постоечките родови стереотипи, бидејќи моделите се обучени врз содржини што ја одразуваат структурната нееднаквост. [15] [16]
7. Решенија и препораки
7.1. Како да се намали родовата пристрасност во ВИ
Намалувањето на родовата пристрасност во системите за вештачка интелигенција е комплексен процес кој бара комбинација од технички, етички и институционални мерки. Алгоритмите не можат сами да ја коригираат историската нееднаквост, па затоа е потребна свесна интервенција од страна на истражувачите, инженерите и политичките институции.
Еден од најважните чекори е обезбедување репрезентативни податочни сетови. Ако базите на податоци содржат разновидни примери од различни родови, етнички и социјални групи, алгоритмите ќе имаат поголема точност и правичност. На пример, системите за препознавање лица мора да вклучуваат фотографии од луѓе со различна боја на кожа, возраст и родови идентитети.
Транспарентноста е клучна за намалување на пристрасноста. Компаниите треба да објавуваат „model cards“ и „data sheets“ кои објаснуваат како се собрани податоците, кои се нивните ограничувања и како алгоритмите се тестирани. Ова им овозможува на корисниците и истражувачите да ја проценат правичноста на системите и да бараат подобрувања.
Покрај техничките решенија, потребни се и етички стандарди и регулативи. Европската Унија со AI Act веќе воведува обврска за проценка на ризик и заштита од дискриминација. Ваквите регулативи создаваат рамка која ги обврзува компаниите да развиваат алгоритми што ја промовираат еднаквоста и инклузивноста.
Намалувањето на родовата пристрасност во ВИ не е еднократна задача, туку континуиран процес. Алгоритмите мора редовно да се тестираат и ажурираат за да се обезбеди нивната правичност. Само преку комбинација од подобри податоци, транспарентност, етички стандарди и регулативи може да се создаде технологија која ќе биде инклузивна и ќе служи на сите граѓани. [6] [11]
7.2. Технички решенија. Подобро собирање податоци, транспарентност, етички кодекси
Техничките решенија се клучни за намалување на родовата пристрасност во ВИ. Тие овозможуваат практични механизми преку кои инженерите и истражувачите можат да обезбедат фер и инклузивни алгоритми.
Првиот чекор е внимателно собирање и селекција на податоци. Податочните сетови мора да бидат репрезентативни и да вклучуваат разновидност од родови, етнички и социјални групи. Ова значи дека базите на податоци треба да се ажурираат редовно и да се проверуваат за потенцијални празнини или стереотипи.
Транспарентноста е неопходна за да се обезбеди доверба во технологијата. Компаниите треба да користат алатки како „model cards“ и „data sheets“ за да објаснат како се собрани податоците, кои се нивните ограничувања и како алгоритмите се тестирани. Ова им овозможува на корисниците и истражувачите да ја проценат правичноста на системите.
Етичките кодекси се уште еден важен елемент. Тие поставуваат правила и стандарди за тоа како треба да се развиваат и користат алгоритмите. На пример, кодексите можат да бараат редовна евалуација на системите, обука на инженерите за родова еднаквост и обврска за транспарентност кон јавноста. [6] [11]
За поголема јасност, техничките решенија може да се сумираат вака:
- Репрезентативни податочни сетови со разновидност од родови и етнички групи
- Транспарентност преку „model cards“ и „data sheets“
- Воспоставување етички кодекси и стандарди за развој на алгоритми
- Редовна евалуација и тестирање на системите за правичност
- Обука на инженерите и истражувачите за родова перспектива
7.3. Политики и регулативи
Политиките и регулативите играат клучна улога во намалувањето на родовата пристрасност во ВИ. Техничките решенија сами по себе не се доволни ако не постои институционална рамка што ќе обезбеди нивна примена и контрола.
Европската Унија со AI Act (2021–2024) воведе обврска за проценка на ризик и заштита од дискриминација. Овој закон бара транспарентност, одговорност и редовна евалуација на алгоритмите, особено кај системите со висок ризик како што се препознавање лица, регрутација и здравствени апликации.
На национално ниво, земјите треба да развиваат сопствени стратегии за ВИ кои вклучуваат родова перспектива. Во Македонија, иако нема многу документирани случаи на големи скандали, постојат иницијативи за интегрирање на родовата еднаквост во образованието и истражувањето. Ова е важен чекор за да се спречи пренесување на јазичната и културната пристрасност во алгоритмите.
Меѓународни организации како UNDP и UNESCO предупредуваат дека генеративната ВИ може да ги засили постоечките родови стереотипи. Затоа, тие предлагаат глобални стандарди за етичка употреба на ВИ, кои вклучуваат фер застапеност на жените и маргинализираните групи во податочните сетови и во процесите на развој.
Политиките и регулативите не треба да се гледаат како ограничување, туку како механизам за заштита на граѓаните и за градење доверба во технологијата. Само преку јасни правила и институционална одговорност може да се обезбеди дека ВИ ќе се користи на начин кој ја промовира еднаквоста и правичноста.. [11] [16]
8. Заклучок
Заклучокот од оваа семинарска работа укажува дека родовата пристрасност во алгоритмите за вештачка интелигенција не е изолиран проблем, туку систематски феномен кој произлегува од историски и општествени нееднаквости. Преку анализата на конкретни случаи, како што се системот за регрутација на Амазон, технологиите за препознавање лица и чат ботот Tay, се покажа дека алгоритмите можат да ја репродуцираат и засилат дискриминацијата доколку не се развиваат со свесност за правичност и разновидност. Овие примери ја потврдуваат потребата од критичка анализа и одговорен развој на технолошките системи.
Родовата еднаквост е суштинска вредност во современото општество и нејзиното обезбедување во технолошкиот развој е од клучно значење. Вештачката интелигенција има потенцијал да ја обликува иднината на трудот, образованието и секојдневниот живот, но ако не се адресираат пристрасностите, таа може да ја продлабочи постоечката нееднаквост. Затоа, промовирањето на родова еднаквост во дигиталната сфера не е само етичка обврска, туку и предуслов за одржлив и правичен развој.
Идните инженери и истражувачи имаат особена одговорност да создаваат технологии кои ја почитуваат разновидноста и ја намалуваат дискриминацијата. Потребна е свесност дека секоја технолошка одлука носи социјални импликации и дека алгоритмите не се неутрални, туку ја одразуваат културата и вредностите на своите креатори. Повикот е јасен, да се гради технологија која не само што е ефикасна, туку и правична, транспарентна и инклузивна, со цел да се обезбеди иднина во која дигиталниот напредок ќе биде во служба на еднаквоста и општествената правда.
9. Литература
[1] Abendroth, A. (2012). Gender equality. In A. C. Michalos (Ed.), Encyclopedia of Quality of Life and Well-Being Research. Springer.
[2] Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities In Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.
[3] Columbia Engineering. (2023). Artificial Intelligence (AI) vs. Machine Learning. Columbia University. Линк https://engineering.columbia.edu
[4] Dhar, R. (2013). Technology and Values. Routledge.
[5] European Institute for Gender Equality (EIGE). (2016). Glossary & Thesaurus. Линк https://eige.europa.eu
[6] Gebru, T., Mitchell, M., Shankar, S., et al. (2021). Datasheets for Datasets. Communications of the ACM, 64(12), 86–92.
[7] Reuters. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Линк https://www.reuters.com
[8] Žliobaitė, I., & Read, J. (2022). Learning from Data Streams. Springer.
[9] Alsaleh, M. (2024). Technology and social values: Impacts of AI on culture and society. Scientific Reports, 14(1), 112–124.
[10] Bezzi, C., et al. (2025). The Relationship between Values and Technology. European Research Report.
[11] European Union. (2021–2024). Artificial Intelligence Act (AI Act). Official Journal of the European Union.
[12] Prates, M. O., Avelar, P. H., & Lamb, L. C. (2020). Assessing gender bias in machine translation: A case study with Google Translate. Neural Computing and Applications, 32(10), 6363–6381.
[13] Hern, A. (2015, July 1). Google apologises after Photos app tags black people as gorillas. The Guardian. Линк
[14] Vincent, J. (2016, March 24). Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day. The Verge. Линк
[15] Гушкова, М. (2025). (Не)Употребата на феминативи во јазикот: Анализа на јазичната пристрасност и родовата асиметрија во ИКТ и ВИ. Институт за родови студии, УКИМ. Линк
[16] UNDP Eurasia. (2025, October 6). AI, gender bias and development. United Nations Development Programme. Линк
