Михаил Петров
Вештачката интелигенција и родовата еднаквост
Слика 1. линк
Апстракт
Вештачката интелигенција (ВИ) сè повеќе добива централна улога во модерното општество, при што алгоритмите се користат за носење одлуки во различни области како што се вработување, образование, здравство и финансии. Сепак, иако вештачката интелигенција има потенцијал да ја унапреди родовата еднаквост преку автоматизација и објективност, истовремено постои ризик од засилување на постоечката родова пристрасност. Оваа семинарска работа го истражува начинот на кој алгоритмите можат да придонесат за елиминирање на дискриминацијата, но и да ја одржат или дури и да ја влошат родовата нееднаквост доколку се базираат на пристрасни податоци.
Преку анализа на реални примери и студии на случај, ќе се испитаат предизвиците и можностите што вештачката интелигенција ги нуди за постигнување поголема инклузивност. Истражувањето ќе се осврне на причините за појава на пристрасност, нејзините влијанија и начините за надминување преку технолошки и етички пристапи. На крајот, ќе бидат предложени стратегии за развој на поправедни алгоритми кои ќе придонесат кон рамноправност и праведно општество.
Слика 2 линк
- Вовед
Во последните неколку децении, технологијата напредува со забрзано темпо, а вештачката интелигенција претставува една од најреволуционерните дисциплини. Алгоритмите базирани на вештачка интелигенција се користат за носење важни одлуки во различни области, вклучувајќи вработување, здравство, финансии и образование. Нивната способност за автоматско учење и обработка на големи количини на податоци ветува поголема ефикасност и објективност. Меѓутоа, алгоритмите не се имуни на пристрасноста што постои во податоците што се користат за нивно тренирање.
Родовата еднаквост е еден од аспектите што најчесто е засегнат од пристрасноста во алгоритмите. Ако системите се обучени врз основа на историски податоци што содржат родови стереотипи, тие може несвесно да ги реплицираат и одржат овие нееднаквости. Пример за тоа е кога алгоритмите за вработување фаворизираат машки кандидати врз основа на историски податоци што одразуваат дискриминациски практики. Ова покажува дека иако вештачката интелигенција има потенцијал да биде објективна, таа не е секогаш неутрална.
Оваа семинарска работа има за цел да ги испита аспектите на вештачката интелигенција кои можат да ја унапредат или да ја загрозат родовата еднаквост. Ќе бидат анализирани конкретни примери на алгоритми што покажале пристрасност, причините зошто тоа се случува, како и потенцијални решенија за подобрување на инклузивноста во системите на вештачката интелигенција.
- Вештачката интелигенција и родовата пристраност во алгоритмите
- Што претставува родовата пристраност?
Родовата пристрасност се јавува кога технологијата, било намерно или ненамерно, фаворизира еден пол во однос на друг. Во контекст на вештачката интелигенција, тоа се случува кога моделите се обучени врз основа на податоци кои содржат нееднаквости или стереотипи. Ова значи дека алгоритмите, наместо да бидат неутрални и праведни, можат да го репродуцираат и дури да го зголемат родовиот јаз во различни области.
Истражувањата покажуваат дека пристрасноста во алгоритмите може да биде резултат на неколку фактори, како што се:
- Пристрасни податочни сетови – Податоците што се користат за тренирање на моделите често се базираат на историски примери, кои можат да содржат родови стереотипи.
- Недостаток на разновидност во тимовите што ги развиваат алгоритмите – Ако инженерите што ги развиваат системите на вештачката интелигенција не се свесни за родовата пристрасност, тие можат несвесно да создадат дискриминирачки алгоритми.
- Непостоење на регулаторни механизми – Во многу случаи, компаниите не вршат детални проверки на своите системи за потенцијални пристрасности.
Слика 3. линк
- Примери на родова пристраност во вештачката интелигенција
Еден од најпознатите примери на родова пристрасност во ВИ е алгоритмот на Amazon за автоматизирано селектирање на кандидати за работа. Овој систем беше создаден со цел да го забрза процесот на регрутација, но беше откриено дека го фаворизира машкиот пол, бидејќи историските податоци покажувале дека повеќе мажи биле вработувани во технолошки позиции. Како резултат на тоа, алгоритмот ги оценуваше женските кандидати пониско, што доведе до негово повлекување (Dastin, 2018).
Друг пример е системот за препознавање на лице, каде што истражувањата покажале дека алгоритмите имаат значително пониска точност при идентификација на жени, особено жени со потемна кожа. Ова доведе до загриженост дека овие технологии може да се користат на дискриминирачки начини, особено во области како безбедност и вработување (Buolamwini & Gebru, 2018).
Слика 4. линк
- Како вештачката интелигенција може да помогне во намалување на родовата нерамноправност?
- Инклузивен дизајн на алгоритмите
За да се намали пристрасноста, алгоритмите треба да се развиваат со свесност за различностите. Ова вклучува:
- Употреба на разновидни и репрезентативни податочни сетови.
- Редовно тестирање на алгоритмите за пристрасност и корекција на неправилностите.
- Законски регулативи и етнички насоки
Некои земји веќе воведуваат регулативи за контрола на алгоритамските одлуки. Европската унија работи на „Акт за вештачка интелигенција“, кој има за цел да осигури фер и транспарентна употреба на ВИ (European Commission, 2021).
Слика 5. линк
- Состојба во Македонија: Вештачка интелигенција и родова еднаквост
Во Македонија, како и во многу други земји, вештачката интелигенција (ВИ) брзо напредува и се интегрира во различни сектори. Сепак, постојат значајни предизвици во однос на родовата еднаквост и инклузивност во оваа област.
- Родова застапеност во ИТ секторот
Според истражувањето на ИТ професионалци во Северна Македонија, само 20% од ИТ програмерите се жени. Оваа нерамнотежа придонесува за родовиот јаз во платите, бидејќи програмерите се меѓу најплатените професии во ИТ секторот.
- Недостаток на регулативи за вештачка интелигенција
Северна Македонија заостанува зад соседните земји во имплементацијата на регулативи за вештачка интелигенција. Иако Владата и Фондот за иновации и технолошки развој започнаа напори во 2021 година за креирање на Национална стратегија за ВИ, напредокот е забавен поради недостаток на податоци, човечки ресурси и технички капацитети.
- Родова нееднаквост и дискриминација
Според извештајот на Светската банка, Северна Македонија зазема 35-то место од 189 земји според Индексот на родова нееднаквост. Жените имаат индекс на хуман развој од 0.73, додека мажите имаат 0.77, што укажува на постоечка родова нееднаквост.
- Потреба за инклузивен дизајн на вештачката интелигенција
За да се намали пристрасноста и да се промовира родова еднаквост, неопходно е алгоритмите да се развиваат со свесност за различностите. Ова вклучува употреба на разновидни и репрезентативни податочни сетови, како и редовно тестирање на алгоритмите за пристрасност и корекција на неправилностите.
- Заклучок
Вештачката интелигенција има моќ да ја трансформира иднината и да создаде нови можности за напредок во различни области, но нејзината примена мора да биде внимателно управувана и одговорна. За да се постигне позитивен ефект во намалувањето на родовиот јаз, потребно е алгоритмите да бидат дизајнирани на инклузивен начин, со што ќе се елиминираат било какви форми на пристрасност и нееднаквост. Ако се вклучат фер принципи, различни перспективи и инклузивни стратегии во процесот на развој на вештачката интелигенција, тие ќе можат да имаат значителен придонес во создавањето на поеднакви можности за сите, без оглед на полот. Клучно е да се обезбеди дека овие технологии не ги повторуваат постоечките нееднаквости, туку активно се користат за нивно намалување и за подобрување на животите на сите членови на општеството. Само така ќе се создаде праведна и инклузивна иднина, каде што вештачката интелигенција ќе служи како алатка за унапредување на родовата еднаквост.
Македонија се соочува со предизвици во интеграцијата на вештачката интелигенција со почитување на родовата еднаквост. Потребни се конкретни чекори за подобрување на родовата застапеност во ИТ секторот, развој на соодветни регулативи за ВИ и промоција на инклузивен дизајн на алгоритмите. Само така ќе се обезбеди дека вештачката интелигенција ќе придонесе за создавање на праведна и инклузивна иднина за сите.
- Референци
- https://easy-peasy.ai/ai-image-generator/images/ai-mind-surrounding-hand-tools-visualizing-artificial-intelligence
- https://brocku.ca/brock-news/2023/07/brock-explores-future-of-ai-with-advisory-group-academic-integrity-study/
- http://gendershades.org
- https://source.washu.edu/2023/03/research-highlights-gender-bias-persistence-over-centuries/
- https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
- https://www.undp.org/serbia/blog/reproducing-inequality-how-ai-image-generators-show-biases-against-women-stem
- https://cioafrica.co/battling-gender-bias-for-balance-using-ai/
- https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
- https://openspace.etf.europa.eu/blog-posts/difficulties-finding-qualified-it-women-employees-are-still-present-north-macedonia
- https://www.schoenherr.eu/content/the-status-and-future-prospects-of-ai-regulation-and-development-in-north-macedonia
- https://banyanglobal.com/wp-content/uploads/2019/09/USAID-North-Macedonia-Gender-Analysis-Report.pdf
- https://eca.unwomen.org/en/stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do-about-it-0