Андреј Божиновски
I. Вовед
Во последните неколку децении, вештачката интелигенција (ВИ) полека, но сигурно, стана дел од нашето секојдневие. Од начинот на кој комуницираме и работиме, до тоа како носиме одлуки, ВИ веќе игра значајна улога. Со напредокот на алгоритмите и машинското учење, компјутерите сега можат да анализираат огромни количества податоци и да донесуваат одлуки што често изгледаат како да се направени од луѓе. Сепак, оваа технолошка револуција не е без свои проблеми, особено кога се работи за родовата еднаквост. Иако целта на ВИ е да биде неутрална и објективна, многу пати алгоритмите што ја поддржуваат ја засилуваат веќе постојната дискриминација. Ова води до нееднаквости во различни области, како што се вработувањето, правдата и образованието.
Проблемот лежи во тоа што алгоритмите учат од податоците што им се дадени, а тие податоци честопати содржат несвесни или свесни предрасуди. Наместо да ги елиминира, ВИ понекогаш ги засилува веќе постојните стереотипи. На пример, системи за автоматско регрутирање што ги користат податоците од минатото имаат тенденција да фаворизираат машки кандидати за технички позиции. Дополнително, системите за препознавање на лице покажале дека прават повеќе грешки кога станува збор за жени, особено за жени од различни етнички заедници. Ова отвора важни прашања за тоа колку програмерите и компаниите што ги создаваат овие технологии треба да преземат одговорност за последиците од нивната работа.
Дополнителен проблем е тоа што во самата индустрија за ВИ има малку жени. Според истражувањата, жените претставуваат значително помал дел од работната сила во ова поле, што значи дека перспективите и искуствата на жените често се занемарени при развојот на алгоритмите. Оваа нерамнотежа покажува колку е важно да се воведат инклузивни стратегии и регулативи што ќе обезбедат правична и објективна примена на вештачката интелигенција.
Целта на оваа семинарска работа е да истражи како алгоритмите создаваат или засилуваат родови предрасуди, да ги анализира причините за овој проблем и да предложи потенцијални решенија што ќе помогнат во постигнување на родова еднаквост во областа на вештачката интелигенција. Преку разгледување на примери од праксата и актуелните истражувања, ќе се обидеме да сфатиме како можат да се изградат пофер и поинклузивни алгоритми што ќе придонесат кон порамноправно општество.
II. Содржина
Алгоритмите и родовите предрасуди: Основни механизми
Вештачката интелигенција (ВИ) се потпира на алгоритми кои учат од податоците што им ги даваме, но проблемот е што тие податоци често се полни со историски предрасуди. Алгоритмите, без да се свесни за тоа, ги „наследуваат“ овие предрасуди и ги повторуваат. На пример, ако некоја компанија традиционално вработувала повеќе мажи на технички позиции, алгоритамот за регрутирање обучен со тие податоци ќе има тенденција да фаворизира машки кандидати, иако тие можеби немаат подобри квалификации од жените.
Исто така, алгоритмите за препознавање на лице често прават повеќе грешки кога се работи за жени и за лица од малцински етнички групи. Едно истражување на MIT Media Lab покажа дека комерцијалните системи имале грешки до 34% при препознавање на лица со потемен тен и женски род, додека за бели мажи грешките биле многу поретки. Проблемот лежи во тоа што алгоритмите биле обучени со податоци каде што претежно биле застапени лица со светол тен и машки род, па затоа не се снаоѓаат добро со различностите.
Влијанието на недостигот на разновидност во ВИ индустријата
Еден од големите проблеми што ги поттикнува родовите предрасуди во алгоритмите е тоа што во индустријата за ВИ има многу малку жени. Според податоците од AI Now Institute, само 12% од истражувачите на ВИ и 22% од професионалците во полето на машинско учење се жени. Оваа нерамнотежа значи дека при развојот на алгоритмите, честопати недостасува женска перспектива.
На пример, здравствените апликации базирани на ВИ обично не ги земаат предвид разликите во симптомите помеѓу мажите и жените. Ако алгоритмот е обучен претежно со податоци од мажи, постои ризик да даде погрешна дијагноза за жените. Ова особено се гледа кај срцевите заболувања, каде што симптомите значително се разликуваат помеѓу половите.
Родовата пристрасност во автоматизираните одлуки
Алгоритмите денес се користат за донесување важни одлуки, како на пример дали некој ќе добие кредит, работа или дури и каква пресуда ќе добие во судот. Сепак, многу од овие алгоритми покажале значителни родови предрасуди. На пример, Amazon беше принуден да го повлече својот алгоритам за регрутирање откако се откри дека систематски ги дискриминирал жените кандидати за технички позиции. Причината беше што алгоритмот бил обучен со податоци од минатото, кога мажите биле претежно застапени на тие позиции.
Во правосудството, алгоритмите како COMPAS се користат за да предвидат дали некој ќе направи повторно прекршување. Иако официјално не ја земаат предвид родовата припадност, индиректните фактори како историја на вработување или образование доведуваат до дискриминација. Ова значи дека жените и мажите кои направиле исти прекршоци може да добијат различен третман само поради пристрасностите во алгоритмот.
Етички и правни импликации
Родовите предрасуди во алгоритмите отвораат сериозни етички и правни прашања. Европската Унија, преку Регулативата за Општа заштита на податоците (GDPR), постави стандарди за транспарентност и објаснување на алгоритамските одлуки. Но, тоа не е доволно. Потребни се јасни закони кои ќе се справуваат со родовата пристрасност и ќе обезбедат механизми за ревизија на алгоритмите.
Еден од најголемите проблеми е т.н. „црна кутија“ – ситуација во која не знаеме како точно алгоритмот донел одредена одлука. Кога не постои транспарентност, луѓето што се погодени од овие одлуки немаат начин да разберат дали се дискриминирани и зошто.
Препораки за надминување на родовите предрасуди
За да се решат овие проблеми, неопходно е да се преземат повеќе мерки истовремено. Прво, треба да има поголема разновидност во тимовите што ги развиваат алгоритмите – повеќе жени и претставници од маргинализирани групи. Повеќе перспективи значат помалку предрасуди.
Второ, треба да се развијат методи за ревизија на алгоритмите што ќе помогнат да се откријат и коригираат родовите предрасуди уште на почетокот. Исто така, неопходно е да има поголема транспарентност во тоа како функционираат алгоритмите. Ако кодот е отворен и достапен за проверка, ќе биде многу полесно да се идентификуваат и коригираат проблемите.
Улогата на образованието и подигнувањето на свеста
Образованието игра клучна улога во борбата против родовите предрасуди во ВИ. Ако студентите на компјутерски науки учат и за етиката и за родовата еднаквост, ќе бидат многу посензитивни за овие прашања кога ќе развиваат алгоритми.
Исто така, подигнувањето на свеста кај корисниците за ризиците од алгоритамската дискриминација може да создаде притисок врз компаниите да бидат потранспарентни и поодговорни. На крајот, постигнувањето родова еднаквост во ерата на вештачката интелигенција бара заеднички напори од владите, технолошките компании и општеството како целина. Ако успееме да ги отстраниме родовите предрасуди од алгоритмите, ќе добиеме технологии што се не само попаметни, туку и пофер и поправични.
III. Заклучок
Родовите предрасуди во вештачката интелигенција се сериозен проблем за денешното општество кое се стреми кон инклузивност и еднаквост. Иако алгоритмите често ги гледаме како објективни и непристрасни, реалноста е поинаква. Тие често носат одлуки што се несправедливи за жените, било да станува збор за вработување, правосудство или здравство. Ова се случува бидејќи алгоритмите учат од историски податоци кои веќе содржат предрасуди и затоа само ги повторуваат тие исти грешки. Дополнително, недостатокот на разновидност во тимовите што ги создаваат овие алгоритми само го влошува проблемот.
За да се справиме со ова, потребна е многу поголема транспарентност и одговорност при развојот на ВИ. Мора да има јасни регулативи кои ќе ги обврзат технолошките компании да објаснат како работат нивните алгоритми и да ги коригираат кога ќе се открие дека се пристрасни. Иако регулативи како GDPR се чекор напред, тие не се доволни. Потребна е поширока законска рамка што директно ќе ги адресира родовите предрасуди и ќе постави стандарди за фер и етичко користење на ВИ.
Исто така, образованието и подигнувањето на свеста за алгоритамската дискриминација се од клучно значење. Ако студентите на компјутерски науки учат и за етиката и за родовата еднаквост, ќе бидат многу посвесни за овие прашања кога ќе развиваат алгоритми. Покрај тоа, информирани корисници можат да вршат притисок врз компаниите за поголема транспарентност и одговорност, што на долг рок може да доведе до значајни промени.
На крајот, за да постигнеме родова еднаквост во ерата на вештачката интелигенција, потребен е заеднички напор од владите, технолошките компании, истражувачите и општеството во целина. Потребни се инвестиции во истражувања за идентификување и отстранување на родовите предрасуди и примена на инклузивни практики при развојот на алгоритмите. ВИ има потенцијал да го подобри општеството, но тоа ќе се случи само ако ја користиме на фер и одговорен начин. Справувањето со родовите предрасуди не е само прашање на правичност, туку и на ефикасност и доверба во самите технологии кои сè повеќе го обликуваат нашиот свет.
IV. Библиографија
„Како ВИ може да препознае и да помогне во намалувањето на родовите предрасуди“. (2025). Преземено од https://aigender.net/index.php/2025/03/04/indu/
„Користење на вештачката интелигенција (AI) за унапредување на родовата еднаквост во академските истражувања“. (2024). Преземено од https://aigender.net/
„Вештачката интелигенција – дали ќе ги замени луѓето?“. (2025). Преземено од https://kariera.mk/article/1558/veshtachkata-inteligencija-dali-kje-gi-zameni-lugjeto
„Ефектот на вештачката интелигенција врз човековите права“. (2024). Преземено од https://eprints.ugd.edu.mk/34289/1/finalno_istrazuvanje-za-efektot-na-veshtachkata-inteligencija-vrz-chovekovite-prava.pdf