ВИ и родова пристрасност

Published by

on

Ивана Коцева 

Вовед 

Вештачката интелигенција (ВИ) се повеќе се интегрира во многу аспекти на модерниот живот. Од виртуелни асистенти кои управуваат со нашите распореди до автомобили кои самите се возат по нашите патишта, вештачката интелигенција трансформира и оптимизира индустрии и нуди нови решенија за сложени проблеми. Сепак, и покрај својот потенцијал, вештачката интелигенција не е без свои недостатоци. Едно од најзагрижувачките прашања што се појави е тенденцијата системите за вештачка интелигенција да ги продолжат, па дури и да ги влошат постоечките општествени предрасуди, особено оние поврзани со родот. Ова се случува затоа што системите за вештачка интелигенција се добри толку колку што се податоците на кои се обучени, а голем дел од тие податоци ги одразуваат историските и културните нееднаквости. Кога овие предрасуди не се решени, вештачката интелигенција има потенцијал да ја зајакне родовата дискриминација во различни сектори, како што се вработувањето, здравството, спроведувањето на законот и социјалните интеракции. Овие предрасуди, доколку не се контролираат, може да придонесат за поголема родова нееднаквост и општествена штета. 

Примери 

Еден од најпознатите примери на родова пристрасност во вештачката интелигенција се случи со ВИ алатката за регрутирање развиена од страна на компанијата Амазон. Алатката е дизајнирана да и помогне на компанијата да го насочи својот процес на вработување со користење на алгоритми за машинско учење за да ги оцени резимеата. Вештачката интелигенција била обучена за резимеа доставени до Амазон во период од 10 години, од кои огромното мнозинство доаѓале од машки кандидати. Како резултат на тоа, алгоритмот развил преференца за резимеа кои ги рефлектираат традиционално машките улоги и квалификации. До 2015 година, станало јасно дека системот е пристрасен кон женските апликанти – конкретно казнувајќи ги резимеата што содржеле зборови како „женски“ или референци на организации кои се ориентирани кон жените. Дури и откако Амазон се обидел да го прилагоди алгоритмот за да ја неутрализира пристрасноста, станало очигледно дека системот за вештачка интелигенција сè уште не може да донесе правилни одлуки за вработување. Ова довело до конечно напуштање на проектот. 

Друг пример за родова пристрасност во вештачката интелигенција е забележан во употребата на технологијата за препознавање на лица. Овие системи се широко користени за безбедност и проверка на идентитетот во различни апликации, од отклучување паметни телефони до следење на јавните простори. Сепак, студиите покажуваат дека алгоритмите за препознавање лица имаат значителни родови и расни предрасуди. На пример, истражувањето од МИТ Медиа Лаб открило дека еден широко користен систем за препознавање лице погрешно ги идентификувал мажите со светла кожа со стапка на грешка од само 0,8%. Спротивно на тоа, за жените со потемна кожа, стапката на грешки се искачила на 34,7%. Овој диспаритет предизвикува сериозна загриженост, особено кога овие системи се користат во спроведувањето на законот за да се идентификуваат осомничените. Погрешните идентификации може да доведат до незаконски апсења, зголемен надзор на маргинализираните заедници и на крајот да ја поткопа довербата во јавните институции. 

Причини

Вештачката интелигенција работи врз основа на податоците што ги добива. Моделите за машинско учење, кои се основна компонента на вештачката интелигенција, ги анализираат историските податоци за да донесуваат предвидувања и одлуки. Меѓутоа, ако податоците содржат предрасуди – без разлика дали се експлицитно наведени или суптилно вградени – системите за вештачка интелигенција можат да ги реплицираат, па дури и да ги засилат тие предрасуди. Ова е суштината на проблемот со родовата пристрасност во вештачката интелигенција: овие системи учат од постоечките општествени норми и, ако тие норми се нееднакви, вештачката интелигенција ќе ги усвои и зајакне тие нееднаквости.

Родовата пристрасност во вештачката интелигенција може да се појави и во неколку различни фази од процесот на развој на вештачката интелигенција. Една клучна фаза е собирањето податоци. Ако податоците што се користат за обука на систем за вештачка интелигенција се искривени кон еден или друг пол, добиениот модел ќе ги наследи тие предрасуди. Претходната обработка на податоците и изборот на карактеристики – донесените одлуки за тоа кои променливи се вклучени во моделот – исто така може да воведат пристрасност. На пример, во обработката на природниот јазик (NLP), модел на вештачка интелигенција обучен на пристрасни текстуални податоци може да научи да поврзува одредени зборови или фрази со родови улоги. Ова може да резултира со пристрасни резултати во апликациите како што се машински превод или автоматизирани ботови за услуги на клиентите. Без интервенција, овие системи ќе продолжат да ги зајакнуваат штетните стереотипи. 

Последици  

Последиците од родовата пристрасност во вештачката интелигенција може да имаат длабоки ефекти во различни сектори, вклучувајќи вработување, здравство, спроведување на законот, па дури и социјалните интеракции. Областите во кои последиците се најкритични се: 

  • Влијание врз вработувањето и можностите за вработување: Едно од најнепосредните влијанија на пристрасните системи за вештачка интелигенција е во практиките за вработување. Алатките за регрутирање водени од вештачка интелигенција кои ги фаворизираат машките апликанти пред женските може да ја овековечат родовата нерамнотежа во индустриите како технологијата, каде што жените се веќе недоволно застапени. На пример, модел на вештачка интелигенција кој е обучен за податоци што ги одразуваат минатите практики за вработување може да научи да ги фаворизира машките кандидати за технички позиции на високо ниво, а притоа да ги занемари квалификуваните женски кандидати. Ова може да резултира со похомогена и помалку разновидна работна сила, ограничување на можностите за жените и зајакнување на стереотипот дека мажите се посоодветни за одредени улоги.
  • Дискриминација во здравството: Родовата пристрасност во вештачката интелигенција е исто така значајно прашање во здравството, каде што алатките за вештачка интелигенција се користат за дијагностицирање и лекување на медицински состојби. Многу алгоритми за здравствена заштита се обучени претежно за машки податоци, што значи дека тие често се помалку ефикасни во дијагностицирањето на состојбите кај жените. На пример, срцевите заболувања се водечка причина за смрт кај жените, но сепак, алатките за вештачка интелигенција дизајнирани да ја дијагностицираат се покажаа како помалку точни кај женските пациенти, што доведува до погрешни дијагнози и доцнење на третмани. Овој вид на пристрасност не само што го поткопува квалитетот на здравствената заштита, туку и ги влошува родовите разлики кои веќе постојат во медицинската област. 
  • Дискриминација во спроведувањето на законот: Во областа на спроведувањето на законот, пристрасната технологија за препознавање на лица може да доведе до погрешни апсења, особено за жените. Системите за препознавање лица се повеќе ги користи полицијата за да ги идентификува осомничените, но студиите покажаа дека овие системи често погрешно ги идентификуваат жените, особено оние со потемни тонови на кожа. Ова може да резултира со непропорционален надзор и таргетирање на маргинализираните групи, што придонесува за системска дискриминација во системот на кривичната правда. 
  • Зајакнување на социјалните стереотипи: Системите за вештачка интелигенција, исто така, можат да ги зајакнат социјалните стереотипи на посуптилни начини. На пример, многу гласовни асистенти, како Сири или Алекса, се дизајнирани да стандардно ги исполнуваат женските гласови, зајакнувајќи го стереотипот дека жените се прилагодени за улоги ориентирани кон услуги, потчинети. Слично на тоа, системите за вештачка интелигенција кои го анализираат и генерираат говор може да ги овековечат штетните родови норми, како што е поврзувањето на жените со грижата и мажите со лидерството. Овие суптилни предрасуди можат да го обликуваат начинот на кој комуницираме со системите за вештачка интелигенција и како гледаме на родовите улоги во општеството. 

Ублажување

Ублажувањето на родовата пристрасност во вештачката интелигенција е предизвик, но сепак неопходна задача за да се осигураме дека овие технологии имаат праведна и еднаква корист за сите поединци. Иако целосното елиминирање на пристрасноста можеби не е реално, постојат неколку стратегии кои можат да помогнат да се намали нејзиното влијание. На пример: 

  • Разновидни и репрезентативни податоци за обука: Еден од најефикасните начини за борба против родовата пристрасност во вештачката интелигенција е да се осигура дека податоците што се користат за обука на системи за вештачка интелигенција се разновидни и репрезентативни на различни родови идентитети, расно потекло и животни искуства. Со вклучување на поширок опсег на гласови и перспективи, можеме да спречиме моделите со вештачка интелигенција да реплицираат штетни предрасуди. На пример, системите за здравствена вештачка интелигенција треба да бидат обучени за податоци што претставуваат широк спектар на полови, возрасти и етнички припадности за да се осигура дека дијагнозите се точни за сите пациенти. 
  • Тимови за инклузивен развој: Технолошката индустрија сè уште е претежно машка, што значи дека системите за вештачка интелигенција често се развиваат без да се земат предвид потребите и перспективите на жените и другите маргинализирани групи. Со зголемување на различноста во тимовите за развој на вештачка интелигенција, можеме да обезбедиме дека системите за вештачка интелигенција се дизајнирани да ги задоволат потребите на пошироката популација. Различните тимови имаат поголема веројатност да ги идентификуваат потенцијалните предрасуди и да најдат иновативни решенија за нивно ублажување. 
  • Регулаторен надзор и етички насоки: Во моментов има недостаток на сеопфатна регулатива околу развојот на вештачката интелигенција. За да се реши ова, владите и организациите треба да воспостават силни етички насоки и регулаторни рамки кои обезбедуваат системи за вештачка интелигенција да се развиваат и да се распоредуваат одговорно. Ова вклучува поставување стандарди за собирање податоци, алгоритамска транспарентност и правичност во донесувањето одлуки за вештачка интелигенција. Со спроведувањето на овие мерки, можеме да помогнеме да се осигураме дека вештачката интелигенција се користи на начини кои се правични и одговорни. 
  • Алгоритамска транспарентност: Зголемувањето на транспарентноста на системите за вештачка интелигенција, исто така, може да помогне во ублажувањето на пристрасноста. Ако алгоритмите за вештачка интелигенција се поразбирливи и нивните процеси на донесување одлуки се потранспарентни, полесно може да се идентификуваат и да се решат предрасудите. Спроведувањето на објаснување во системите за вештачка интелигенција овозможува поголема контрола, што им олеснува на програмерите, регулаторите и јавноста да ги сметаат овие системи одговорни за нивните резултати. 

Заклучок 

Присуството на родова пристрасност во вештачката интелигенција е сериозен проблем што влијае на повеќе сектори, од вработување до здравствена заштита до спроведување на законот. Ако не се решат, системите за вештачка интелигенција можат да ја овековечат и засилат родовата дискриминација, продлабочувајќи го постоењето нееднаквости. Сепак, со промовирање на различноста во податоците за обуката за вештачка интелигенција, поттикнување на инклузивни развојни тимови и воспоставување јасни регулаторни рамки, можеме да ги ублажиме ефектите од родовата пристрасност и да создадеме системи за вештачка интелигенција кои им служат на сите правично. Императивно е да му пристапиме на развојот на вештачката интелигенција со свесност за неговиот потенцијал да ги зајакне општествените предрасуди и да преземеме проактивни чекори за да се осигураме дека вештачката интелигенција придонесува за порамноправна и правична иднина за сите поединци, без оглед на полот.

Библиографија

“Amazon scrapped ‘sexist AI’ tool” BBC, Октомври 2018. Достапно:

https://www.bbc.com/news/technology-45809919

“Biased Technology: The Automated Discrimination of Facial Recognition” ACLU, Февруари 2024. Достапно:

https://www.aclu-mn.org/en/news/biased-technology-automated-discrimination-facial-recognition

“Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification” MIT Media Lab, 2018. Достапно:

https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf

“Artificial Intelligence and gender equality” UN Women, Јуни 2024. Достапно:

https://www.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender-equality

“How AI reinforces gender bias—and what we can do about it” UN Women, Февруари 2025. Достапно:

https://www.unwomen.org/en/news-stories/interview/2025/02/how-ai-reinforces-gender-bias-and-what-we-can-do-about-it

“When Good Algorithms Go Sexist: Why and How to Advance AI Gender Equity” Stanford Social Innovation Review, Март 2023. Достапно:

https://ssir.org/articles/entry/when_good_algorithms_go_sexist_why_and_how_to_advance_ai_gender_equity

“Addressing Gender Bias to Achieve Ethical AI” The Global Observatory, Март 2023. Достапно: