Петар Атанасовски
Вовед
Вештачката интелигенција (AI) и машинското учење претставуваат едни од најзначајните напредоци во технологијата во последните години. Овие технологии се користат во различни области, како што се здравство, финансиите, образованието, па дури и во автоматизираните системи за препознавање лица. Меѓутоа, со развојот на AI, се појавуваат нови прашања, особено во поглед на етичноста и праведноста на овие системи. Родова пристрасност во AI е еден од најголемите предизвици, бидејќи алгоритмите често ги репродуцираат постоечките родови стереотипи и нееднаквости, кои се внесени преку податоците на кои се обучени. Ова може да доведе до дискриминација во процесите на донесување одлуки, како што се автоматизирани системи за запошлување или здравствени дијагностики.
AI системите, како и машинското учење, се базираат на големи сетови податоци, а ако овие податоци содржат пристрасности, тогаш и самите системи можат да станат пристрасни. Ова се случува бидејќи алгоритмите учат од историски податоци кои веќе можат да бидат подложни на родови стереотипи. На пример, во некои системи за препознавање лица, жените и луѓето со темна кожа често се препознаваат со помала точност отколку мажите со светла кожа [1]. Оваа видлива пристрасност има сериозни последици, особено за жените и за маргинализираните групи, кои можат да бидат неправедно исклучени од разни можности и процеси.
Важно е да се постави прашањето дали родовата пристрасност во AI е мит или реалност. Дали AI може да биде објективен и праведен, или неизбежно ќе ги репродуцира општествените нееднаквости? Истражувањето на оваа тема е клучно за создавање на AI системи кои се инклузивни и праведни, и кои не ја зајакнуваат родовата нееднаквост. Во оваа работа ќе се разгледаат различни аспекти на родовата пристрасност во AI и ќе се дискутира за можностите за намалување на оваа пристрасност во иднина.
3
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
Преглед на родова пристрасност во вештачката интелигенција
Родова пристрасност во вештачката интелигенција (AI) е термин кој се користи за да се опишат состојбите кога AI системите покажуваат предрасуди кои резултираат во различно третирање на луѓето во зависност од нивниот пол. Оваа пристрасност често произлегува од податоците на кои се базираат моделите на машинско учење, кои одразуваат историски друштвени и културни предрасуди. Со развојот на AI, се поставуваат прашања во однос на тоа како овие системи можат да ги рефлектираат или засилат постоечките родови стереотипи и нееднаквости, што ја прави оваа тема особено важна за современиот технички развој.
AI системите функционираат така што учат од големи сетови податоци кои ги репродуцираат карактеристиките од минатото. Ако овие податоци се пристрасни, тогаш и самите алгоритми можат да генерираат пристрасни резултати. На пример, во случај на автоматизирани системи за вработување, ако моделите се обучени на податоци кои одразуваат историски трендови на доминација на мажите во одредени индустрии, тие можат да ги фаворизираат мажите при изборот на кандидати, иако тоа не би требало да биде случај.
4
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
Една од причините за оваа пристрасност лежи во недостатокот на разновидност и инклузивност во процесот на развој на AI системите. Кога тимовите кои ги создаваат овие системи не се доволно разновидни или не вклучуваат експерти од различни сфери, моделите можат да ја одразуваат пристрасноста на развивачите, а со тоа да ја пренесат на самите системи [2]. Ова е особено важно кога се работи за системи кои имаат директен ефект на животи на луѓето, како што се здравствените дијагностички алатки или системите за креирање на кредибилитет и доверба.
Во последните години, истражувањата на оваа тема покажуваат дека недостатокот на соодветни мерки за откривање и корекција на пристрасноста може да доведе до сериозни друштвени последици. AI системите можат да ја зајакнат родовата нееднаквост доколку не се обезбеди активно следење и модификација на нивната етичност и праведност.
Разбирањето на корените на родовата пристрасност во AI е клучно за создавање на поинклузивни и праведни технологии. Развојот на етички стандарди и практики за интеграција на родовата еднаквост во процесите на обука на AI е важен чекор кон намалување на овие пристрасности. Доколку не се преземат неопходните мерки, пристрасностите можат да бидат засилени, а користењето на AI може да има долгорочни
негативни ефекти врз оштетените групи во општеството.
5
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
Примери на родова пристрасност во ВИ системи и нивниот ефект
Родова пристрасност во вештачката интелигенција (AI) може да се манифестира на различни начини, а нејзините ефекти може да бидат многу сериозни, особено во области како што се вработувањето, здравството, образованието и правосудството. Низ годините, истражувањата и случаите покажале како AI системите, кои се базирани на податоци кои одразуваат историски родови предрасуди, можат да водат до дискриминација и да ги продлабочат постоечките социјални нееднаквости. Постојат бројни примери кои ја покажуваат оваа пристрасност и нејзините ефекти.
Еден од најпознатите примери на родова пристрасност во AI системите се алгоритмите за препознавање лица кои ги спомнавме. Истражувањето на Buolamwini и Gebru [1] открило дека комерцијалните системи за препознавање лица, како што се IBM, Microsoft и Face++ покажале значителни разлики во точноста при препознавањето на лица според полот и расата. Жените, особено оние со темна кожа, биле препознаени со многу помала точност отколку мажите со светла кожа. Оваа пристрасност е резултат на недостатокот на разновидност во податоците на кои овие алгоритми се обучуваат. Како резултат на ова, жртвите на неправилно препознавање на лица може да се соочат со сериозни последици, како што се неточно запишување на податоци во безбедносни системи или погрешни обвиненија во правосудниот систем.
Друг пример на родова пристрасност е во автоматизираните системи за селекција на кандидати за работа. Во 2018 година, Amazon се соочи со проблем кога откри дека нивниот AI систем за селекција на кандидати имал пристрасност против жените. Системот бил обучен на податоци кои одразувале историски трендови во индустриите кои традиционално се доминирани од мажи, како што се технолошки и инженерски професии. Како резултат, системот го фаворизирал изборот на мажи и ги исклучувал жените од процесот на избор. Amazon ја откажа употребата на овој систем по откритието на оваа пристрасност, но овој
6
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
пример покажува како AI може да ја засили родовата нееднаквост во процесите на вработување [2].
Во здравствениот сектор, пристрасноста во AI се јавува кога алгоритмите се користат за дијагностицирање и третирање на пациенти. Студијата на Obermeyer et al. [3] покажала дека алгоритми кои се користат за процена на потребите за здравствена грижа во САД биле пристрасни против Афроамериканците и жените. Овој алгоритам користел податоци за трошоците за здравствена нега, а бидејќи жените и Афроамериканците често се соочуваат со попреченост во пристапот до здравствена грижа, системот ги дискриминирал овие групи, наместо да ги препознава како пациенти кои имаат потреба од поголема медицинска поддршка. Оваа пристрасност може да доведе до неправедно третирање и погрешни дијагнози, што сериозно ги загрозува животите на овие пациенти.
Родова пристрасност може да се манифестира и во едукативните технологии, како
што се алатки за автоматско оценување на ученици или студенти. Истражувањата покажале дека овие системи понекогаш користат алгоритми кои не ја земаат во предвид разновидноста на учениците и нивните различни стилови на учење, што може да резултира во потценување на некои маргинализирани групи. Овие пристрасности може да доведат до неправедни резултати во оценувањето и спречување на учениците да имаат еднакви шанси за успех.
7
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
Овие примери покажуваат како родовата пристрасност во AI може да има сериозни последици, како што се дискриминација на работното место, неправилни здравствени дијагнози и неправедни резултати во образованието. Проблемите со пристрасноста не се само теоретски, туку тие имаат конкретни и опасни ефекти на животите на луѓето. Затоа е важно да се работи на развојот на фер и инклузивни AI системи кои ќе ги минимизираат овие пристрасности и ќе обезбедат еднакви можности за сите.
Извори на родова пристрасност во ВИ и начините на кои влијаат на алгоритмите
Родова пристрасност во вештачката интелигенција може да има различни извори кои влијаат на алгоритмите, а еден од главните фактори е самиот процес на собирање и подготовка на податоците. Многу AI системи се обучуваат на историски податоци, кои често вклучуваат предрасуди и нееднаквости од минатото. На пример, ако податоците што се користат за обука на моделите ги одразуваат тенденциите дека мажите доминираат во одредени професии, како што се инженерството или технологијата, алгоритмските модели ќе ги фаворизираат мажите и ќе ги исклучуваат жените. Ова се случува бидејќи моделите „учат“ од податоците, кои може да се засновани на историски нееднакви статуси [4].
Друг извор на родова пристрасност се самите развивачи на AI системите. Понекогаш, алгоритмите се создаваат од мал број на луѓе со слични демографски профили, што може да доведе до непосакувани ефекти. Кога тимовите кои развиваат AI модели не вклучуваат жени, расни малцинства или експерти од различни културни средини, системите може да не бидат во согласност со потребите на широката јавност. Истражувањето на Angwin et al. [5]
покажа дека недостатокот на разновидност во програмерските тимови може да доведе до пристрасни резултати, бидејќи развивачите можат да ги игнорираат специфичните потреби и карактеристики на разни групи.
Покрај податоците и развојните тимови, друг значаен извор на пристрасност е самата структура на алгоритмите. Некои алгоритми можат да создадат резултати кои ја репродуцираат пристрасноста што е вградена во нивната конструкција. На пример, во
8
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
моделите за машинско учење, алгоритмите за класификација можат да се насочат на одредени карактеристики кои се поврзани со родови стереотипи, како што се изборот на одредени атрибути или параметри во процесот на обука. Овие алатки понекогаш не се доволно чувствителни на социјалните контексти кои можат да водат до дискриминација. Како резултат на тоа, алгоритмите можат да создадат погрешни и пристрасни пресуди кои не се во склад со праведноста и еднаквоста.
Идни насоки за развој на родово неутрални ВИ системи
Со растечката зависност од вештачката интелигенција (AI) во секојдневниот живот, од суштинска важност е да се обезбедат насоки за развој на AI системи кои ќе бидат родово неутрални и фер. За да се постигне ова, треба да се имплементираат стратегии кои ќе го минимизираат ризикот од пристрасност и дискриминација врз основа на пол. Развојот на такви системи вклучува не само технички пристапи, туку и етички и општествени иницијативи кои треба да бидат интегрирани во процесот на развој.
Првиот и најважен чекор во оваа насока е да се обезбеди разновидност во податоците на кои се базираат моделите на машинско учење. Секој AI систем е само толку добар колку и податоците што ги користи за обука. Податоците треба да бидат внимателно избрани и прилагодени така што ќе ги опфатат сите полови, култури и демографски групи. За да се избегне родова пристрасност, треба да се осигураме дека податоците не ги одразуваат само историските трендови и стереотипи, туку и рамноправност и инклузивност.
Друг важен аспект е воведување на стратегии за транспарентност и одговорност во развојот на AI системите. Компаниите кои создаваат AI технологии треба да бидат јасни во однос на тоа како функционираат нивните алгоритми, кои податоци се користат за обука и како се валидираат резултатите. Оваа транспарентност ќе дозволи независни експерти и организации да извршат надзор и да препознаат потенцијални пристрасности во системите пред тие широко да се користат. Важен дел од овие стратегии треба да биде вклучувањето
9
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
на етички тимови кои ќе се занимаваат со праведноста на системите и нивните влијанија врз различните групи.
Конечно, неопходно е да се формираат и примат меѓународни етички стандарди за развој на AI, кои ќе ги регулираат процедурите за минимизирање на родовата пристрасност. Развојот на AI мора да се базира на принципите на праведност, еднаквост и инклузивност, така што технологијата ќе работи во интерес на сите луѓе, без разлика на нивниот пол. Поради тоа, важен дел од идниот развој е и соработката меѓу владите, технолошките компании и академските институции за да се создадат политики кои ќе ги водат овие процеси и ќе го спречат потенцијалното негативно влијание на AI врз жените и другите маргинализирани групи.
Заклучок
Родовата пристрасност во вештачката интелигенција претставува сериозен предизвик кој може да има големи последици на социјалната правда и еднаквоста. Како што AI технологиите стануваат се поинтегрирани во секојдневниот живот, важно е да се разбереме дека тие не функционираат во вакуум. Алгоритмите кои се базирани на историски податоци, а кои ги одразуваат постоечките родови предрасуди, можат да ги засилат нееднаквостите и да предизвикаат нови форми на дискриминација. Примери од различни области, како што се препознавање лица, системи за селекција на кандидати, здравство и
10
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
образование, покажуваат како родовата пристрасност може да се манифестира во конкретни резултати, што сериозно го нарушува кредибилитетот и праведноста на овие технологии.
Меѓутоа, постојат и јасни насоки за идниот развој на AI системите кои ќе бидат пофер и поинклузивни. Потребно е да се работи на подобрување на квалитетот и разновидноста на податоците, да се осигура транспарентноста во развојот на алгоритмите и да се формираат меѓународни етички стандарди.
Инклузивноста во тимовите за развој, како и едукацијата на професионалците во оваа област, исто така се клучни фактори за минимизирање на пристрасностите. Само преку овие напори можеме да изградиме AI системи кои ќе бидат родово неутрални и кои ќе работат во интерес на сите, без да ја продлабочуваат нееднаквоста која веќе постои во општеството.
Иако предизвиците со родовата пристрасност во AI се значителни, тие се решливи. Клучот е во развојот на етички и технолошки рамки кои ќе овозможат изградба на фер, праведни и инклузивни системи кои ќе ја подобрат социјалната праведност и ќе го минимизираат ризикот од продолжување на старите родови нееднаквости.
11
РОДОВА ПРИСТРАСНОСТ ВО ВЕШТАЧКАТА ИНТЕЛИГЕНЦИЈА: МИТ ИЛИ РЕАЛНОСТ
Референци
[1] Buolamwini, J., & Gebru, T. (2018). „Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification“
[2] Dastin, J. (2018). „Amazon Scraps Secret AI Recruiting Tool After It Shows Bias Against Women. Reuters“
[3] Obermeyer, Z., Powers, B. W., Vogeli, C., & Mullainathan, S. (2019). „Dissecting racial bias in an algorithm used to manage the health of populations“
[4] O’Neil, C. (2016). „Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy“
[5] Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). „Machine Bias. ProPublica“
12