AI како огледало на општеството:  Рефлексија на родовите норми 

Published by

on

Ана Доказа 

Вовед 

Како студентка на Факултетот за информатички науки и компјутерско инженерство во Скопje и член на Global Engineer Girls North Macedonia, инициjатива коjа ги поддржува студентките во STEM областа кои се одлучиле за инженерството како своjата професиja, имам можност да ги препознавам и анализирам предизвиците со кои се соочуваат жените во технологиjата. Една од посебно значаjните теми во оваа област е родовата нееднаквост во вештачката интелигенциja и машинското учење. Се соочувам со реални предизвици во областа на машинското учење. 

 Оваа студија го истражува влијанието на пристрасноста во алгоритмите за вештачка интелигенциja и машинско учеjе врз рамнотежата меѓy половите родови. Специфично се фокусираме на начините како да се препознаe и намалe влијаниетo на оваа пристрасност. Дали машинското учeњe допринесува за разбивaњe на половите бариери или пак ги засилувaат и поткрепувaат стереотипите? 

Во денешницата, нашето секојдневие се одвива во тек на брз напредок на технологиите и вештачката интелигенција. Ова креира нови можности и автоматизациja на многу задачи кои порано барале значително повеќе време и ресурси. Сега со само неколку клика можеме да пристапиме до голем броj информации или да анализирaмe комплексни податoци. Исто така можемe да автоматизирaмe процеси кои пред само две години имале потреба од човечка интервенциja и труд. Оваa дигитална револуциja не само што го олесни нашето секојдневие туку изразува нови предизвици особено водени од пристрасноста и етиката во алгоритмите што функционирaат врз вештачката интелегенциjа.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 3

Како моделите за машинско учење се учат и тренираат?  

Машинското учење е начин на кој компјутерите учат од податоци, слично на тоа како луѓето учат од искуство. Наместо да се програмираат со строги правила, моделите сами наоѓаат шаблони во податоците и со текот на времето стануваат подобри во одредена задача.  

Како се одвива процесот?  

Замислете дека сакате да научите дете да препознае кучиња. Ќе му покажувате слики од кучиња и ќе му кажувате „ова е куче“. Со доволно примери, детето ќе научи да ги препознава и во нови слики. Слично на ова, моделите учат со тоа што гледаат голем број примери и „запомнуваат“ како изгледаат одредени обрасци.  

Ова учење се прави преку тренинг со податоци, каде моделот добива многу примери и постепено станува подобар во задачата за која е трениран.  

Како се тренираат моделите?  

Тренингот на еден модел поминува низ неколку чекори:  

1. Прибирање податоци – Прво, потребни се многу податоци. Ако сакаме да направиме ML модел што препознава кучиња, ќе собереме илјадници слики од кучиња.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 4

2. Подготовка на податоците – Податоците мора да бидат средени и организирани.  На пример, можеби ќе ги намалиме сликите на иста големина или ќе ги поделиме во категории („куче“ и „не е куче“).  

3. Тренирање на моделот – Ова е делот каде моделот „учи“. Ги гледа податоците,  прави претпоставки и споредува дали е во право. Ако направи грешка, се прилагодува и пробува повторно. Ова се прави многу пати додека моделот не стане доволно добар.  

4. Тестирање на моделот – Кога моделот ќе заврши со учење, мора да се тестира на нови податоци за да видиме колку добро работи. Ако погреши многу, треба повторно да се тренира или да се подобрат податоците.  

5. Подобрување на моделот – Ако моделот не работи добро, може да се додадат повеќе податоци, да се промени начинот на учење или да се користат посложени методи за подобри резултати.  

Врската помеѓу технологијата и родовата пристрастност 

Иако машинското учење им овозможува на компјутерите да учат од податоци и да се надоградуваат во одредени задачи, понекогаш може да настанат проблеми како што е родовата пристрастност. Ова се случува затоа што моделите учат од податоци внесени од луѓе и тие податоци може да содржаат историски предубедености.  

Пример е кога користиме модел што ги идентификува професиите со податоци од историите. Може да научи дека инженерите обично се мажи и медицинските сестри се жени –  бидеjки така било претставено во податоците и како што веќе напоменавме горе, машинското учење е всушност учење од претходно внесени податоци . Кога ваков модел се користи за автоматско прифаќање/одбивање на кандидати за работно место, може неправедно да ги 

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 5

предпочитува мажите за позиции во технологии и да ја отфрла апликациjата на жените, иако се еднакво квалификувани.  

Системите за препознавае лица се соочуваат со предизвици при препознавае на жени и луѓе со потемна кожа поради недостаток на разновидност во тренирачките слики што главно вклучуваат бели луѓе. Последиците од ова можат да бидат некомплетна идентификациjа или недостиг на точност во системите за безбедност што можат да предизвика неточни т.е. нефер резултати.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 6

Почетоци на родовите пристрасности во вештачката интелигенција 

Разликите во половите во алгоритмите на вештачката интелигенција се многу посериозни од она што може да се помисли на прв поглед. Овие пристрасности произлегуваат од структурните предрасуди што се вградени во податоците кои ги користат моделите за учење. Алгоритмите се обучени со податоци што ги одразуваат постоечките друштвени хиерархии, кои не само што ги повторуваат овие различности, туку ги автоматизираат преку употребата на вештачка интелегенција. Ова е особено проблемотично во неколку критични области:  

Системите за автоматизирано вработување: Моделите тренирани на податоци од компании каде што мажите претежно на залежни позиции често пренебрегнуваат потенциалот на жените. Ова продолжува со нивната маргинализациа што резултира со уште поголема неравновесност во процесите на вработувае.  

Гласовните асистенти: Кога станува збор за креираше виртуелни асистенти како што е „Алекса“, често се користат женски гласови за функции што се сметаат за помалку значаечки или површински важни. Наспротив на ова, машките гласови се применуваат за задачи што имаат авторитет (на пример финансиски советници). Овоштениот разделбата потекнува од културно вградени стереотипи и пристапите во дизаjна на ВИ технологии.  

3. Истражувања докажуваат дека системите за препознавање на лица покажуваат значително помала точност при препознавање на жени,, особено жени со потемна кожа , до 34% помалку. Ова се случува поради недостатокот на различни податоци кои ги користат овие алгоритми за обучување.  

Овие примери истакнуваат во нив параксалната природа на вештачката интелигенциа: макар да се промовира како “објективна”, нејзината реалност е длабоко вкоренета во историските и културни размислувања на општествата.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 7

Последици од случаи со родова нееднаквост 

Родовата пристрасност во вештачката интелигенција и машинското учење не претставува само технички проблем, туку има сериозни и далекусежни последици кои влијаат на секојдневниот живот на луѓето. Овие последици не се само теоретски, туку реални и се чувствуваат во различни области на општеството. Технологиите кои користат вештачка интелегенција, кои се создадени да бидат „објективни“ и „неутрални“, всушност често ги повторуваат и засилуваат постоечките нееднаквости и пристрасности кои постојат во општеството. Во продолжение, ќе разгледаме некои од најважните и најшироко распространети последици од родовата пристрасност во вештачка интелегенција.  

1. Неправедни шанси за вработување 

Алгоритмите за автоматизирано вработување, кои се се почесто користени од компании и организации за да го поедностават процесот на селекција на кандидати, често се тренирани на податоци кои рефлектираат историски структурни нееднаквости во работната сила. Историски,  мажите доминираат во многу професионални сфери, особено на високи менаџерски позиции,  што значи дека алгоритмите може да ги оценуваат кандидатите преку призма која фаворизира машките квалитети и квалификации. Како резултат на ова, жените можат да бидат неправедно дискриминирани, бидејќи нивните квалификации и способности можат да бидат погрешно проценети поради недостатокот на адекватни примери во податоците односно да бидат проценети низ призма на податоци од периоди кога жените не биле високо квалификувани и образовани.  

На пример, ако алгоритамот е обучен врз податоци кои претходно придавале поголемо значење на одредени квалификации кои повеќе се асоцираат со мажи, кандидатките, без разлика колку се квалификувани, може да бидат непрепознаени или оцени со пониска вредност.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 8

Ова не само што ги ограничава шансите на жените за вработување, туку ја продлабочува и родовата нееднаквост во професионалните сфери. Овој феномен е особено загрижувачки ако се има предвид дека автоматизирани системи стануваат се повеќе стандарден дел од процесите за вработување во многу индустрии, како што се технологијата, финансиските услуги, и здравството.  

2. Здравствени ризици 

Во медицината, вештачката интелегенција и машинското учење се користат за развој на системи за медицинска дијагностика, предикција и препорака. Сепак, овие модели често се тренираат на податоци кои се неправедно застапени во однос на родот. Голем број медицински истражувања, особено оние кои се фокусираат на кардиоваскуларни заболувања, рак, и други хронични болести, биле спроведени со доминантна застапеност на мажи, што резултира со недостаток на податоци за жените. Ова може да има сериозни последици за здравјето на жените, бидејќи медицинските модели кои се развиваат врз основа на вакви податоци може да не ги препознаат специфичните симптоми или ризици кои се карактеристични за жените.  

На пример, многу системи за дијагностика на срцеви заболувања, кои користат алгоритми за анализа на медицински слики, покажуваат пониска точност кога се применуваат на жените.  Жените и мажите не секогаш имаат истите симптоми или болести кои се јавуваат на исти начини. Ако системите се обучени само со податоци од мажи, тогаш може да се случи жените да не бидат правилно дијагностицирани или, уште полошо, нивните симптоми да бидат игнорирани или погрешно толкувани, што може да доведе до погрешни медицински одлуки и зголемени здравствени ризици.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 9

3. Засилување на стереотипи 

Една од најзначајните последици од родовата пристрасност во вештачка интелегенција е влијанието на социјалните медиуми и рекламните платформи. Алгоритмите кои се користат за персонализирање на содржините и рекламирањето често ги засилуваат традиционалните родови стереотипи. Алгоритмите кои анализираат податоци од корисниците и ги предвидуваат нивните интереси или куповни навики,  

можат да создадат „екосистем“ кој ги засилува постоечките стереотипи за тоа што е „соодветно“ за жени и што за мажи.  

На пример, жените може да бидат цел на реклами за производи поврзани со убавина и модни трендови, додека мажите може да бидат насочени кон реклами за технологија или автомобили. Ова не само што ги ограничава изборите на корисниците, туку и ги зајакнува традиционалните родови улоги во општеството. Поголемата изложеност на вакви стереотипи преку алгоритамски препораки може да влијае на начинот на кој луѓето се гледаат себеси и на општествените очекувања за тоа како треба да се однесуваат во рамките на своите родови улоги.  

Во исто време, социјалните медиуми можат да ги продлабочат овие стереотипи преку создавање на контент кој ги верификува предрасудите – на пример, „допаѓањата“ и коментарите на одредени видови содржина можат да укажуваат на тоа кои ставови и појави се „прифатливи“ и „добрите“ за една специфична родова група. Ова дополнително ја зајакнува социјалната норма која ја поставува технологијата.  

Научи машината да биде фер: Техники за неутрални алгоритми 

Дизајнот и развоjот на вештачката интелигенциjа (AI) поставува предизвици во врска со многуброjните етички прашаиja, особено кога зборува за пол и дискриминациja. За да се обезбеди дека AI системите се фер, транспарентни и одговорни, е важно да се почитуваат одредени етички принци при нивниот развој и користењe.  

Транспарентност: За да може да се идентификува и исправи пристрасноста,  алгоритмите треба да бидат јасни и образложени. Ова значи дека AI моделите не треба да функционираат како “заклучени кутии” каде не може да се анализира начинот на одлучува…  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 10

Пристап и објективност: AI треба да ги третира сите корисници на ист начин,  независно од полот и расата или другите карактеристики што ги имаат. Ова бара прецизен избор и обработка на информациите, од оваа причина историjата на дискриминациjата во неколку области може да се одрази врз алгоритмите ако не се земат потребните мерки за поправка.  

Одговорност: Групи за развоj, истражувачи и компании што работат на AI системи треба да ги носат одговорности за последиците на нивните алгоритми. Ова вклучува креирaне на механизми за проследуваnje на пристрасноста и обезбедуvaanje на средства за корекции во случаj кога се пронаsетe неадекватни резултати.  

Како може да се интегрираат студиите врз родот во развоjот на технологијата?  

За да се намали било каква пристрасност и да се осигура поголема рамнодушност кон половите, интеграција на студиите за полот во сите фази на развоjот на AI е неопходен. Ова може да се постигне со следниvте пристапи:  

1. Вклучување на стручни лица од областа на родовите студии во тимовите за вештачка интелигенциjа: Напредокот на технологиjата не треба да биде исклучиво во раката на инженери и програмери. Вклучувањето на експерти од областа на родовите студии, социоло и етичари може да помогне во откривање и адресирaње на пристрасноста во рани фази.  

2. Проценка на алгоритмите од перспектива на род: Пред да бидат применети во пракса,  AI моделите треба да бидат истражени за да се увериме дека нивните одлуки се фер кон различните родови на луѓе. За пример, системите за автоматско одобрување кредити или процесирање на вработување мора да се проверат за било каков случај на фаворизирање на одредена група врз штета на другата.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 11

3. Создавање на етички правила за AI: Владите и меѓународните организации треба да воведат политика што ќе ги задолжи компаниите да користат родно-сензитивни практики при развоjот на AI технологии. Ова вклучува правила за транспарентност, редовни проверки на алгоритмите и санкции за дискриминаторни резултати.  

4. Влијанието на AI во маркетингот и медиумите: Алгоритмите за таргетираше на реклами и персонализациja на содржината често ги таргетираат жените поставувајќи ги како целна група за реклами во областа на модата и козметиката додека мажите добиваат понуди за технологии и финансии Ова не само што им ја ограничува изборот туку и ги засилува стереотипите во општеството.  

Заклучок 

Во оваа работа семинарска ја проучивме врската помеѓу вештачката интелигенција и конекцијата со родови студии. Се разгледаа етичките предизвици и можните последици произлезени од неправедни алгоритми. Иако AI има потенциjал да ги напредува општеството со автоматизацијата и зголемувањето на ефикасноста, важно е да се забележи дека ако не е правилно дизајнирана може да ги отежни постоечките процеси кои навидум изгледаат едноставно.  

Преку анализирање како моделите за машинско учење се тренираат видовме дека податоците на кои се базираат алгоритмите имаат голем влијание врз нивното функционирање.  Историските предрасуди вградени во податоците можат да резултираат со системи што можат да дискриминирaа одредена група луѓе на на различни професии и општествени контексти.  

Како што ќе ги вметнеме студиите за родовите во процесот на развоj на Интернетот‚ можеме да г и намалиме овие случаи‚ што вклучува подобри податоци‚ исклучителни методи за тестирање на алгоритми и активно активирање експерти од различни области.  

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 12

Покраj тоа, моралните принципи како транспарентноста, правдата и одговорноста треба да бидат основа за сите AI системи. Компаниите, истражувачите и владините регулаторни организации треба да се вклучат за да ја постават стандардизацијата што ќе гарантира фер и неутрални алгоритми.  

Библиографија 

1. https://www.unesco.org/en/articles/generative-ai-unesco-study-reveals-alarming evidence-regressive-gender-stereotypes 

2. https://theglobalobservatory.org/2023/03/gender-bias-ethical-artificial-intelligence/ 3. https://www.nature.com/articles/s41599-024-03660-8 

4. https://abacus.universidadeuropea.com/bitstream/handle/11268/12318/ Garc%C3%ADa_Ull_Prof_Info_2023.pdf?sequence=5 

5. 

ВЕШТАЧКА ИНТЕЛЕГЕНЦИЈА И РОДОВИ СТУДИИ 13