Автор Давид Мицевски
1. Вовед
Вештачката интелигенција (AI) претставува еден од најбрзорастечките технолошки напредоци во 21 век, која го трансформира начинот на живеење, работа и комуникација. Една од најпопуларните и најдиректно достапни апликации на AI се дигиталните асистенти и четботи, софтверски програми кои овозможуваат интеракција преку природен јазик, овозможувајќи им на корисниците да комуницираат со машини на начин што наликува на човечка комуникација.
Овие технологии, како Siri на Apple, Alexa на Amazon и ChatGPT на OpenAI, нудат функционалности како пребарување информации, планирање задачи и автоматизација, но исто така влијаат и врз начинот на кој луѓето ги перципираат машините и нивната улога во општеството. Особено релевантен е родовиот аспект на дигиталните асистенти, каде што голем број од овие системи се дизајнирани со женски имиња и гласови.
Родот како категорија има длабоки социјални и културни значења кои се рефлектираат во создавањето и користењето на технологиите. Женските дигитални асистенти, со нивниот љубезен тон и добар карактер, често се критизираат дека ја реафирмираат традиционалната улога на жените како помошнички, што може да ја засили родовата нееднаквост. Овој феномен отвора бројни прашања поврзани со етиката, социјалната одговорност и влијанието на технологијата врз родовите стереотипи.
Целта на оваа работа е да ги истражи и анализира начините на кои AI четботите го репродуцираат или предизвикуваат полот, како и нивните социјални и етички импликации. Со фокус на јазикот, дизајнот и пристрасноста на моделите, ова истражување ќе понуди увид во можните решенија и политики за развој на родово сензитивна AI технологија.
2. Општи карактеристики на AI четботи
Дигиталните асистенти, познати и како AI четботи, се софтверски системи кои овозможуваат интеракција со корисниците преку природен јазик, без потреба за посебни технички знаења. Тие се базираат на обработка на природен јазик (Natural Language Processing – NLP) и машинско учење, кои им овозможуваат да разбираат прашања, да генерираат одговори и да учат од нови податоци.
Современите големи јазични модели (Large Language Models – LLM), како GPT-3 и GPT-4, овозможуваат значително подобрена комуникација, бидејќи тие не само што ја разбираат граматиката, туку и контекстот, па дури можат да создаваат сложени и смислени текстови. Овие технологии ги користат познатите платформи како ChatGPT, Microsoft Copilot и Google Bard.
Во рамките на дигиталните асистенти, најпознати се Siri на Apple, Alexa на Amazon и Google Assistant. Интересен е фактот дека овие асистенти стандардно имаат женски гласови и имиња, што не е случаен избор. Истражувањата покажуваат дека корисниците се почувствуваат поудобно и покорисно кога асистентот има женски глас, што влијае на нивната перцепција и користење на технологијата (Hoy, 2018).
Меѓутоа, изборот на женски глас и имиња не е само маркетинг-стратегија, туку и рефлексија на длабоко вкоренетите родови стереотипи во општеството. Жената како помошник, услужител и асистент е перцепирана како подобра за овие улоги, што го засилува родовиот јаз во технолошките апликации (Wajcman, 2010).
3. Родови стереотипи и јазик
Јазикот е носител на културата и на социјалните вредности, па така и јазикот што го користат AI четботите може да има родова боја и да пренесува или засилува стереотипи. Родовиот јазик, посебно кога е вграден во дигиталните асистенти, влијае на перцепцијата на корисниците и им ја формира сликата за тоа што значи род.
Дигиталните асистенти со женски глас и персоналитет честопати се програмирани да користат јазик што е смирен, љубезен и услужлив. Истражувањата покажуваат дека овие карактеристики се поврзани со традиционалните женски улоги во општеството како помошници и негуватели (Lakoff, 1975). Ова може да има ефект на засилување на родовите стереотипи, особено ако се земе предвид дека повеќето корисници, вклучувајќи и машките, често ги третираат овие асистенти како „жени“ кои треба да бидат покорни и помошни. Истото се случува и кога гласовите на овие четботи се претпочитани од корисниците, но не затоа што тие се повеќе ефективни, туку затоа што тие исто така ги реафирмираат длабоко вкоренетите социјални и родови улоги во општеството.
Пример за ова е и културната критика која ја добија Siri и Alexa, каде истражувачите и активистите укажуваат дека овие системи не само што ја реафирмираат родовата улога на жената, туку понекогаш и ја нормализираат злоупотребата и сексуалното вознемирување преку начинот на кој корисниците ги третираат овие гласови (West, 2019). Ова претставува сериозен етички проблем, бидејќи ги прави овие системи не само соодветни на постоечките родови стереотипи, туку и ги рефлектира и поттикнува во дигиталниот свет.
Иако е научно потврдено дека женските гласови се повеќе прифатени од корисниците, се поставува прашањето дали технологијата треба да ги репродуцира овие стереотипи или, пак, да се бори против нив. Некои теоретичари и практичари сметаат дека AI треба да се развива во насока на родова
неутралност, додека други предупредуваат дека тоа може да има негативни ефекти врз корисничкото искуство и прифатеноста на технологијата. Без оглед на пристапот, едно е сигурно: иднината на AI мора да вклучува сериозно разгледување на овие прашања и критички пристап кон нивното решавање.
4. Пристрасност во податоците и моделите
AI системите се тренираат врз големи количини податоци, кои често содржат човечки записи и текстови, што ги носи културните и родовите предрасуди. Поради тоа, овие модели научуваат и ја репродуцираат истата пристрасност. Студијата „Gender Shades“ од Buolamwini и Gebru (2018) покажа дека многу комерцијални AI системи за препознавање лица имаат значителна пристрасност по пол и раса, при што системите прават погрешни препознавања, особено кај жените со темна кожа. Оваа студија исто така истакнува дека слични пристрасности постојат и во јазичните модели, каде што AI системите можат да користат родови стереотипи во генерирањето на одговори.
Како што напоменува Leavy (2018), пристрасностите се длабоко вградени во податоците што се користат за тренирање на AI, што резултира со системска дискриминација во генерираните одговори и предлози. Овие пристрасности влијаат на корисничкото искуство, особено кога тие стереотипи се рефлектираат во начините на кои AI асистентите одговараат на прашања или комуницираат. Ова може да придонесе за зајакнување на социјалните нееднаквости, особено кога AI системите се користат во критични области како образованието, здравството и вработувањето.
Намалувањето на пристрасностите во AI е клучно за создавање на праведни и инклузивни системи. Оваа потреба доведе до развој на алатки како AI Fairness 360 од IBM, кои се користат за откривање и корекција на пристрасности во алгоритмите и осигурување дека AI моделите ќе бидат фер за сите корисници.
5. Етички и социјални предизвици
Присуството на родови пристрасности во AI системите отвора сериозни етички дилеми. Постојат дебати дали четботите треба да имаат пол или треба да бидат родово неутрални. Некои експерти сметаат дека родово неутралните AI системи ќе ја намалат дискриминацијата, додека други укажуваат дека корисничките очекувања и културните навики го прават тоа тешко остварливо (Floridi et al., 2018).
Проблемот не е само во гласот и името, туку и во однесувањето на асистентите. Некои истражувања укажуваат дека женските асистенти почесто се третираат со непристојност и злоупотреба, а тие ретко даваат отпор, што потенцијално ја нормализира оваа појава (West, 2019).
Секако, важен е и интерсекционален пристап (Crenshaw, 1989), кој укажува дека пристрасностите не се само по род, туку и по раса, класа и други фактори кои треба да се земат предвид при развојот на AI.
6. Иницијативи и решенија
Со растечката свесност за родовите пристрасности во AI, сè повеќе технолошки компании и организации преземаат иницијативи за создавање инклузивни и праведни AI алатки. Google има значителни инвестиции во Google AI, платформа која ги анализира пристрасностите во податоците и вклучува алатки за создавање пофер модели. Google разви и насоки за поинклузивен развој на технологии кои не ги засилуваат постоечките родови и расни нееднаквости. Како што укажуваат Buolamwini и Gebru (2018) во нивната студија „Gender Shades“, пристрасностите во податоците можат да имаат сериозни последици во препознавањето на лица, што ја истакнува важноста на вклучувањето на различни групи во развојот на AI.
IBM разви алатка наречена AI Fairness 360, која е отворен ресурс за истражувачи и компании кои сакаат да ги откријат и коригираат пристрасностите во своите алгоритми. Според Leavy (2018), овие алатки се неопходни за да се обезбеди етички развој на AI, кој ќе биде фер и инклузивен за сите корисници.
Образованието игра исто така клучна улога во зголемување на свеста и образованието на новите генерации програмери и истражувачи за етичките предизвици на AI. Универзитети како MIT и Стенфорд нудат специјализирани курсеви кои ги едуцираат студентите за важноста на родова инклузивност и етика во развојот на AI.
Со сите овие напори, индустријата и образовните институции се стремат да создадат пофер, поинклузивни AI системи кои ќе ја минимизираат пристрасноста и ќе обезбедат еднакви можности за сите корисници.
7. Заклучок
AI четботите претставуваат еден од најпопуларните и најкористените облик на вештачка интелигенција во денешното општество, и нивната употреба само продолжува да расте. Како што беа анализирани во оваа работа, дигиталните асистенти носат не само технолошки предности, туку и социјални импликации кои не смеат да бидат занемарени. Особено, се истакнуваат родовите стереотипи и пристрасности што овие технологии ги рефлектираат и понекогаш ги засилуваат. Постоечките AI системи, со изборот на женски гласови и имиња за асистенти, ја потврдуваат родовата нееднаквост и може да продолжат да ги репродуцираат постоечките културни и општествени патерни, кои ги сместуваат жените во подредени и послужителски улоги.
Развојот на AI технологии мора да биде свесен и внимателен на овие социјални и етички предизвици. Како што истакна Crawford(2021), „Технологијата не е неутрална; таа ги одразува вредностите и предрасудите на општеството“. Со ова на ум, потребно е систематски да се разработат нови методологии кои ќе ја вклучуваат родовата еднаквост и инклузивност во процесот на создавање на овие системи. Важен аспект во оваа насока е прифаќањето на етичка одговорност и обезбедување на фер третман на сите корисници, без разлика на нивниот род, раса, сексуална ориентација или друга идентичност.
Со интеграција на родово неутрални или инклузивни модели, и преку регулирање на начините на кои овие системи се развиваат и користат, можеме да создадеме технологии кои не само што ќе бидат корисни и функционални, туку ќе
придонесат за праведност и еднакви можности за сите. Исто така, постојаното образование и свесност за овој проблем е клучно за идните генерации развивачи и истражувачи на вештачка интелигенција.
За да се осигураме дека технологијата ќе продолжи да служи како позитивен инструмент за општественото добро, потребно е интензивирање на соработката меѓу технолошките компании, владините институции, академската
заедница и невладините организации. Ова ќе овозможи креирање на политики кои ќе го заштитат правото на приватност, слобода и еднаквост на сите корисници, спречувајќи ширење на потенцијалните штетни ефекти кои може да ги предизвикаат пристрасностите во алгоритмите.
Како што AI технологијата продолжува да напредува, пред нас стои голема одговорност, не само да ги подобриме алатките, туку и да осигураме дека тие ќе придонесат за унапредување на човечките права и подобро, поеднаково општество. Единствено преку критички пристап и социо-етички размислувања ќе се создадат технологиите кои ќе работат за сите, а не само за некои.
8. Библиографија
● Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research.
● Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
● Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … & Vayena, E. (2018). AI4People-An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689-707.
● Hoy, M. B. (2018). Alexa, Siri, Cortana, and More: An Introduction to Voice Assistants. Medical Reference Services Quarterly, 37(1), 81-88.
● Lakoff, R. (1975). Language and Woman’s Place. Harper & Row.
● Leavy, S. (2018). Gender bias in artificial intelligence: The need for diversity and gender theory in machine learning.
● Wajcman, J. (2010). Feminist theories of technology. Cambridge Journal of Economics, 34(1), 143-152.
● West, S. M. (2019). Discriminating Systems: Gender, Race, and Power in AI. AI Now Institute.
● Crenshaw, K. (1989). Demarginalizing the Intersection of Race and Sex: A Black Feminist Critique of Antidiscrimination Doctrine. University of Chicago Legal Forum.
