Емоционална интелигенција кај вештачка интелигенција и родови  стереотипи: Како да се избегне „емпатична“ пристрасност? 

Published by

on

Кире Тасев   

1. Вовед 

Вештачката интелигенција одамна не е само дел од научна фантастика. Денес, таа е  дел од нашето секојдневие – во телефоните, апликациите, образованието и дури и во  процесите на донесување одлуки. Особено ме фасцинираше моментот кога дознав  дека постојат AI модели кои можат да препознаат емоции. Ме натера да се запрашам  – дали навистина можат да нè разберат? И дали некои од нас се погрешно разбрани,  само затоа што се жени, мажи или не се вклопуваат во класичните категории? 

Оваа работа е мој обид да го разгледам тоа прашање: што се случува кога  технологијата што треба да биде „неутрална“ всушност ја носи со себе нашата  сопствена пристрасност? Особено кога станува збор за родовите стереотипи – нешто  што е длабоко вкоренето во нашето општество. Еден аспект што е особено важен, но  често игнориран, е како AI реагира на нашите емоции и дали го прави тоа праведно и  еднакво кај сите луѓе. 

Во продолжение, ќе се обидам да го истражам концептот на емоционална  интелигенција кај вештачката интелигенција, како таа функционира, кои предности  ги нуди, но и какви ризици носи. Посебно внимание ќе посветам на тоа како се јавува  таканаречената „емпатична пристрасност“ – и што можеме да направиме за да ја  избегнеме.

2. Емоционална интелигенција кај AI: Основи и можности 

AI што разбира емоции звучи како научна фантастика, но веќе постои. Системи што  можат да препознаат дали некој е тажен, лут или радосен – преку изрази на лицето,  тон на глас или дури и текст што го пишуваме. На пример, некои апликации што се  користат во образованието или за психолошка поддршка можат да анализираат како  се чувствуваш и да предложат содржини врз основа на тоа. Постојат AI асистенти кои  реагираат поразлично ако детектираат дека си лут или фрустриран, а има и системи  што се користат во интервјуа за работа кои анализираат микропромени во изразите  на лицето. 

Оваа технологија има потенцијал за многу добра примена – особено во области каде  емпатијата игра важна улога. На пример, AI може да помогне при навремено  откривање на ментални нарушувања, да понуди поддршка при онлајн учење или дури  и да помогне лекарите во проценка на психолошката состојба на пациентите. Но,  сите овие системи зависат од тоа колку податоците врз кои се обучени се точни,  балансирани и репрезентативни за сите групи луѓе – независно од пол, етничка  припадност, возраст или културен контекст.

3. Родови стереотипи во AI модели 

Моделите учат од податоците, а податоците ги даваат луѓето. Ние луѓето, колку и да  сакаме да сме објективни, не сме. Во многу случаи, жените низ историјата биле  прикажувани како послаби, понежни, емотивни. Мажите како силни, рационални,  стабилни. Ако AI моделот учи од вакви текстови и примери, што мислиме дека ќе  заклучи? 

Овие пристрасности не се ограничени само на текст. Тие се појавуваат и кај  алгоритмите за препознавање на лице, синтетички гласови и дури во препораките на  видеа и содржини на социјални мрежи. Еден проблем е што жените често се  претставени како помалку способни во техничките професии, па ако моделот се  користи за предвидување на успех на студенти во СТЕМ области, може несвесно да  им дава предност на мажи. 

Дополнително, многу бази на податоци сè уште ги игнорираат трансродовите и  небинарните лица. Тоа значи дека тие се или погрешно категоризирани или целосно  отстранети, што води до понатамошна маргинализација. AI системите треба да  препознаваат разновидноста на родовите идентитети – но за тоа да се случи, мора да  бидат свесно дизајнирани така.

4. „Емпатична“ пристрасност и последици 

Замислете сценарио: апликација за ментално здравје зборува со корисничка и вели:  „Звучи како да си анксиозна.“ Но истото однесување кај маж – моделот го толкува  како „замор“. Тоа е „емпатична пристрасност“ – кога емпатијата е нерамномерно  распределена. 

Овој феномен не е само теоретски. Има реални последици. Ако некој систем што се  користи за интервјуа при вработување повеќе го толерира стресот кај мажи, а кај  жени го интерпретира како емоционална нестабилност, тоа директно влијае на  шансите за добивање работа. Истото важи и во образованието – каде учител или AI  систем за оценување ќе третира девојчиња како премногу чувствителни, додека  момчињата со иста емоционална експресија ќе ги смета за храбри. 

Дури и во здравството, постојат случаи каде што жалбите на жените за болка биле  интерпретирани како психолошки проблем, додека кај мажите веднаш се  проверувале за физичко заболување. Кога овие модели се користат во дигитални  здравствени системи, тие несвесно продолжуваат со ваквиот шаблон. 

5. Примери од истражувања 

Иако темата можеби звучи теоретски, има реални докази. Студијата „Gender  Shades“ покажала дека системите за препознавање на лица биле многу попрецизни 

за бели мажи отколку за жени со потемна кожа. Тоа не е само технички проблем – тоа  значи дека некој може да биде погрешно идентификуван или дури игнориран. 

Во едно истражување од Stanford AI Ethics Lab, се покажало дека модели за  препознавање емоции почесто толкувале женски лица како „тажни“ дури и кога биле  неутрални. Машките лица со исти изрази биле класифицирани како „решителни“.  Ова не е мала разлика – тоа е доказ дека родовите стереотипи се вградени и се  манифестираат дури и кога не сме свесни за нив. 

Во реалниот свет, компанијата Amazon развила алгоритам за регрутација кој  несвесно почнал да фаворизира машки кандидати, бидејќи податоците за успешни  кандидати во минатото биле главно машки. Веднаш штом е забележан проблемот,  алгоритмот бил повлечен. Но тоа покажува колку е лесно пристрасноста да се  „вметне“ во машината. 

6. Решенија и препораки 

Ова не е проблем што нема решение. Само бара повеќе труд и свест. Прво – моделите мора да се тренираат со поразновидни податоци. Не може само еднотипни  примери. Второ – треба да има луѓе од различни профили во тимовите што ги  создаваат овие модели. Не само инженери, туку и социолози, експерти за родови  студии, психолози. 

Понатаму, мора да се воведе обврска за тестирање на пристрасност. Пред некој  модел да се пушти во употреба, да се провери како реагира на различни групи луѓе. 

Ако има разлики – да се прилагоди. Исто така, потребна е поголема транспарентност  – корисниците имаат право да знаат како се донесуваат одлуки, кои податоци се  користат и какви механизми има за приговор. 

Образовниот систем треба да ја вклучи оваа тема во наставата – особено во  предметите поврзани со ИКТ, социологија, граѓанско образование. Ако младите  разберат како функционираат овие системи, ќе бидат поосвестени и ќе можат да  бараат праведни решенија. 

7. Заклучок 

AI не е магија. Тоа е само алатка што учи од нас. Ако сакаме да биде праведна, мора  да ѝ дадеме праведни податоци и критички умови што ќе ја водат. „Емпатичната  пристрасност“ не е некаква софтверска грешка – тоа е огледало на нашите  стереотипи. Но, токму затоа, може и да се поправи. 

Темата е многу поширока отколку што изгледа на прв поглед. Од здравството,  образованието, па сѐ до секојдневна комуникација – ако не сме внимателни, AI може  да го реплицира и зајакне токму она што сакаме да го надминеме: дискриминацијата  и нееднаквоста. 

Верувам дека со свест, едукација и инклузивност – можеме да ја користиме оваа  технологија како средство за подобрување, а не за исклучување. Затоа е важно да не 

ја прифаќаме како готова и неутрална, туку да ја градиме свесно, внимателно и со  мисла на сите што ќе ја користат. 

8. Користена литература 

• Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy  Disparities in Commercial Gender Classification. 

• UNESCO (2023). AI and Education: Guidance for policy-makers. 

• West, M., Kraut, R., & Ei Chew, H. (2022). Emotion Recognition Bias in AI. 

• O’Neil, C. (2016). Weapons of Math Destruction. 

• Crawford, K. (2021). Atlas of AI. 

• Stanford AI Ethics Lab (2021). Gendered Interpretations in Facial Emotion Recognition. 

• World Economic Forum (2022). The Future of Jobs Report. 

• European Commission (2022). Gender and AI in Digital Education.9 

10