Автор Љупчо Ристов
Апстракт
Оваа семинарска работа ги истражува родовите пристрасности кај гласовните асистенти, фокусирајки се на начинот на кој тие се дизајнирани, создадени и користени во нашето современо општество. Особено внимание се посветува на фактот дека повеќето дигитални асистенти, како што се: Siri, Alexa и Google Assistant, користат женски глас и имаат услужна улога, што може да придонесе за одржување на историските родови стереотипи. Работата ги анализира културните, технолошките и општествените фактори кои што стојат позади овие дизајнерски одлуки, како и реакциите на корисниците при интеракција со овие системи. Исто така, се разгледуваат обидите за создавање родово неутрални асистенти, што настојуваат да ја намалат пристрасноста. Заклучокот упатува на потребата од подлабоко етичко размислување при развој на ваквите технологии, наведувајќи дека тоа е неопходно. Преку оваа анализа, трудот ја отвора дискусијата за тоа како вештачката интелигенција може да биде средство не само за иновација, туку и за социјална промена.
Клучни зборови: вештачка интелигенција, гласовни асистенти, женски глас, стереотипи, етика во технологијата, дигитален родов идентитет, родова пристрасност.
1 Вовед
Во последната деценија, гласовните асистенти базирани на вештачка интелигенција станаа составен дел од нашиот секојдневен живот (како Siri, Alexa и Google Assistant). Тие вообичаено се користат за поставување аларми, добивање на известувања кои пристигнуваат на нашите апликации, управување со паметни уреди, па дури и за водење на разговор и одговарање на наши прашања. Како што расте нивната застапеност, расте и влијанието што тие го имаат врз начинот на кој луѓето комуницираат со технологијата, но и врз тоа како ние ја доживуваме самата технологија. Се поставува важно прашање: дали технологијата е навистина неутрална? Или пак нејзиниот дизајн несвесно или свесно ги репродуцира постоечките општествени пристрасности, особено во однос на родовите улоги? Оваа семинарска работа има за цел да ја истражи родовата пристрасност кај гласовните асистенти, со фокус на тоа како нивниот глас, личност и однесување одразуваат и засилуваат општествени стереотипи за жените, особено кога се позиционирани како услужни, љубезни и секогаш достапни. Притоа, ќе се постави прашањето дали AI може и дали треба да има род и какви се последиците од тие одлуки.
Методологијата на трудот вклучува анализа на релевантни извештаи, академски истражувања и популарни критички осврти, со цел да се даде увид комбиниран од повеќе области во оваа комплексна тема.
2 Што всушност претставуваат AI асистенти?
AI гласовните асистенти и текстуалните AI асистенти претставуваат две форми на вештачка интелигенциjа кои jа олеснуваат комуникациjата помеѓу човекот и компjутерот. Гласовните асистенти како Google Assistant, Amazon Alexa и Apple Siri користат говорно препознавање за да разберат и одговорат на усни команди. Тие обезбедуваат практично и hands-free користење, што ги прави идеални за мултитаскинг (како за употреба во мобилните телефони) и за луѓе со намалена подвижност[1]. За разлика од нив, текстуалните AI асистенти (како чет-ботови) користат обработка
на природен jазик за разбирање и одговарање на пишани пораки. Овие асистенти се широко користени во секоjдневниот живот, вклучуваj´ки решавање на комплексни проблеми и задачи за големи корпорации и фирми, креирање и одржување на системи за корисничка поддршка, како и помош при одговарање на едноставни прашања и решавање на проблеми од секоjдневниот живот[1].
AI личните асистенти се напредни софтверски програми кои користат вештачка интелигенциjа за извршување на секоjдневни лични задачи. Тие можат да функционираат како текстуални асистенти, гласовни ботови или комбинациjа од двете. Примери за вакви асистенти се Siri, Alexa и Google Assistant. Тие се базирани на алгоритми за обработка на
1
природен jазик и машинско учење, со што можат да разбираат и одговараат на кориснички команди. Со тек на време тие учат од интеракциите со корисникот, овозможуваj´ки поперсонализирано искуство. Со постоjаниот напредок во обработката на гласовни податоци, AI личните асистенти стануваат се поважна алатка во нашето секоjдневие и процесите на дигитална трансформациjа[1]
3 Родова еднаквост и пристрасност во технологијата и вештачката интелигенција
Родовата еднаквост подразбира рамноправен третман, обврски и можности за сите луѓе без оглед на нивниот род. Овој концепт значи дека нема дискриминација врз основа на полот, односно машките и женските права и улоги имаат иста вредност. Според меѓународните стандарди, родовата еднаквост е основно човеково право и предуслов за мирно, просперитетно и одржливо општество. Отсуството на родови бариери ги ослободува луѓето од штетните стереотипи, ја поттикнува нивната слобода на избор и им овозможува секој поединец целосно да ги оствари своите способности и потенцијали. [1]
Од друга страна, родовата пристрасност претставува фаворизирање или предрасуда против одреден род. Таа се манифестира како нерамноправен третман и дискриминација, на пример, разлика во платите, ограничени можности за унапредување и мала застапеност на жените во одредени професии. Овие стереотипи се подлабоко вкоренети во општеството и ја поткопуваат социјалната кохезија, бидејќи ја ограничуваат слободата и потенцијалот на многу луѓе поради нивниот род. Борбата против родовата пристрасност е неопходна за да се овозможи секој поединец подеднаква шанса за успех и целосно учество во општествените процеси.
Во контекстот на технологијата и особено вештачката интелигенција, овие прашања стануваат посебно проблематични. Современите AI-системи учат од големи бази на податоци кои често ги рефлектираат постоечките општествени стереотипи, па затоа и тие ги зацврстуваат нерамноправностите наместо да ги отстрануваат. На пример, студија на UNESCO [7] покажа дека популарни генеративни AI-модели (LLM) најчесто ги поврзуваа женските имиња со „домашни активности“ и „семејство“, додека машките имиња беа асоцирани со „бизнис“ и „кариера“. Ова е јасен пример за родова пристрасност во AI, така што машината ги третира луѓето различно врз основа на нивниот род, затоа што во податоците за учење се вградени длабоко врежани стереотипи. Како резултат на тоа, автоматизираните одлуки, како на пример при селекција на кандидати за вработување, одобрување кредити или медицински дијагнози, може несвесно да им нанесат штета на жените или други групи, ограничувајќи им го пристапот до можностите. Затоа е неопходно технологијата да биде ослободена од родови предрасуди.
Етичките AI-системи гарантираат дека сите корисници ќе бидат третирани еднакво, без разлика на нивниот род. Ова значи дека одлуките и услугите се темелат на објективни
2
критериуми и конкретни потреби наместо на застарените стереотипи. Таквиот пристап не само што ја подобрува правдата и во општеството, туку и ја зголемува довербата и квалитетот на технолошките решенија. Креирањето AI-платформи ослободени од пристрасност овозможува општество во кое економскиот и социјалниот просперитет ќе бидат во полза на сите граѓани.
4 Родовото определување на гласовните асистенти
Гласовните асистенти се претежно дизаjнирани со женски гласови и персони. Овоj дизаjн не е случаен туку тоj потекнува од општествените перцепции кои го поврзуваат женскиот глас со топлина, помошност и подреденост. Истражувањата покажуваат дека луѓето се помалку загрижени кога вештачката интелигенциjа има женска персона, бидеjќи жените традиционално се гледаат како помагачи, а авторитетни личности. Таквите асоциjации се длабоко вкоренети во историските родови улоги и се поттикнати од одлуките на технолошката индустриjа за дизаjнирање. Основната женска персона во гласовните асистенти го засилува стереотипот за жените како асистенти или подредени, што може да има пошироки општествени импликации. Извештаjот на UNESCO “I’d Blush If I Could”го истакнува ова и покажува како овие дизаjнерски одлуки придонесуваат за гендерска пристрасност. Во извештаjот се наведува дека женските асистенти често одговараат на навредлив jазик со учтивост, со што се нормализира непочитувањето на жените и се засилува убедувањето дека жените треба истото да го поднесуваат[2]. Идејата дека женскиот глас е попријатен и послушен не е нова. Историски гледано, жените често биле вклучувани во професии поврзани со грижа, поддршка и услужување, професии како што се учителки, медицински сестри, секретарки. Овие општествени улоги се пресликуваат и во дизајнот на гласовните асистенти. Истражувањата во когнитивната психологија покажуваат дека корисниците имаат поголема доверба и чувствуваат помал отпор кога добиваат инструкции или информации од женски глас, особено кога станува збор за „помошни“ задачи. Тоа ги наведува технолошките компании да изберат женски гласови не од етички, туку од комерцијални причини, односно за да ја зголемат прифатеноста и употребата на асистентот.
Како што наведува анализата на Brookings, ваквиот пристап ја рефлектира родовата пристрасност во самиот процес на дизајнирање на системите: машки гласовни асистенти речиси не постојат како опција, а родово неутралните гласови се реткост [3]. Ова ја одразува доминацијата на машки инженери и дизајнери во технолошките компании, кои интуитивно избираат женски гласови за „подобро искуство на корисниците“, притоа без критичко преиспитување на социокултурните последици. Најозборуваниот пример за ова е асистентката „Alexa“ од Amazon, која иако може да се конфигурира со различен глас, стандардно доаѓа со женска личност и тон. Според некои анализи, тоа имплицира дека жените се тука да слушаат, извршуваат задачи и да одговараат, без оглед на тоа дали
3
наредбите се учтиви или дури навредливи. Поради овие аспекти, родовата репрезентација кај гласовните асистенти не смее да се гледа како неутрална или случајна, напротив како резултат на конкретни културни претпоставки и корпоративни избори. Потребна е подлабока етичка и дизајнерска свест при развој на идни системи, кои ќе избегнат репродукција на пристрасност.
5 Како корисниците ги доживуваат AI асистентите
Искуствата на корисниците со AI гласовните асистенти се комплексни за анализа. Тие се обликувани од повеќе фактори, вклучувајќи го родот на асистентот, тонот, способноста за разбирање, но и од социјалните норми и очекувања што корисниците ги имаат. Истражувањето “Alexa, Google, Siri: What Are Your Pronouns?” покажува дека голем дел од корисниците ја перципираат гласовната AI како “женско суштество”, без оглед на тоа дали има реална родова идентификација. Иако AI технологијата е по својата природа неутрална, нејзината презентација преку женски глас и име автоматски создава родов контекст. Поради ова, некои корисници се однесуваат кон овие асистенти со несоодветна фамилијарност, па дури и агресија, што во реалниот свет би се сметало за вознемирување ако е упатено кон вистинска жена [4].
Дополнително, според анализата на Teen Vogue, постојат случаи каде што AI асистентите љубезно одговараат на навредливи или експлицитни коментари, со што се создава перцепција дека е прифатливо да се однесуваш лошо кон „женска фигура“ која нема капацитет да се брани [5]. Овој дизајн, дури и несвесно, ги учи корисниците дека жените треба да бидат трпеливи, услужливи и толерантни, дури и кога се изложени на непочит. Според податоците објавени во MDPI, мажите имаат тенденција да гледаат на гласовните асистенти како на алатки за ефикасност и контрола, додека жените понекогаш ги доживуваат како придружници, комуникациски посредници или дури емоционални поддржувачи [6]. Оваа димензија ја отвора темата за „персонализација“ на AI искуството според родовите очекувања, што дополнително ја комплицира анализата на пристрасноста.
Корисничката возраст и возрасната група силно го обликуваат однесувањето и ставовите кон гласовните AI-асистенти. Имено, помладите деца често ги доживуваат асистентите, како паметни и пријателски уреди. Како растат, така децата стануваат се подоверливи кон информациите од асистентот, податоците од две студии покажуваат дека постарите деца безрезервно го прифаќаат гласовниот асистент за фактички одговори, додека повеќе му веруваат на човекот кога станува збор за лични или емоционални прашања. Овие наоди укажуваат дека, иако децата може да го сметаат асистентот за сигурен извор на информации, тие сепак го одвојуваат од човечките интеракции. Дополнително, некои истражувања предупредуваат дека навиките да се добиваат одговори од машина може негативно да влијаат на воспитно-социјалните компетенции, на пример,
4
интеракцијата со паметните асистенти можеби не ги поттикнува децата да се придржуваат до општествените норми на некаков вообичаен начин.
Кај постарите лица, пак, гласовните асистенти често се перципираат како виртуелно друштво. Истражувањата откриваат дека возрасните ги опишуваат овие уреди со лични термини и дури велат дека Alexa им станала „нов најдобар пријател“. Ова може да се објасни како резултат на намалената социјализација. Повозрасните лица кои живеат сами го наоѓаат друштвото на асистентот како емоционална поддршка. Перцепцијата „пријател“ или „присутно лице“ им овозможува да се чувствуваат помалку осамено и да ги користат гласовните асистенти за секојдневни потреби. И децата и постарите покажуваат слична тенденција во пристапот кон родно кодирани гласови, општо е познато дека женските гласови на дигиталните асистенти се доживуваат како повнимателни и смирувачки. Слично, другите студии укажуваат дека учесниците повеќе им веруваат на женскиот глас при советување за лекови и дека го сметаат женскиот тон за попријателски и добронамерен, наведувајќи на феномен наречен „women-are-wonderful“. Во одредена смисла покорноста на гласот сам по себе влева доверба, но од друга страна осветлува и родни стереотипи. Едноставно кажано, луѓето автоматски му даваат род на асистентот врз основа на гласот и ги применуваат нашите социјални норми, што значи дека типично женскиот глас предизвикува очекување за грижлив карактер и послушност. Во таа смисла, и децата и возрасните ги обликуваат своите ставови за технологијата низ призмата на родните стереотипи, констатирајќи дека женскиот асистент е милостив и дружелубив, а машкиот е силен и одлучен.
Културните разлики дополнително го обликуваат начинот на кој луѓето во светот ги доживуваат гласовните асистенти. Според глобални податоци, речиси сите комерцијални асистенти се направени да имаат женски глас, така што технолошките компании тоа го објаснуваат со перцепцијата дека пазарот едноставно верува и претпочита женски тон. На пример, студиите покажуваат дека корисниците генерално избираат синтетички женски гласови пред машките. Вкупно, иако конзервацијата на женскиот асистент е речиси универзално присутна, начинот на доживување може да варира според локалните очекувања, во некои општества женскиот глас уште се поврзува со емпатијата, а во други може да се смета за потчинувачки или услужен поради родните норми.
Наведеното упатува на едно важно прашање: Дали AI асистентите навистина ги отсликуваат потребите на корисниците или ги формираат нивните ставови и однесувања? Одговорот е веројатно и двете. Затоа, етичкиот дизајн на овие технологии мора да се базира не само на функционалноста, туку и на социјалната одговорност.
5
6 Одговор на индустријата и можни решенија
Сѐ поголемата критика кон пристрасноста во гласовните асистенти ја натера технолошката индустрија да почне да размислува за подобар и поетички дизајн. Сепак, напредокот е бавен и индустријата реагираше по објавени извештаи, како оној на UNESCO („I’d Blush If I Could“), наместо да дејствува превентивно. Овој извештај директно ги повикува големите компании како Amazon, Apple и Google да престанат со подразбираното користење на женски гласови и да понудат родово неутрални опции [7].
Сепак, некои иницијативи покажуваат кон позитивна насока. Пример е проектот Q, првиот родово неутрален гласовен асистент, дизајниран со цел да предизвика свесност и дебата околу родовата пристрасност во технологијата. Овој асистент користи тонови кои се „средина“ помеѓу типично машки и типично женски фреквенции и е резултат на интердисциплинарна соработка меѓу дизајнери, активисти и научници [8].
Слично, некои производители започнуваат да нудат поголем избор на гласови и да не го користат женскиот глас како стандард. На пример, Apple почнувајки од iOS 14.5, го отстрани женскиот глас како подразбирана поставка за Siri и бара од корисникот да избере глас при првичната конфигурација. Ова е мал, но важен чекор кон разбивање на стереотипите поврзани со асистентите.
Покрај промените во гласот, се поставува прашањето за личноста на AI асистентите, дали треба да имаат „карактер“, „род“ или да бидат целосно неутрални? Некои истражувачи тврдат дека најетички пристап би бил „дегендеринг“, т.е. целосно отстранување на родови маркери од асистентите, со цел да се избегне репродукција на социјални хиерархии и очекувања. Дополнително, клучно е вклучувањето на повеќе жени во процесот на дизајнирање на овие технологии. Само преку разновидност во инженерските и дизајнерските тимови може да се постигне поширока перспектива и да се избегнат пристрасностите кои често се несвесни, но сепак деструктивни. Како што вели Teen Vogue, технологијата не е неутрална, туку таа ги рефлектира вредностите на оние кои ја создаваат. Потребата од етички, родово чувствителен пристап во дизајнот на AI не е само морална, туку и практична, корисниците сѐ повеќе бараат персонализирано, одговорно и правично дигитално искуство. Компаниите што ќе ги препознаат овие вредности навреме, ќе имаат конкурентска предност на сѐ повнимателниот пазар.
7 Етички и образовни влијанија
Проблемот со родовата пристрасност кај гласовните асистенти не е само технички или културен, туку и длабоко етички. Фактот дека овие асистенти се често дизајнирани со женски гласови и личности кои трпат непочитување, директно ја отвора дилемата: дали технологијата го репродуцира угнетувањето или само го отсликува она што веќе постои во
6
општеството? Компаниите кои ги развиваат AI асистентите имаат морална одговорност да не создаваат системи кои поттикнуваат или нормализираат родова нееднаквост. Кога една технологија, која секојдневно комуницира со милиони луѓе, трпи навреди и реагира со љубезност, таа станува „платформа“ која (свесно или несвесно) толерира злоупотреба и ги зацврстува стереотипите. Како што потенцира Brookings, дизајнерите мора да предвидат како луѓето ќе се однесуваат со дигиталните фигури и кои етички поуки ќе извлечат од тие интеракции [9].
Пример: ако дете расте со Alexa која одговара со „Мило ми е што ме нарече така!“ на навреда, тоа дете учи дека е прифатливо женската фигура да не се брани. Овие „мали“ детали имаат сериозни последици во формирањето на родови норми кај младите.
Проблемот не може да се реши само со технологија, потребна е образовна интервенција. Во ера кога децата растат со дигитални асистенти како дел од секојдневието, мора да се вклучи критичко размислување во образованието:
● Кои пораки ги испраќаат AI асистентите?
● Зошто Alexa звучи како жена?
● Дали асистентите треба да имаат род воопшто?
● Како треба да се однесуваме со виртуелни асистенти?
Ваквите прашања треба да бидат дел од програмите по медиумска и дигитална писменост, особено кај основци и средношколци. Дополнително, универзитетите кои обучуваат идни инженери, програмери и дизајнери треба да нудат интердисциплинарни курсеви по етика и инклузивен дизајн, каде што студентите ќе учат како нивната работа влијае на општествените вредности. Според UNESCO „неутралноста во технологијата е мит, секој алгоритам има автор и секоја дизајнерска одлука има последици“.
8 Алтернативи и обиди за деконструкција на родовата пристрасност
Во последниве години, се појавуваат значајни иницијативи кои имаат за цел да ја деконструираат вградената родова пристрасност во гласовните асистенти. Наместо да се прифаќаат стереотипите како „природен избор“ (на пример, женски глас за услужна улога), овие алтернативи нудат нови перспективи за дизајнот и корисничкото искуство.
Родово неутрални гласови:
Најпознат пример за ваков обид е асистентот Q, кој што првиот родово неутрален дигитален глас. Развиен од тим на креативци, активисти и технолози, Q користи синтетизиран глас кој е фреквентно позициониран помеѓу машки и женски тон, така што не го асоцира слушателот со одреден пол. Целта на Q не е само техничка, туку и
7
симболична, да ја предизвика перцепцијата дека асистентот не мора да има род и да ја прошири свеста за тоа како гласот влијае врз општествените очекувања
Персонализација и избор:
Друга насока е персонализацијата: одредени платформи, како Apple со Siri, веќе дозволуваат избор меѓу повеќе гласови и акценти. Она што е важно тука е што веќе не се нуди еден „стандард“, особено не женски глас. Корисникот треба сам да избере, што ја намалува нејасната порака за тоа „каков треба да биде асистентот“.
Промени во програмските одговори:
Системи како Google Assistant, започнаа да имплементираат поасертивни одговори кога ќе добијат навредливи или експлицитни коментари од корисници. На пример, наместо со срамежливо „не знам што да кажам“, асистентот може да одговори со „тоа не е соодветен начин на комуникација“. Оваа промена може да делува мала, но ја пренесува пораката дека ни дигиталните ентитети не треба да трпат непочитување, што има важна педагошка и општествена функција.
Отворени кодови и инклузивен дизајн:
Во заедницата на отворен софтвер се развиваат иницијативи кои истражуваат нови модели за дизајн на асистенти: родово флуидни личности, скалабилни опции за глас и тон, како и невизуелни и невокални начини на интеракција, посебно корисни за луѓе со различни форми на попреченост. Клучниот принцип тука е: инклузивноста како основен дизајнерски приоритет, а не како додаток.
9 Пошироки последици од родово пристрасен дизајн на AI асистенти
Дизајнот на гласовните AI асистенти најчесто ја придава женската вокализација кое што е потврдено со истражување според кое дури 87.6% од комерцијалните асистенти користат женски глас [10]. Овие гласови често се карактеризираат со послушност и услужност, што ја рефлектира патријархалната претстава за жената како помошничка. Во корпоративната комуникација и организациската култура, таквиот дизајн може да го зацврсти родовата неправедност. Истражувања покажуваат дека традиционалните услужливи и грижливи улоги се доживуваат како „женски“, додека лидерските позиции се поврзуваат со машкоста. Ако автоматизираните бизнис-асистенти се програмирани со женски глас и покорен тон, тоа дополнително ја јакне перцепцијата дека жените припаѓаат на секундарни улоги. Понатаму, извештај на UNESCO открива дека Google Асистент 70% повеќе точно ги препознава машките гласови отколку женските, што укажува на техничка пристрасност која дополнително ги отежнува интеракциите на жените во професионалните средини. Во поширокото општество, родово пристрасниот дизајн на гласовните асистенти води кон нормализирање на нерамноправни улоги и влијание врз
8
меѓучовечките односи. Истражувања укажуваат дека доминантните женски гласови ја поттикнуваат перцепцијата на жените како повлијателни.
Овие технологии дејствуваат како „социјализациони алатки“, обликувајќи ги очекувањата односно наведувајќи ги корисниците дека жената треба веднаш да одговори и да служи на другите.. Дополнително, постои загриженост дека нормализацијата на сексуално и вербално малтретирање кон виртуелните асистенти со женски глас може да ја зголеми толеранцијата кон слични форми на злоупотреба кон жените во реалниот живот.
10 Препораки за технолошките компании и дизајнерите
Со цел да се спречи родовата пристрасност при развојот на гласовни AI асистенти, компаниите и дизајнерските тимови треба да применат неколку клучни принципи и мерки. Еден од начините се воведување на разновидни податоци и тимови. AI системите треба да се обучуваат со податоци кои ги отсликуваат различните социјални и културни контексти и
да се елиминираат историските пристрасности во нив. Исто така, развојните тимови треба да бидат разновидни и инклузивни (со застапеност на жени и маргинализирани групи). Разновидните тимови помагаат рано да се идентификуваат и корегираат скриените стереотипи, со што се намалува ризикот AI асистентите да ги рефлектираат родови пристрасности.
Како друга препорака е родово неутрален дизајн на гласови. Наместо автоматски да се поставува женски глас како стандарден, треба да се обезбедат повеќе опции за гласови кои не асоцираат на род. Овој пристап ја отстранува автоматската асоцијација на определен тон со традиционален родов стереотип и ја зголемува флексибилноста за корисникот. Исто така, не е препорачливо да се „феминизира“ потполно ликот на асистентот, односно, при дефинирање на личноста на асистентот да не се потенцираат исклучиво стереотипно женски особини. Следна препорака од експертите е интеграција на етички рамки и транспарентност. Компаниите треба формално да воспостават етички принципи и ревизии за пристрасност преку целиот процес на развој. Тоа вклучува обезбедување транспарентност, како и воспоставување внатрешни политики и упатства за одговорен и родово свесен дизајн. Примена на „ревизија на пристрасност“ (bias audit) за системите, како што бараат одредени регулативи при вработување, може значително да ги намали системските пристрасности и да ги подобри резултатите. Исто така жените е неопходно да бидат активно вклучени во дизајнот и тестирањето на AI асистентите. Ова може да се постигне преку организирање работилници, натпревари (хакатони) и едукативни програми насочени кон зголемување на нивното учество во технолошкиот сектор. При корисничкото тестирање, задолжително треба да се вклучат демографски разновидни испитаници (различна возраст, пол, етничка припадност) за рано да се детектираат и корегираат можни пристрасности.
9
Примената на овие практики и принципи ќе овозможат развој на AI гласовни асистенти кои не ја зајакнуваат, туку ја преиспитуваат и отстрануваат родовата пристрасност. На тој начин, компаниите ќе придонесат кон унапредување на родовата еднаквост и кон позитивни промени во организациските култури и во општеството во целина, како и многу позадоволни корисници.
11 Заклучок
Гласовните асистенти, како современи манифестации на вештачката интелигенција, не се само технолошки инструменти, туку и огледало на општествените вредности и родови стереотипи. Преку изборот на женски гласови и услужна улога, компаниите несвесно ја нормализираат перцепцијата дека жените се тука за да служат, да молчат и да трпат непочитување. Ова не е само етичко прашање, туку и социјална одговорност. Ако децата и возрасните растат со дигитални фигури кои мирно прифаќаат навреди, тие учат дека е нормално женската позиција да биде пасивна и подредена. Истовремено, разгледаните обиди за деконструкција на оваа пристрасност, преку родово неутрални гласови, избор на различни тоналитети и посертификативни одговори, покажуваат дека технологијата може да се претвори во средство за предизвик на стереотипите. Персонализацијата и инклузивниот дизајн, како и образовните интервенции за критичко размислување, се клучни чекори кон создавање AI асистенти кои ја промовираат рамноправноста, а не нејзиното ускратување. Потребна е интегрирана, меѓудисциплинарна и етички одговорна акција, од инженери и дизајнери, преку образовни институции, до самите корисници. На овој начин, вештачката интелигенција ќе стане не само иновативна, туку и мотор кон позитивна социјална промена.
12 Референци
[1] Aisera. Ai assistant: Boosting productivity with ai personalization, 2025. Accessed: 2025-05. URL: https://aisera.com/chatbots-virtual-assistants-conversational-ai/.
[2] Gavin Abercrombie, Amanda Cercas Curry, Mugdha Pandya, and Verena Rieser. Alexa, google, siri: What are your pronouns? gender and anthropomorphism in the design and perception of conversational assistants. arXiv preprint arXiv:2106.02578, 2021. Accessed: 2025-05-13. URL: https://arxiv.org/abs/2106.02578
[3] Gendered Echoes: Unveiling Gender Bias in AI Voice Assistants, 2024. Accessed: 2025-05. URL: https://medium.com/%40nityaakalra5/gendered-echoes-unveiling-gender-bias-in-ai-voice-assistants-4342 d5523983
10
[4] Alexa, Google, Siri: What Are Your Pronouns? arXiv:2106.02578. Accessed: 2025-05 URL: https://arxiv.org/abs/2106.02578
[5] Artificial Intelligence Isn’t Good for Women, But We Can Fix It, Teen Vogue. Accessed: 2025-05. URl: https://www.teenvogue.com/story/artificial-intelligence-isnt-good-for-women-but-we-can-fix-it
[6] Nonbinary Voices for Digital Assistants, MDPI Robotics 2023, 13(8), 111. Accessed: 2025-05. URL: https://www.mdpi.com/2218-6581/13/8/111
[7] I’d blush if I could: closing gender divides in digital skills through education, UNESCO. Accessed: 2025-05. URL: https://unesdoc.unesco.org/ark:/48223/pf0000367416
[8]The degendering of voice assistants Accessed: 2025-05. URL:
[9] Research: How AI bots and voice assistants reinforce gender bias, Caitlin Chin-Rothmann and Mishaela Robison, November 23, 2020. Accessed: 2025-05. URL:
[10] When Good Ideas Meet Poor Execution: The Humane AI Pin and the Future of Language Translation May 18, 2025, Accessed: 2025-05. URL: drsaraheaton.com
11