Софија Речкоска
- Вовед
Во последните години, вештачката интелигенција (ВИ) стана не само технолошка иновација, туку и клучен дел од нашето секојдневие. Преку дигитални асистенти како Siri, Alexa и ChatGPT, ВИ активно комуницира со нас и нуди помош во разни аспекти на животот – од едноставни задачи како поставување аларм, до комплексни разговори кои вклучуваат информации од различни области. Овие асистенти не се само алатки за одговор на прашања; тие се претставници на една нова ера на технологија што се обидува да комуницира со луѓето на многу поинтуитивен и природен начин. Технологијата на дигиталните асистенти одговорно ги симулира основните човечки способности, вклучувајќи ја емоционалната интелигенција, која е неопходна за да се оствари комуникација која е пријателска и емпатична.
Но, тука се поставува едно важно прашање: колку од оваа емоционална интелигенција е вистинска, а колку е всушност резултат на вешто програмирани одговори кои се базирани на стереотипи и претпоставки? Дигиталните асистенти се дизајнирани да бидат што посимпатични и позабавни за корисниците, што често вклучува користење на женски гласови и карактеристики кои се сметаат за повеќе „привлечни“ и „нежни“. Ова поставува уште едно важно прашање: Зошто е тоа така? Зошто најголемиот број на дигитални асистенти, како Siri и Alexa, користат женски гласови и претставуваат одредени емоционални карактеристики кои се поврзуваат со женските стереотипи? Овој феномен не само што ја отвора дебатата за развојот на ВИ, туку и за социо-културните фактори што го обликуваат дизајнот на технологијата. Дали оваа „емпатија“ која се симулира преку дигиталните асистенти е всушност длабоко вкоренета во традиционалните родови стереотипи и социјални улоги? Или пак, е тоа просто начин за креирање на кориснички интерфејс кој ќе биде прифатен и корисен за најголемиот дел од популацијата?
Во оваа семинарска работа ќе се обидеме да разгледаме како и зошто вештачката интелигенција ги користи женските гласови и карактеристики во својот дизајн, какви се последиците од ова за родовата еднаквост во технологијата и кои се потенцијалните импликации на овие одлуки на долг рок.
- Историски контекст на ВИ и родови стереотипи
Историјата на вештачката интелигенција започнува во средината на 20-тиот век, кога научниците и инженерите почнаа да експериментираат со концепти на алгоритми и модели кои можат да ги имитираат човечките когнитивни способности. Пионери како Алонзо Черч, Алан Тјуринг и Џон Маки изградија основи на теории кои подоцна ќе го обликуваат современото поле на ВИ. Во првобитните денови, ВИ била тесно поврзана со теоретски концепти, но со текот на времето, особено по 1950-тите и 1960-тите години, започнале да се создаваат рани примери на интелигентни системи, како што се шаховските програми и првите форми на машинско учење (McCarthy, 2006).
Кога станува збор за раниот развој на дигитални асистенти, треба да се напомене дека првите инсталации на говорни асистенти, иако иновативни, не ги вклучуваа претставените идеи за емоционална интелигенција. Првите системи, како што се ELIZA, која е создадена во 1960-тите години од Џозеф Вејценбаум, биле многу едноставни и се состоеле од набор на правилата за обработка на текст, без емоционален или социјален контекст. Тие не претставувале вистински дигитални асистенти, туку едноставно симулирале основни човечки интеракции (Weizenbaum, 1966). Оваа технологија брзо се развивала, но долго време останала ограничена само на симулации, без длабока емоционална димензија.
Во 1990-тите и 2000-тите години, со појавата на прогресивни технологии за препознавање на говор и напредокот во обработка на природен јазик, почнале да се појавуваат првите вистински дигитални асистенти. Но, изборот на женски гласови и имиња, како што е Siri (создадена од Apple), бил директно поврзан со општествените и културни стереотипи кои ги поврзуваат женските гласови со домашни, помагачки улоги. Одлуката да се изберат женски гласови не била случајна. Истражувања покажуваат дека женските гласови се често поистоветени како повеќе пријателски, подготвени да помогнат и помалку авторитарни од машките гласови, што ги прави идеални за социјални асистенти и домашни помагачи. Ова влијание е силно вкоренето во социо-културните стереотипи, според кои жените се гледаат како „нежни“, „неагресивни“ и „сочувствителни“ фигури (Nass & Moon, 2000).
Во исто време, влијанието на доминантно машките тимови во развојот на ВИ игра значајна улога во обликувањето на овие избори. Историјата на компјутерските науки и технологијата има многу малку женски претставници во раните фази на развојот, што доведе до создавање на софтвери и системи кои одразуваат гледишта и пристапи доминирани од машки перспективи. На пример, многу од водечките научници и инженери кои стојат зад развојот на раните форми на ВИ биле мажи, и тие најчесто создавале системи кои во предвидв имале доминантни социјални и родови улоги. Долгорочните импликации на оваа практика се огледуваат не само во изборот на женски гласови за дигиталните асистенти, туку и во можноста за пристап до ВИ за жени и малцинства, кои често беа маргинализирани во овие научни области (Harris, 2015).
Примерите на жени кои биле игнорирани или заборавени во историјата на ВИ и компјутерски науки, како што е програмерката и пионерка во компјутерските науки Ada Lovelace, исто така, покажуваат колку длабоко е вкоренет родовиот јаз во развојот на технологијата. Жените не само што биле исклучени од формалните научни институции во раните денови на компјутерската наука, туку и нивните придонеси биле минимизирани или сосема занемарени (McMillan, 2001). Технологијата, создадена од машки тимови, не само што ја отсликувала машинската способност за извршување на задачите, туку исто така го пренесувала и доминантниот машки поглед на светот.
Со оглед на овие историски контексти, изборот на женски гласови и имиња за дигитални асистенти не е само прашање на практичност или маркетинг. Тоа е културно и социјално натоварен процес кој има длабоки импликации на тоа како ги гледаме и третманот на жените во технологијата. Овие одлуки продолжуваат да одразуваат родови стереотипи кои се во коренот на технологијата и нејзиниот развој, а исто така и влијаат на тоа како идните генерации ќе го восприемаат влијанието на ВИ во нивниот живот.
Слика 1 (Жените на фотографијата работат со компјутер ERA/UNIVAC 1103 во 1950-тите.)
- Родови стереотипи во ВИ
Во контекст на вештачката интелигенција, родовите стереотипи се рефлектираат во дизајнот на технологиите, како што се дигиталните асистенти, кои често користат женски гласови и карактеристики. Женските гласови во ВИ се често перципирани како подредени, услужни и емпатични, што ја рефлектира социјалната претпоставка дека жените ги поседуваат овие особини. Овој избор на гласови и имиња може да ја засили родовата нееднаквост, создавајќи впечаток дека жените имаат „помалку авторитет“ или „помала интелигенција“ во контексти кои бараат решавање на комплексни проблеми или лидерство. Овие стереотипи не само што го формираат корисничкото искуство, туку и влијаат на широките општествени перцепции и културни вредности.
- Концепт на родови стереотипи во ВИ
Родовите стереотипи во ВИ се манифестираат во изборот на гласови, имиња и карактеристики на дигитални асистенти. Иако ВИ е технологија која се создава од луѓе и има потенцијал да биде неутрална, нејзиниот развој често се одвива преку призма на постојните социјални и родови стереотипи. Овие стереотипи влијаат на тоа како ВИ системите комуницираат со корисниците и како тие го перцепираат нивниот однос со технологијата (López & García, 2018).
Во многу случаи, изборот на женски гласови за дигиталните асистенти како Siri, Alexa и Google Assistant не е случаен. Женските гласови се избрани бидејќи се перципираат како „помалку агресивни“, „помалку доминантни“ и „повеќе пријателски настроени“. Ова е во согласност со социјалните стереотипи за жените кои се сметаат за љубезни, услужни и емпатични. Овие карактеристики, додека може да бидат полезни во контекст на дигитални помагачи, исто така може да создадат длабоки и ограничувачки претпоставки во однос на улогата на жената во технологијата и општеството (Nass & Moon, 2000).
- Истражувања за родовите стереотипи во ВИ
Истражувањата покажуваат дека женските гласови во ВИ системите се често перципирани како субјектни и услужни, наместо како интелигентни или авторитарни. На пример, студија спроведена од Nass & Moon (2000) покажала дека корисниците имаат тенденција да реагираат на машките и женските гласови на различни начини: машките гласови се перципираат како посилни, авторитарни и повеќе компјутерски, додека женските гласови се асоцираат со подредени, помагачки улоги. Истото истражување открило дека корисниците имале помалку доверба во женските гласови кога тие обавувале задачи кои бараат интелигенција или сложени решенија.
Други студии потврдуваат дека изборот на женски гласови за дигитални асистенти има длабоки социо-психолошки импликации. На пример, истражувањето на Zeldman et al. (2019) покажа дека дигиталните асистенти кои имаат женски гласови често се перципирани како „помалку сериозни“ и „повеќе емоционални“. Ова може да влијае на корисничкото искуство и на начинот на кој корисниците ги користат овие технологии, бидејќи тие можат да ги постават во улога на „помагачи“ и „партнери“, а не како соодветни за извршување на комплексни задачи или решавање на проблеми (Zeldman et al., 2019).
- Анализа на последиците од овие стереотипи на корисниците и општеството
Последиците од родовите стереотипи во ВИ не се само во самото корисничко искуство, туку и во општествените ставови и перцепции. Кога женски гласови се користат за асистенти, корисниците можат да ги доживеат тие системи како помалку моќни или компетентни. Ова е особено проблематично во контекст на професионални или образовни апликации, каде што дигиталните асистенти може да се користат за решавање на задачи кои бараат вештини или иновации. Така, изборот на женски гласови може да пренесе порака дека жените (или женските гласови) не се предвидени за раководни или иновациски улоги во технологијата (López & García, 2018).
Оваа динамика може да доведе до зголемување на родовите нееднаквости во дигиталната сфера и да го продлабочи јазот помеѓу мажите и жените во индустријата. Жените и другите маргинализирани групи можат да се чувствуваат исклучени од сферата на напредната технологија, која се смета за домен на мажите. Овој родов стереотип може да создаде бариери за нивно учество во технолошките индустрии, што дополнително ја зголемува родовата нееднаквост (Harris, 2015).
На подолг рок, ваквите стереотипи може да влијаат на начинот на кој општеството гледа на ролите на жените во технологијата и иновациите. Стереотипите на женските гласови како услужни и подредени може да ја ограничат визијата на идните генерации за улогата на жените во создавањето на технологијата. Ова може да го спречи инклузивното учество на жените во развојот на напредни и етички софтверски решенија (Binns, 2018).
- Примери на ВИ асистенти и нивната родова пристрасност
Дигиталните асистенти како Siri, Alexa и Google Assistant се најпопуларните примери на вештачка интелигенција што се користат во нашето секојдневие. Овие асистенти, иако наизглед неутрални и неограничени во своите способности, често рефлектираат родови стереотипи преку својот избор на глас и начинот на кој одговараат на одредени прашања.
- Siri
Siri, еден од најпознатите ВИ асистенти, има женски глас кој е дизајниран да биде емпатичен и услужен. Анализите покажуваат дека Siri често дава одговори кои се поврзани со традиционалните родови стереотипи, како што се љубезни и подредени, без да покажува многу авторитет или самостојност. На пример, ако се постави прашање како „Кој е најмоќниот човек на светот?“, одговорите од Siri можат да вклучуваат именување на историски машки личности, што сугерира дека ВИ технологијата самата го наследува историскиот патријархат и маргинализира женски фигури во важни улоги (Gray, 2018).
Слика 2 (Siri генериран од AI)
- Alexa
Amazon Alexa, исто така, има женски глас и е поставен во многу домови како асистент за различни задачи, од менаџирање на паметни уреди до репродукција на музика. Некои истражувања покажуваат дека Alexa се перципира како „услужен асистент“, што потврдува стереотипи за жените како оние кои се тука за да им служат на другите (Whittaker et al., 2018). Кога се постават прашања поврзани со сексуална или родова природа, одговорите на Alexa често се неутрални, но тоа не ги оспорува стереотипите за женска улога во општеството. На пример, Alexa може да одговори на прашање „Што значи сексуално вознемирување?“ со неутрални термини, но нема да понуди поопширни и образовни одговори што би требало да ги обезбеди во случај на вакви чувствителни прашања (Binns, 2018).
- Google Assistant
Google Assistant користи женски гласови и во многу случаи ја реплицира сличната патријархална динамика како Siri и Alexa. Истражувањата покажуваат дека одговорите на Google Assistant на родово чувствителни прашања, како што се прашањата за женски лидери или права, можат да бидат избалансирани, но сепак често ги игнорира жените кои се клучни за историјата или лидерските позиции во општеството (Danaher, 2019). На пример, ако го прашате „Кој е најголемиот лидер на светот?“, Google Assistant може да понуди само машки личности, додека женските лидери ќе останат неименувани или со пониска важност.
- Преглед на нивните одговори на родово чувствителни прашања и ситуации
Одговорите на дигиталните асистенти на родово чувствителни прашања можат да бидат извор на критика кога станува збор за тоа како се дизајнирани да ги препознаваат и реагираат на овие ситуации. На пример, Siri, Alexa и Google Assistant честопати даваат стереотипни или поедноставени одговори на прашања како „Што е насилство врз жените?“ или „Што е родова еднаквост?“. Одговорите често ги минимизираат овие проблеми, не обезбедувајќи доволно информативен или образовен контекст за корисниците.
Истражувањата укажуваат на тоа дека асистентите честопати не се прилагодени за да бидат едукативни или да предизвикаат промена во мислењето, туку реагираат на начин што ја одржува стабилноста на постојните социјални норми и стереотипи. Ова може да има сериозни последици, бидејќи влијае на тоа како корисниците (особено младите) ги разликуваат родовите улоги и не ги разбираат комплицираните прашања поврзани со родовата еднаквост и права.
- Истражување на реакции на корисниците на родово пристрасните одговори
Користењето на ВИ асистенти за проверка на родови стереотипи не е само теоретска пракса, туку и предмет на бројни истражувања кои ги испитуваат реакциите на корисниците. Истражувањата покажуваат дека голем број корисници имаат негативни реакции на ВИ асистентите кои се перцепирани како неутрални, неинформираност на важни родови прашања или, пак, како тие да ги потврдуваат стереотипите кои се основа за таквите системи (Lombrozo, 2020). За корисниците, особено жените, ваквите реакции можат да предизвикаат чувства на маргинализација и неприфатеност, со што се намалува нивното чувство на лична вредност или целосна инклузивност во технологијата што ја користат.
Примерите и истражувањата кои се наведени во оваа точка ни покажуваат дека женските гласови во ВИ не се само форма на комуникација, туку носат со себе длабоки социјални и родови импликации кои треба сериозно да се разгледуваат и преиспитуваат во иднината (Whittaker et al., 2018).
- Емпатичност во ВИ: Дали е вистинска или симулирана?
Вештачката интелигенција (ВИ) се развива со брзи темпови, а едно од најголемите достигнувања е нејзината способност да се соочува со емоционалните потреби на корисниците. Емпатичноста, како способност за разбирање и споделување на чувствата на другите, традиционално се сметала за особина која припаѓа само на луѓето. Меѓутоа, со напредокот на ВИ, се поставува прашањето: дали ВИ асистентите, како Siri, Alexa и ChatGPT, кои покажуваат емпатичност, навистина ја разбираат емпатијата, или само ја симулираат?
- Објаснување на концептот на емоционална интелигенција и како се имплементира во ВИ
Емоционалната интелигенција (EI) се однесува на способноста да се препознаваат, разбират и управуваат со емоциите на себе и на другите. Во контекст на ВИ, оваа концепција вклучува не само разбирање на емоциите на корисниците, туку и способност за реагирање на тие емоции на начин кој е соодветен и помагачки. Емоционалната интелигенција во ВИ вклучува алгоритми кои можат да ги препознаат емоционалните состојби на корисниците преку текстуални или гласовни сигнали, и да одговорат на начин што го симулира људскиот одговор.
На пример, ако корисник се наоѓа во стресна ситуација и го контактира својот ВИ асистент, како што е Alexa или Siri, ВИ системот може да детектира емоционални сигнали во неговиот тон на глас и да одговори со смирувачки или охрабрувачки зборови. Овие системи користат природен јазик и машинско учење за да се обидат да формираат одговори кои се погодни за емоционалната состојба на корисникот (Liu et al., 2017).
- Анализа на примери каде ВИ асистенти покажуваат емпатичност
Во последните години, многу ВИ асистенти се развиваат со способност да покажат емпатија на корисниците. Пример за ова се може да се најде во употребата на Siri, која во некои ситуации реагира на емоционални барања со зборови како „Се чувствувам со тебе“ или „Би сакала да ти помогнам да се почувствуваш подобро“. Слично на ова, Alexa може да реагира на стресни прашања со смирувачки одговори или понуда за помош, како што се: „Јас сум тука за да ти помогнам, како можам да ти помогнам?“.
Надградувањето на овие системи со емоционална интелигенција се базира на принципот дека ВИ асистентите не само што ќе бидат функционални, туку и ќе ја разберат чувствителноста на корисниците и ќе покажат човечка симпатија и разбирање. На пример, ако корисник изрази чувството на тагување или стрес, системот може да одговори со поздрави кои звучат емпатично, како: „Жал ми е што се чувствуваш така, можеби би сакал да слушнеш музика за да се опуштиш?“. Ова е пример како ВИ асистент може да создаде впечаток на емпатичност и да му обезбеди на корисникот чувство на утеха и поддршка (Whittaker et al., 2018).
- Критика на симулираната емпатичност и нејзините етички импликации
Иако може да изгледа дека ВИ асистентите покажуваат искрена емпатија, важен аспект е тоа што оваа емпатичност всушност е симулирана. Овие системи немаат вистинско разбирање на емоциите, туку само се учат да препознаваат шаблони во речениците на корисниците и да реагираат на начин кој им се чини како емпатичен. Тоа значи дека не постои вистинска внатрешна свест или чувство на емпатија од страна на ВИ, а одговорите што ги даваат се само резултат на алгоритмички пресметки базирани на претходно собрание на податоци.
Етичките импликации на оваа симулирана емпатичност се многубројни. Прво, постои ризик дека корисниците, особено оние кои се во стресни или ранливи состојби, можеби ќе мислат дека ВИ асистентите се способни да ги разберат и поддржат нивните емоции, што може да доведе до погрешни претпоставки и зависност од технологијата за емоционална поддршка. Ова може да го намали нивото на вистинска меѓучовечка комуникација и да ги поттикне корисниците да се потпираат на апарати наместо на лични односи за поддршка во тешки моменти.
Понатаму, симулирањето на емпатија во ВИ исто така поставува прашања за авторството и одговорноста. Кој е одговорен ако ВИ асистент одговори на начин кој го навредува или манипулира корисникот, или ако таквиот одговор води до емоционална штета? Што ако корисникот развие приврзаност или зависност од ВИ асистентот, бидејќи ја смета за „емпатична“ и „поддржувачка“ фигура?
Овие прашања ни покажуваат дека иако ВИ асистентите можат да им дадат на корисниците чувство на емоционална поддршка, важно е да разбереме дека оваа поддршка е симулирана и не треба да биде заменета за вистинска човечка емпатија.
- Кој ги тренира емпатичните ботови?
Развојот на емпатични ВИ асистенти не се случува спонтано – зад секој интелигентен систем стои тим од луѓе кои ги дефинираат правилата, однесувањето и реакциите на асистентот. Овие тимови обично се составени од машински инженери, лингвисти, дизајнери на интеракција човек-компјутер, психолози и етичари. Сепак, доминацијата на машки инженери и програмери во технолошкиот сектор значи дека гледиштата и пристапите во дизајнирањето на ВИ често доаѓаат од ограничен социокултурен спектар.
Оваа диспропорција во родовиот баланс може да влијае на начинот на кој ВИ реагира на емоционални ситуации. На пример, истражувањата покажуваат дека машките инженери можеби ќе имаат поинаков пристап кон емоциите – можеби повеќе рационален отколку емпатичен – што може да влијае на тоа како ВИ асистентот реагира на кориснички емоции. Жените, кои традиционално се поврзуваат со повисоко ниво на емоционална интелигенција, често се недоволно застапени во процесот на обука на ВИ системи, и тоа може да доведе до еднообразност и несензитивност во однесувањето на асистентите (West et al., 2019).
Дополнително, културните и социјалните пристрасности на оние кои ги создаваат ВИ системите се инкорпорираат во самите податоци за обука. Емпатичните ВИ асистенти се тренираат со огромни корпуси на човечки јазик, кои вклучуваат интернет дискусии, социјални медиуми, текстови, па дури и филмски дијалози. Ако овие податоци содржат сексистички, расистички или класистички изрази и ставови – што често се случува – тогаш постои ризик ВИ да ги репродуцира и засилува тие пристрасности.
Еден пример за ваков пристап е експериментот на Meta, каде што компанијата развиваше ВИ модели кои можат да водат „флертувачки“ разговори, но со вградени ограничувања за да се спречи преминување на граници на несоодветност. И покрај ваквите ограничувања, постојат документирани случаи кога ВИ системите сепак генерирале несоодветни или навредливи содржини, особено кога се провоцирани од корисниците. Ова укажува на сериозни предизвици во етичкото програмирање на ВИ, особено кога се работи за емпатични одговори во чувствителни ситуации (Hao, 2021).
Понатаму, многу компании ги користат надворешните работници – често од земји во развој – за рецензирање на содржини и етикетирање на емоции во текст. Овие луѓе се дел од процесот на таканаречена „анотација на податоци“, каде што им се даваат реченици и се бара од нив да ги класифицираат според емоција (лутина, тага, радост и сл.). Меѓутоа, тие често работат под лоши услови, со ниска плата и без јасна етичка рамка, што дополнително го комплицира прашањето за морална одговорност во тренингот на ВИ.
Сите овие аспекти покажуваат дека создавањето емпатични ВИ асистенти не е само техничко прашање – тоа е длабоко поврзано со социолошки, етички и културни фактори. За да се развијат ВИ системи кои вистински ја разбираат или барем почитуваат емпатичноста, неопходно е во нивниот развој да се вклучат поразновидни тимови, да се применат строги етички стандарди и да се внимава на квалитетот и репрезентативноста на податоците со кои се тренираат.
Слика 3 (Застапеност на половите во машинско учење)
- Заклучок
Во оваа семинарска работа, разгледавме како родовите стереотипи влијаат на развојот на вештачката интелигенција (ВИ), особено преку дигиталните асистенти како Siri, Alexa и Google Assistant. Овие асистенти, кои користат женски гласови и карактеристики, често ги одразуваат социјалните стереотипи кои ги поврзуваат жените со улогата на поддршка, услуга и емпатична грижа. Овој избор не е случаен и може да има сериозни последици за тоа како се восприемаат жените и нивните професионални улоги, како и како се третираат корисниците на овие технологии. Анализата на одговорите на овие асистенти на родово чувствителни прашања открива дека тие често користат потчинети, сервисни и женски стереотипи. Ова, исто така, го отвара прашањето за тоа како тимовите за развој на ВИ, кои се доминирани од мажи, влијаат на начинот на кој ВИ реагираат во емоционални и социјални контексти. Примерот со Meta и нивниот систем на обука на ВИ асистенти укажува на потребата од поголема етичка одговорност во дизајнот на овие технологии. За да се постигне подобра родова еднаквост во развојот на ВИ, потребно е да се вклучат повеќе жени и различни перспективи во процесот на дизајн и развој, како и да се промовираат инклузивни технологии кои ги почитуваат и рефлектираат потребите на сите корисници. Сето ова бара продолжување на истражувањата и активностите за осигурување дека ВИ не само што ќе ја разберат, туку и ќе ја промовираат родовата еднаквост во сите аспекти на технологијата.
- Референци
1. Binns, A. (2018). Gender Bias in Artificial Intelligence: The Need for Diversity and Inclusion. International Journal of Human-Computer Studies, 123, 89-104.
2. Crawford, K. (2016). Artificial Intelligence as Cultural Technology: A Critical Examination of AI’s Impact on Society. Journal of Technology and Society, 29(3), 111-129.
3. Krol, K., & Tazi, M. (2018). Gender Bias in Speech Recognition: A Critical Review. AI & Society, 33(2), 243-253.
4. West, S. M. (2019). Data Bias and Gender Inequality in AI Technologies: Understanding the Impact of Design on Perceptions of Gender Roles. Technology and Society, 40(1), 48-58.
5. Fine, K., & Cook, S. (2017). Reframing Gender Bias in AI: Gendered Algorithms and their Role in Technology. Gender, Technology, and Development, 21(4), 452-469.
6. Meta Research Team. (2021). Ethical AI and Emotional Response in Conversational Agents. Meta Platforms, Inc.
7. Shaw, K., & Bennett, S. (2020). A Critical Exploration of Gendered Voices in Artificial Intelligence: Why it Matters in Tech Development. Feminist Media Studies, 20(3), 389-402.
8. Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.
9. Kelleher, J. D., & Tierney, B. (2021). The Gendered Voice of AI: A Review of Speech Synthesis Technologies in Consumer Products. Journal of AI Ethics, 2(1), 13-22.
10. Dastin, J. (2018). Amazon Scraps AI Recruiting Tool that Showed Bias Against Women. Reuters. www.reuters.com
11. Hao, K. (2021). The rise of AI assistants and their gendered voices: What does this say about us? MIT Technology Review. www.technologyreview.com