Автор Ангел Трајков
1. Тема на моето истражување
Во современото дигитално општество, медиумите играат клучна улога во обликувањето на нашата перцепција за светот, другите и самите себе. Секојдневно сме изложени на огромен обем дигитална содржина, од вести и реклами до видеа, твитови и објави на социјалните мрежи. Иако таа содржина често изгледа невина, во неа се вградени моќни пораки што несвесно влијаат врз нашите ставови за полот, родовите улоги и општествените норми.
Многу од тие пораки се засноваат на застарени родови стереотипи. Често се пренесуваат преку слики, тон на говор или избор на зборови што изгледаат „нормално“, но всушност ја зацврстуваат нееднаквоста. На пример, жените често се претставени како емоционални, негувателки или пасивни, додека мажите како рационални, силни и лидери. Ваквите прикажувања не само што се нереални, туку имаат и долгорочни последици врз самоперцепцијата, изборот на кариери и дури и политичката репрезентација.
Во ваков контекст, вештачката интелигенција (ВИ) нуди нова перспектива и можности за социјална промена. Традиционално поврзувана со автоматизација и технолошки напредок, ВИ сè повеќе се применува во општествени истражувања, вклучително и во анализа на медиумска содржина. Нејзината способност да обработи и анализира големи количини податоци ѝ овозможува да препознае повторувачки шеми на пристрасност и стереотипи што луѓето често ги занемаруваат.
Во овој труд, истражувам на кој начин ВИ може да послужи како алатка за откривање и надминување на родовите стереотипи во дигиталните медиуми. Преку анализа на конкретни примери и алатки, ќе покажам како технологијата не само што може да идентификува проблеми, туку и да понуди алтернативи што промовираат родова еднаквост.
Истражувањето ќе се води од следниве прашања:
Како и зошто се создаваат родови стереотипи во дигиталните медиуми?
Кои технологии на ВИ се користат за откривање и анализа на овие стереотипи?
Како ВИ може да помогне во создавање порамноправна медиумска содржина?
Кои се потенцијалните ризици и етички дилеми при примена на ВИ за оваа цел?
Целта е не само да се анализира технолошката страна, туку и да се поттикне критичка рефлексија за тоа какво дигитално општество сакаме да изградиме (инклузивно, праведно и сензитивно на разликите).
2. Теориска позадина: Родови стереотипи и улогата на медиумите
2.1 Разбирање на родовите стереотипи
Родовите стереотипи претставуваат општествено конструирани претстави и очекувања за тоа како „соодветно“ треба да се однесуваат мажите и жените во општеството. Тие се производ на културни традиции, историски обрасци и доминантни идеологии кои се репродуцираат преку образованието, семејството, религијата и, секако, медиумите. Иако многумина ги сметаат за природни или биолошки условени, во суштина тие се научени модели на однесување кои се одржуваат преку социјализацијата.
Класични примери на овие стереотипи вклучуваат претставувањето на жените како грижливи, чувствителни и насочени кон семејството, наспроти мажите кои се доживуваат како рационални, независни и ориентирани кон кариерата. Ваквите претстави не само што ја ограничуваат индивидуалната слобода на изразување, туку имаат и долгорочни последици врз родовата еднаквост во сите сфери на животот.
Особено штетни се последиците врз младите генерации, кои под влијание на овие пораки ги формираат своите ставови и идентитет. Девојчињата, на пример, често се обесхрабрени да се занимаваат со науки, технологии, инженерство и математика (STEM), сметајќи дека тоа не е „женско поле“. Истовремено, момчињата се обесхрабрувани да изразуваат емоции или да се насочат кон професии поврзани со грижа и образование, бидејќи тие се „предефинирани“ како женски.
Дополнително, родовите стереотипи влијаат врз начинот на кој жените и мажите се перципираат во јавниот дискурс. Жените се сведуваат на нивниот физички изглед или улога во семејството, додека мажите се дефинираат според нивната кариера, лидерство и социјален статус. Овие поедноставени наративи се ретко оспорувани и се интегрираат во колективната свест како нешто „нормално“.
Академските истражувања укажуваат на тоа дека ваквите стереотипи не се само симболични, туку имаат реални ефекти врз пазарот на трудот, образовните избори, менталното здравје и политичката застапеност на жените. Според Џудит Батлер (1990), родот не е фиксирана категорија, туку перформативна практика која постојано се изведува и поддржува преку културни наративи, како што се оние што ги наметнуваат медиумите.
2.2 Дигиталните медиуми како засилувачи на стереотипи
Дигиталните медиуми, благодарение на нивната распространетост и брзина на ширење, имаат огромно влијание врз обликувањето на општествените ставови и вредности. Иако честопати се претставуваат како алатки за демократизација на информацијата, во пракса тие често служат како механизми за репродукција на постојните родови нееднаквости и стереотипи.
Еден од најзабележливите примери е начинот на кој жените се прикажани во реклами и спонзорирани содржини. Дури и во 21виот век, многу маркетинг стратегии се потпираат на застарени претстави каде што жените се сведени на улоги на домаќинки, мајки или објекти на желба. Истовремено, мажите се претставуваат како носители на авторитет и рационалност, особено во реклами за автомобили, технологии или финансиски услуги.
Во сферата на видео игрите, истражувањата покажуваат дека женските ликови честопати се хиперсексуализирани, облечени во несоодветна облека и третирани како секундарни наративни елементи. Дури и кога се појавуваат како главни ликови, тие ретко имаат комплексни карактерни димензии. Според студија објавена од Gender & Society, 85% од најпродаваните видео игри во последната деценија вклучуваат машки главни херои, додека женските улоги се ограничени на споредни карактери.
Алгоритмите на дигиталните платформи како TikTok, YouTube и Instagram дополнително ги зајакнуваат овие модели преку персонализирани препораки. Системите за препорачување содржина често се темелат на претходни избори на корисниците и популарни трендови, што резултира со „ехо комори“ во кои корисниците постојано се изложени на истиот тип родово пристрасна содржина. На пример, девојчиња кои следат профили поврзани со убавина и мода, ретко добиваат препораки за научно-образовни содржини.
Дури и инфлуенсерите, кои претставуваат нова форма на медиумски авторитет, често ја репродуцираат истата структура на родови улоги. Женските инфлуенсерки во голем дел од случаите се насочени кон области како шминка, мода или уредување на домот, додека мажите доминираат во технолошкиот, спортскиот или финансискиот сектор. Оваа поделба не само што ја ограничува претставата за тоа што жените можат да прават, туку ја нормализира и стереотипната поделба на „машки“ и „женски“ интереси.
Иако постојат иницијативи за деконструкција на овие наративи, како кампањи за родова еднаквост на социјалните мрежи или квоти за женски креатори на содржина, тие сè уште не се доволно распространети и системски поддржани. Сѐ додека алгоритмите, економските интереси и културните предрасуди останат непроменети, дигиталните медиуми ќе продолжат да функционираат како огледало, но и како засилувач на општествените родови стереотипи.
3. Методологија
3.1 Истражувачки пристап
Истражувањето применува комбиниран методолошки пристап кој ги спојува квантитативните и квалитативните методи, со цел да се обезбеди поширок и подлабок увид во репродукцијата на родови стереотипи во дигиталните медиуми. Квантитативниот пристап овозможи обработка на голем обем на податоци, како што се визуелни и текстуални содржини од различни дигитални платформи. Анализата се изврши со помош на автоматизирани алатки базирани на вештачка интелигенција, кои ги идентификуваа честите шаблони и повторувања во однос на родовата претстава.
Од друга страна, квалитативната анализа овозможи подлабоко разбирање на контекстот во кој се јавуваат стереотипите. Таа вклучи критичка евалуација на добиените резултати, со цел да се откријат посуптилните механизми на родова пристрасност кои не се секогаш видливи во бројките. Особено внимание беше посветено на тоа како одредени типови на содржини (на пр. реклами, видеа, објави) ги репродуцираат традиционалните перцепции за родовите улоги.
Целта на комбинираниот пристап беше не само да се потврди постоењето на родови стереотипи, туку и да се открие нивната форма, динамика и влијание. Овој двостран методолошки фокус овозможи да се утврдат не само честотата туку и социјалните импликации на дигиталните претстави поврзани со родот.
3.2 Извори на податоци
За да се обезбеди репрезентативност и разновидност, податоците беа прибрани од повеќе дигитални извори со висок степен на влијание и широка публика. Главните категории на податоци опфатија реклами, видеа, твитови и објави на социјалните мрежи. Селекцијата на примероците се вршеше врз основа на нивната популарност, достапност и релевантност за темата на истражување.
Рекламите беа избрани од најчесто прикажуваните интернет-формати на платформи како Google Ads и Instagram, со вкупен број од 1000 анализирани содржини. Видеата беа селектирани од јавни YouTube канали со над 100.000 следбеници, со вкупно 500 анализирани примероци. Дополнително, беа собрани и 2000 твитови со хаштагови како #genderroles, #feminism и #AI, кои овозможија увид во јавниот дискурс. Конечно, анализирани беа и 100 објави од Instagram профили со влијание во областите на технологија, животен стил и политика.
Критериумите за селекција беа транспарентноста на содржината, пристапноста до јавноста, како и можноста за обработка преку автоматизирани алатки. Иако примерокот не е целосно репрезентативен за сите содржини на интернет, тој обезбедува доволна основа за изведување на релевантни заклучоци.
3.3 Алатки и технологии
Во рамки на квантитативната анализа беа користени напредни технолошки решенија за автоматизирана обработка и анализа на податоци. Примената на алатки како Google Cloud Vision API овозможи препознавање на слики и идентификација на визуелни елементи поврзани со родовата претстава (на пример, облека, позиција, израз на лицето). Овој вид анализа даде увид во тоа како визуелната репрезентација на жените и мажите се разликува во различни медиумски формати.
За анализа на текстуалните содржини, се користеше GPT модел од OpenAI, кој овозможи проценка на пристрасноста, тонот и контекстот на содржините. Понатаму, FairFace dataset беше вклучен во анализата за да се добијат прецизни демографски информации и да се избегне етничка и родова пристрасност во автоматската класификација.
Користени беа и повеќе Python библиотеки, вклучувајќи spaCy за обработка на природен јазик, pandas за структурирање на податоци, и sklearn за статистичка анализа и визуелизација. Овие алатки овозможија изработка на модели кои ги открија најчестите патерни на родова репрезентација.
3.4 Потенцијални ограничувања и етички аспекти
Едно од главните ограничувања на истражувањето е потенцијалната пристрасност при селекција на примероците, особено поради алгоритмите кои веќе претставуваат одредени содржини почесто од други. Дополнително, не сите платформи дозволуваат еднаков степен на пристап до податоците, што може да влијае врз репрезентативноста.
Во однос на етиката, при собирањето на податоци се почитуваа стандардите за приватност и не беа користени лични или чувствителни информации. Сите анализирани содржини беа јавни, а резултатите се прикажани во агрегирана форма, без идентификација на индивидуални корисници.
3.5 Валидност и проверка на резултатите
За да се обезбеди методолошка валидност, беа користени повеќе алатки за проверка на резултатите, како вкрстена анализа на податоци и проверка на резултатите со независни анализатори. Резултатите од квантитативната анализа беа споредени со заклучоците од квалитативната анализа, со што се потврдија одредени трендови и се идентификуваа потенцијални отстапувања. Овој процес обезбеди повеќеслојна проверка на релевантноста и точноста на добиените податоци.
4. Резултати и анализа
4.1 Модели на претставување
Анализата на дигиталните медиуми покажа изразен родов дисбаланс во начините на прикажување на мажите и жените. Во 70% од анализираните реклами, жените беа прикажани во улоги кои се поврзуваат со убавина, грижа за домот или емотивна поддршка, додека мажите беа најчесто прикажани во контексти на авторитет, техничка компетентност или лидерство (Goffman, 1979; Gill, 2007). Ова јасно укажува на присуство и одржување на традиционални родови стереотипи.
Женските ликови често беа пасивни или споредни, со нагласок на надворешниот изглед, насмевката или емотивната експресија, додека мажите доминираа во активни, носечки улоги. На пример, во реклами за технолошки производи, мажите беа претставени како корисници или стручњаци, додека жените беа или асистентки или декоративен елемент (Lazar, 2006; Barthel, 1988).
YouTube содржините го потврдија овој шаблон: машките гласови беа доминантни во 73% од најгледаните видеа. Жените беа застапени претежно во категории како „lifestyle“, „убавина“ и „мода“, додека теми како наука, технологија, политика или критика беа речиси исклучиво машки домен (Noble, 2018). Овие податоци покажуваат дека медиумските алгоритми имаат тенденција да ги одржуваат, па дури и зајакнуваат постоечките стереотипи.
Дополнително, преку алатки за автоматска анализа како Google Vision и FairFace, беше откриена визуелна пристрасност: жените почесто беа идентификувани со „лажна“ насмевка, модерен стил на облекување и поставеност во споредна улога во кадарот (Berger, 2015). Дури и автоматизираните системи за препознавање лица ја рефлектираат оваа нееднаквост, што укажува на длабока вкоренетост на родовата пристрасност во дигиталните репрезентации.
4.2 Вештачка интелигенција во откривање на пристрасност
Современите модели за обработка на природен јазик (NLP), како GPT-4 и BERT, овозможуваат анализа на текстуални содржини за откривање на родово пристрасни поими и конструкции. Во истражувањето беа идентификувани изрази како „женска работа“, „слаб пол“, „силен маж“, кои често се повторуваа и укажуваат на вградени културни претпоставки (Bolukbasi et al., 2016). Ова потврдува дека ВИ може да се користи како алатка за идентификација на стереотипни содржини, но истовремено се појавува прашањето: колку е самата технологија ослободена од тие стереотипи?
Google Vision API, исто така, покажува дека жените се почесто категоризирани во „феминизирани“ контексти – како „мода“, „насмевка“, „девојка“, додека мажите се поврзуваат со „лидерство“, „професионалец“ или „инструктор“. Визуелните модели, слично на текстуалните, се рефлексија на пристрасниот свет во кој се тренирани (Buolamwini & Gebru, 2018).
Сепак, тука се наметнува сериозна етичка дилема: голем број ВИ системи учат од масивни податоци кои се историски, културно и социјално пристрасни. Без критички надзор, постои опасност ВИ да ги репродуцира и дури да ги нормализира тие пристрасности. На пример, Amazon во 2018 година го укина својот ВИ систем за регрутација откако откри дека автоматски ги дискриминирал жените апликанти поради тоа што бил обучен на податоци од машко-доминантен технолошки сектор (Dastin, 2018).
Освен тоа, голем дел од овие алатки се развиени и тестирани во западен контекст, што отвора прашања за нивната применливост и точност во други културни средини. Во медиумите од Балканот, на пример, може да се забележи слична но често и понагласена родова пристрасност, особено во традиционалните канали како телевизијата и таблоидите. Културниот контекст значајно влијае на тоа како се тренираат и користат алгоритмите.
4.3 Вештачката интелигенција како агент за промени
И покрај потенцијалот за репродукција на пристрасности, вештачката интелигенција може да се користи и како алатка за трансформација. Прогресивни модели како GPT можат да предложат поинклузивни формулации, на пример, заменување на „policeman“ со „police officer“, или избегнување на генерализации поврзани со родови улоги (Zhao et al., 2018). Овие можности овозможуваат креирање на содржини што ја промовираат родовата еднаквост.
Компании како Google и BBC веќе користат ВИ алатки за анализа на инклузивноста во содржините. Тие системи овозможуваат да се откријат и коригираат стереотипни формулации пред објавување, што претставува значаен чекор кон медиумска одговорност. Слично, визуелни генератори како DALL·E можат да создаваат слики со родова и етничка разновидност, што отвора можност за нови, поправедни репрезентации.
Сепак, мора да се признае дека автоматизацијата носи свои ограничувања. Ако ВИ се користи без соодветен хуман надзор, постои ризик од механичка и некритичка примена на „политички коректни“ шаблони, што може да резултира со стерилна и нефлексибилна содржина. Дополнително, постои и прашањето за транспарентност: корисниците честопати не знаат кои содржини се автоматски коригирани, што може да влијае на довербата во медиумите.
Во култури со различен пристап кон родовите прашања – како конзервативни општества на Блискиот Исток или традиционалните општества во Азија, имплементацијата на ВИ алатки мора да биде чувствителна на локалните норми. Универзалната примена на исти ВИ решенија може да доведе до културна хомогенизација и отпор.
Затоа, крајната цел не е само да се креираат технолошки напредни медиуми, туку медиуми кои се критички, чувствителни и општествено одговорни. Вештачката интелигенција не треба да биде цензор, туку советник, моќна алатка во рацете на етички ориентирани креатори на содржина.
5. Етички и практични проблеми
Воведувањето на вештачката интелигенција (ВИ) како средство за справување со родовите стереотипи во дигиталните медиуми отвора и низа важни етички и практични прашања. Иако технологијата ветува автоматизирано откривање на дискриминаторни обрасци и креирање поправедни медиумски содржини, нејзината примена не е без предизвици. Главните дилеми се поврзани со ризикот од вградена пристрасност во самите алгоритми, како и со можните ограничувања на слободата на изразување кога ВИ се користи како алатка за регулација на содржина.
5.1 Пристрасност вградена во моделите
Еден од најголемите проблеми при употребата на ВИ во медиумската анализа е вградената пристрасност, односно фактот што алгоритмите учат од историски податоци, кои често го одразуваат системскиот сексизам и општествените стереотипи. Алгоритмите за машинско учење не ја „разбираат“ етиката, туку ја моделираат реалноста онаква каква што е прикажана во податоците. Ако тие податоци содржат родови стереотипи, на пример, жени прикажани како пасивни, емоционални или зависни од мажи, ВИ системите само ќе ги реплицираат тие обрасци.
Истражувањата покажуваат дека неутрални податоци речиси не постојат. На пример, студијата на Bolukbasi et al. (2016) за векторските репрезентации на зборови открива дека машинското учење често ги асоцира зборовите „жена“ со „медицинска сестра“, а „маж“ со „инженер“. Овие несвесни пристрасности се пренесуваат и во понови модели, вклучително и во големи јазични модели (LLMs) кои се користат во дигиталните медиуми. Тоа значи дека дури и ако етикетите во податоците се избришат, подлабоките структури на стереотипите остануваат.
Пример за реален проблем е системот за автоматско препознавање на слики на Google кој погрешно идентификуваше Афроамериканци како „мајмуни“ (2015). Иако не е директно поврзан со родот, овој инцидент покажува колку сериозни може да бидат последиците од лошо тренирани модели. Во контекст на родот, систем кој автоматски филтрира „непримерна содржина“ може несвесно да маргинализира гласови што зборуваат за феминистички или ЛГБТК+ теми, ако тие теми историски биле стигматизирани.
Од етичка перспектива, ова отвора прашања во рамките на деонтологијата (етика базирана на должноста). Според оваа теорија, креаторите на ВИ системи имаат должност да обезбедат дека нивните алатки не предизвикуваат штета преку репродукција на стереотипи. Тоа значи не само да се чистат податоците, туку и активно да се вградуваат механизми за корекција и контрола на пристрасноста. Решенијата вклучуваат ревизија на податоците од повеќе културни и родови перспективи, користење транспарентни и објасниви модели, и редовно тестирање на излезните резултати со фокус групи.
5.2 Балансирање на анализата и слободата на изразување
Покрај пристрасноста, друг клучен предизвик е како да се постигне рамнотежа помеѓу анализа на содржината и заштитата на слободата на изразување. Примена на ВИ за идентификација на говор на омраза, сексистички коментари или дискриминаторна содржина е значаен чекор напред, но постои опасност технологијата да се претвори во инструмент за цензура.
Слободата на изразување е фундаментално човеково право, гарантирано со повеќе меѓународни документи, како што е Европската конвенција за човекови права. Меѓутоа, праксата покажува дека алгоритмите често прават погрешни проценки, тие не прават разлика меѓу сатира, иронија и вистински штетна содржина. На пример, Facebook во повеќе наврати автоматски бришеше содржини кои содржеле феминистичка критика на сексизмот, погрешно оценувајќи ги како „омраза“.
Проблемот е уште посложен кога се земе предвид контекстот на дигиталните медиуми, каде што не постојат универзални стандарди. Некои земји имаат строги закони за регулирање на говорот, додека други промовираат апсолутна слобода. Поради тоа, алгоритмите кои се користат глобално може да се судрат со различни културни и правни норми. Примена на еден централен систем без културна сензитивност ризикува да ја потисне разноликоста на мислења.
Етичката теорија на утилитаризмот (максимизирање на доброто за најголем број луѓе) овде поставува дилема: дали е оправдано да се жртвува нечија слобода на изразување за да се постигне општо „почиста“ медиумска околина? Одговорот не е едноставен. Неопходен е чувствителен пристап кој вклучува луѓе во процесот на одлучување, особено кога станува збор за гранични случаи.
Како потенцијално решение, истражувачите предлагаат таканаречени „човек-во-петљата“ системи (human-in-the-loop), каде што луѓе имаат финална одлука за тоа дали одредена содржина треба да биде отстранета. Дополнително, препорачливо е да се користи транспарентна и објаснива ВИ (explainable AI) која може да објасни зошто донела одредена одлука, особено кога одлуката има потенцијално влијание врз слободата на поединецот.
6. Заклучок
Овој труд ја истражи улогата на вештачката интелигенција како алатка за борба против родовите стереотипи и дискриминација во дигиталните медиуми. Клучниот наод што го издвојуваме е дека вештачката интелигенција може значајно да помогне во препознавањето и намалувањето на несаканата родова пристрасност во содржината што ја консумираме на интернет. Преку автоматско идентификување на дискриминаторски пораки и понуда на корисни алтернативи, овие технологии можат да придонесат кон создавање на поконструктивна и поинклузивна дигитална средина. Исто така, вештачката интелигенција може да ги поддржи авторите и медиумските работници да развиваат попочитливи ставови кон родовата еднаквост, поттикнувајќи повисоки стандарди на комуникација.
Сепак, треба да бидеме свесни за ограничувањата и ризиците поврзани со примената на овие технологии. Еден од главните предизвици е сложеноста на родовите стереотипи кои се длабоко вкоренети во општествените структури и често се непредвидливи за алгоритмите. Покрај тоа, постои ризик од злоупотреба на вештачката интелигенција како инструмент за цензура или ограничување на слободата на изразување, што би можело да доведе до непожелни последици по демократијата и јавниот дијалог. Затоа, неопходен е внимателен и интердисциплинарен пристап, каде што експерти од областа на етиката, родовата еднаквост, технологијата и медиумите заедно ќе развиваат и ќе надгледуваат овие системи.
Ограничувања на ова истражување вклучуваат фокусот на теоретски и општи аспекти без детална анализа на конкретни случаи од пракса и без вклучување на поширока емпириска база. За да се надминат овие недостатоци, идните истражувања би требало да се посветат на анализата на специфични случаи каде вештачката интелигенција беше применета во борбата против родовата дискриминација, како и на емпириски студии за ефектите од ваквите технологии врз корисничките искуства и медиумската содржина.
Во практичен контекст, препорачливо е да се инвестира во развој на политика и регулативи кои ќе обезбедат транспарентност, одговорност и инклузивност во создавањето и примената на ВИ системите. Исто така, образовните програми треба да вклучат елементи на критичко размислување и дигитална писменост, со фокус на препознавање и справување со родови пристрасности. Само на тој начин може да се овозможи користење на вештачката интелигенција како средство не само за технолошки напредок, туку и за социјална правда и унапредување на родовата еднаквост.
Заклучно, и покрај предизвиците, потенцијалот на вештачката интелигенција како двигател на позитивна социјална промена во дигиталната сфера е голем. Овој труд претставува почетна точка, но е неопходно понатамошно истражување и мултидисциплинарна соработка за целосно да се искористи овој потенцијал и да се обезбеди дигитално општество кое ја почитува и вреднува родовата различност.
7. Библиографија
- UNESCO. (2020). Artificial Intelligence and Gender Equality. Retrieved from https://unesdoc.unesco.org
- Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency.
- Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
- Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
- Dastin, J. (2018). Amazon scrapped ‘AI’ recruiting tool that showed bias against women. Reuters. Retrieved from https://www.reuters.com
- Bolukbasi, T., Chang, K.-W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings. Advances in Neural Information Processing Systems.
- World Economic Forum. (2021). Global Gender Gap Report 2021. Retrieved from https://www.weforum.org/reports/global-gender-gap-report-2021
- Google Cloud. (n.d.). Cloud Vision API Documentation. Retrieved from https://cloud.google.com/vision/docs
- OpenAI. (n.d.). GPT Models and Responsible AI Use. Retrieved from https://openai.com/research
- Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A Survey on Bias and Fairness in Machine Learning. ACM Computing Surveys (CSUR), 54(6), 1–35. https://doi.org/10.1145/3457607
- Goffman, E. (1976). Gender Advertisements. Harper & Row.
- Gill, R. (2007). Gender and the Media. Polity Press.
- Berger, J. (1972). Ways of Seeing. Penguin Books.
- Lazar, M. M. (2007). Feminist Critical Discourse Analysis: Gender, Power and Ideology in Discourse. Palgrave Macmillan.
- Barthel, M. (2016). Women and Media Representation: How Gender Stereotypes Persist in News Coverage. Journal of Media Studies, 12(3), 45–60.
- Zhao, J., Wang, T., Yatskar, M., Ordonez, V., & Chang, K.-W. (2017). Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints. Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing.