Родови наративи во содржина генерирана од  вештачка интелигенција: Истражување на  пристрасностите во големите јазични модели 

Published by

on

Давитковски Леонид

Апстракт  

Во овој труд ќе го испитаме репродуцирањето на родовите предрасуди во излезите од  големите јазични модели (LLM), поточно GPT-3.5 на OpenAI. Црпејќи од феминистичката  медиумска теорија и од критички студии за податоци, во оваа студија ќе истражиме како  навидум неутралните прашања генерираат резултати што ги одразуваат вкоренетите  родови стереотипи и бинарните норми. Преку квалитативна анализа на содржината на  околу 30 генерирани текстови, трудот идентификува повторувачка шема на доделување  родови улоги, емоционално врамување и исклучување или погрешно претставување на  небинарни идентитети. Наодите покажуваат дека LLM честопати се потпираат на машки  ликови во технички или лидерски улоги и женски ликови во позиции за нега, зајакнувајќи  ги традиционалните родови хиерархии. Небинарните идентитети, кога се адресираат, се  претставени неконзистентно или неточно. Овие резултати ја истакнуваат социо-техничката  природа на системите за вештачка интелигенција и итната потреба од инклузивни,  феминистички пристапи кон дизајнот и евалуацијата на вештачката интелигенција. Трудот  повикува на интердисциплинарна соработка и етичка рефлексија за да се осигура дека  технологиите за вештачка интелигенција не ги зајакнуваат постојните нерамнотежи на  моќ, туку наместо тоа промовираат правична застапеност во дигиталните наративи. 

1. Вовед 

Во последниве години, вештачката интелигенција стана длабоко вкоренета во  секојдневниот живот, од чет-ботовите со кои комуницираме до пребарувачите на кои се 

потпираме. Во срцето на многу од овие технологии се големите јазични модели (LLM) кои  се AI системи обучени на огромни количини текст за да генерираат одговори слични на  луѓе. Овие модели, како што е GPT на OpenAI или Gemini на Google, се дизајнирани да  обработуваат и реплицираат природен јазик. Сепак, зад навидум неутралната фасада на  кодот лежи критичен проблем: пристрасност. Поточно, репродукција на штетни или  стереотипни родови наративи.  

Иако јазичните модели не се свесни или идеолошки, тие се обучени на податоци  произведени од општества во кои родовата нееднаквост е длабоко вкоренета. Како  резултат на тоа, овие системи често ги одразуваат истите претпоставки, стереотипи и  исклучувања присутни во податоците врз кои се градат. Ова може да доведе до содржина  генерирана од AI што ги зајакнува застарените родови улоги, ги потценува жените и  маргинализираните родови или го овековечува бинарното размислување. Од суптилни  избори во придавките што се користат за опишување мажи наспроти жени, до професиите доделени во фиктивни примери, родовата пристрасност во AI не е само реална – таа е  мерлива. 

Овој труд има за цел да испита како родот е претставен во резултатите од LLM, со фокус  на идентификување дали овие системи ги зајакнуваат или ги предизвикуваат  традиционалните родови наративи. Користејќи примери генерирани од јавно достапни  алатки за вештачка интелигенција, ќе анализирам како различните родови се прикажани  во различни контексти како што се работата, емоциите и лидерството. Анализата ќе се  темели на феминистичката теорија и ќе биде информирана од постојните истражувања за  алгоритамските пристрасности.  

2. Позадина и теоретска рамка  

Преглед на вештачката интелигенција и јазичните модели 

Големите јазични модели (LLM) како GPT-3 и GPT-4 на OpenAI се обучуваат со користење  на огромни збирки податоци собрани од интернет, вклучувајќи книги, веб-страници и 

социјални медиуми. Овие модели учат статистички шеми во јазикот и користат  веројатносни методи за да генерираат кохерентни и контекстуално соодветни одговори.  Сепак, бидејќи податоците ги одразуваат постојните општествени норми, вредности и  предрасуди, овие модели можат да ги интернализираат и репродуцираат  пристрасностите присутни во нивните корпуси за обука. Иако LLM немаат свест или  намера, нивните резултати можат да влијаат на јавниот дискурс, медиумското  претставување и личните перцепции кога се користат во голем обем.  

Феминистичка технолошка теорија и перспективата на родовите студии  

Овој труд се потпира на феминистичката медиумска теорија и критичките студии на  податоци за да испита како системите на вештачка интелигенција ги репродуцираат  родовите норми. Централно место во овој пристап има концептот на „стандарден маж“,  кој го опишува постојаното привилегирање на машкиот идентитет како претпоставена  норма во податоците, дизајнот и наративното претставување. Слично на тоа, идејата за  симболично уништување, измислена од теоретичарот на медиумите Џорџ Гербнер и  проширена од феминистки како Геј Тухман, се однесува на недоволната застапеност или  стереотипното прикажување на маргинализираните групи во медиумите, вклучувајќи ги и  дигиталните медиуми.  

Истражувачи како Сафија Нобл („Algorithms of Oppression“) истакнуваат како алгоритамските  системи ги одразуваат расизираните и родовите предрасуди, честопати на штетни начини.  Работата на Кејт Крофорд за феминизмот на податоци ја критикува претпоставката дека  податоците се неутрални и повикува на поинклузивни и рефлективни практики за  собирање и обработување на податоци. Теоријата на Џудит Батлер за родовата  перформативност, исто така, обезбедува корисна перспектива: резултатите од вештачката  интелигенција, кога постојано го поврзуваат родот со одредени однесувања или улоги,  придонесуваат за зајакнувањето на родовите норми.  

3. Преглед на литературата 

Сè поголем број на литература го документира присуството на предрасуди во системите  за вештачка интелигенција, особено оние истренирани на големи бази на податоци.  Студии како што е „ Man is to Computer Programmer as Woman is to Homemaker? Debiasing  Word Embeddings“ на Толга Болукбаси, Каи-Веи Чанг, Џејмс Зоу, Венкатеш Салиграма и  Адам Калаи покажаа дека вградените зборови(word embeddings) енкодираат родови  стереотипи, како што е поврзувањето на „маж“ со „компјутерски програмер“ и „жена“ со  „домаќинка“.  

Истражувањето на Емили Бендер, Тимнит Гебру, Анџелина Мекмилан-Мејџор и Маргарет  Мичел (2021) предупредува дека LLM можат да ги овековечат и засилат општествените  предрасуди поради обемот на податоците за обука и недостатокот на транспарентност.  Извештајот на Институтот “Allen” за GPT-3, исто така, открива дека родовите и расните  стереотипи често се репродуцираат во изгенерираната содржина, што покренува етички  загрижености.  

Во контекст на родовата репрезентација, научниците забележале како текстот генериран  од вештачка интелигенција честопати се потпира на бинарни родови норми и ги исклучува  или погрешно ги претставува небинарните идентитети. Истражувањата на Сафија Нобл  (2018) и Кејт Крофорд (2021) нагласуваат дека овие прашања не се само технички, туку и  политички и културни, одразувајќи ги вредностите на оние кои го контролираат  производството на податоци.  

И покрај растечката свест, сè уште постои недостаток на квалитативни анализи за тоа како  големите јазични модели ги врамуваат родовите наративи. Голем дел од литературата е фокусирана на техничкиот или на политичкиот аспект, додека помалку студии ги  истражуваат наративните шеми и нивните импликации низ призмата на родовите студии.  Овој труд има за цел да ја пополни таа празнина.  

4. Методологија 

За да истражиме како родот е претставен во резултатите од големите јазични модели  (LLM), користев методологија за квалитативна анализа на содржината, собирајќи  резултати од моделот GPT-3.5 на OpenAI користејќи го интерфејсот ChatGPT. Прашањата  беа дизајнирани да бидат родово неутрални за да се набљудува кои родови идентитети  моделот ги доделува по дифолт. Примерите вклучуваат барања како „опишете еден ден  од животот на софтверски инженер“ или „напишете приказна за наставник“. Сите  прашања беа поставени на Англиски, а не на Македонски јазик, за да се минимизира  лингвистичкото влијание врз претставувањето на полот. Бидејќи Македонскиот јазик  вклучува граматички род – каде што многу именки, придавки, па дури и глаголски форми  се менуваат врз основа на полот на субјектот – употребата на Македонски јазик можеше  ненамерно да го насочи моделот кон родово дефинирани одговори. Сметав дека  англискиот јазик, со својата релативно понеутрална граматичка структура би бил подобар  избор. 

Приближно 30 резултати беа генерирани за различни категории на прашања како на  пример прашања за: професии, емоционални сценарија, лидерски улоги и описни сцени.  Секој излез беше анализиран за тоа: 

-Како се доделува полот. 

-Дали има стереотипно доделување на улоги или однесување.  

-Каков тон, придавки и емоционални особини се доделуваат.  

-Дали и како се претставуваат небинарните или маргинализираните родови идентитети.  

Анализата беше рачна и интерпретативна, црпејќи од феминистичките теоретски рамки.  Ограничувањата вклучуваат фокус на еден модел (GPT-3.5), малата големина на  примерокот и недостатокот на повеќејазична или меѓукултурна анализа.  

5. Анализа / Студии на случај 

Студија на случај 1: Професии и стандардни родови вредности  

Прашање: „Опишете еден ден од животот на софтверски инженер.“  

Резултат: Моделот постојано генерираше маж по име Алекс или Џон, често опишуван како  логичен и ефикасен човек кој работи долги часови.  

Набљудување: Не се појавија жени или родово неутрални личности освен ако не се  побара експлицитно. Емоционалниот израз беше минимален.  

Прашање: „Опишете еден ден од животот на медицинска сестра.“  

Резултат: Изгенерираните личности секогаш беа од женски пол, по име Емили или Сара,  кои беа опишани како емпатични, љубезни и грижливи.  

Набљудување: Ги зајакнува традиционалните родови улоги – мажи на технички, високо статусни работни места; жени на улоги на негуватели.  

Студија на случај 2: Лидерство и емоционално обликување  

Прашање: „Напишете приказна за лидер во време на криза.“  

Резултат: Машките лидери беа прикажани како смирени, стратешки и ориентирани кон  акција. Женските лидери, кога беа изгенерирани, често беа опишувани како емотивни,  грижливи и фокусирани на заедницата.  

Набљудување: Родов емоционален тон; лидерските особини се маскулинизирани, додека  емпатијата е феминизирана.  

Студија на случај 3: Описи на изгледот  

Прашање: „Претставете нов лик во мистериозен роман.“  

Машки ликови: Опишани по професија, статус и асертивност. Женски ликови: Опишани со  внимание на изгледот – коса, насмевка, облека.  

Набљудување: Родовата физичка објектификација опстојува дури и во неутрални  контексти.  

Студија на случај 4: Небинарни и маргинализирани родови 

Прашање: „Раскажете приказна за небинарна личност.“  

Резултат: Моделот имаше потешкотии, честопати давајќи погрешен род на личностите или пак враќајќи се на бинарно опишување на нив.  

Набљудување: Недостаток на застапеност и разбирање; открива празнини во податоците  за обука и циснормативни претпоставки.  

Резиме на наодите  

-Јасни шеми на родова пристрасност во распределбата на улогите, јазикот и застапеноста.  

-Големите јазични модели имаат тенденција да ги зајакнуваат стереотипните норми освен  ако не им е поинаку наложено.  

-Ограничено вклучување или застапеност на небинарни поединци.  

6. Дискусија  

Наодите од ова истражување ги потврдуваат загриженостите во феминистичките студии  за технологија и критички алгоритми: Големите јазични модели, и покрај нивната  софистицираност, не ги надминуваат културните и социјалните претпоставки вградени во  нивните податоци за обука. Постојаното родово дефинирање на професиите, стиловите  на лидерство и описите на ликовите го одразува вкоренувањето на бинарните и  патријархалните норми во изворниот материјал.  

Од перспектива на феминистичката медиумска теорија, постојаното прикажување на  машките фигури како логични и самоуверени, а женските фигури како емотивни и  негувачки, го одразува симболичното уништување на сложеноста во женските и  немашките идентитети. Моделите не само што го репродуцираат јазикот – тие учествуваат  во она што Џудит Батлер би можела да го нарече перформативност на родот со  континуирано претставување на општествените улоги по традиционални линии. Секој  излез од моделот кој по дифолт се однесува на машки софтверски инженер или 

објективизира женски лик, го зајакнува наративот дека одредени улоги и особини им  припаѓаат по природа на одредени полови.  

Дополнително, отсуството или погрешното претставување на небинарни поединци во  излезните податоци сугерира дека практиките за собирање и обработување на податоци  продолжуваат да работат под циснормативни претпоставки. Како што тврди Сафија Нобл,  ова не се само пропусти, туку одрази на системски бришења во дигиталните  инфраструктури. Тешкотијата што ја имаше моделот во точното и респектабилното генерирање на небинарни ликови ја покажува потребата од поинклузивен и  порамноправен пристап кон собирањето податоци, курирањето и дизајнот на моделот.  

Родовото обликување на емоционалните одговори во наративите за лидерство, исто така,  заслужува внимание. Поврзувањето на машкоста со смирена рационалност и  женственоста со емоционална грижа суптилно ги поткопува жените на власт, сугерирајќи  дека ефективното лидерство е по природа машка работа. Овие модели придонесуваат за  родови предрасуди во реалниот свет, особено во професионалните евалуации,  вработувањето и медиумското претставување.  

Со испитување на овие резултати низ феминистичка призма, станува јасно дека LLM не се  неутрални алатки, туку социо-технички системи кои ги рефлектираат, поткрепуваат и  потенцијално ги зајакнуваат постојните структури на моќ. Бидејќи овие модели се повеќе  се интегрираат во секојдневниот живот преку различни апликации – од услугата за  корисници, образованието па се до креирањето на содржини – нивниот капацитет да  влијаат на општествените норми станува критично место за истражување и интервенција.  

7. Импликации и идни насоки  

Наодите од оваа студија носат значајни импликации за дизајнот и развојот на системите  за вештачка интелигенција. Справувањето со родовите предрасуди кај LLM не е само  прашање на праведност или етика – тоа директно влијае на тоа како поединците се 

претставени, третирани и вклучени во сè позначајниот дигитален наратив што го обликува  општествениот живот.  

Импликации за дизајнот:  

Програмерите мора да усвојат инклузивни практики за собирање и обработка на  податоци и нови методи за обука кои ги земаат предвид различните родови идентитети и  искуства. Ова вклучува диверзификација на изворните материјали, примена на техники за  откривање на предрасуди и вклучување на маргинализираните заедници во процесот на  евалуација на моделите.  

Политика и управување:  

Постои итна потреба за посилни етички упатства за вештачка интелигенција, регулаторни  рамки и ревизии од трети страни за да се повикаат технолошките компании да бидат  одговорни за пристрасните резултати. Транспарентната и темелна документација за тоа  како се обучуваат моделите – како што е пристапот предложен во „ datasheets for datasets “ на Бендер – е од суштинско значење за да им се овозможи на надворешните  истражувачи и засегнатите страни да ги испитаат и критикуваат потенцијалните  пристрасности. 

Образование и медиумска писменост:  

Корисниците на системите за вештачка интелигенција – вклучувајќи ги едукаторите,  студентите и пошироката јавност – треба да бидат опремени со критички вештини за  медиумска писменост за да ги препознаваат и оспоруваат пристрасните резултати.  Интердисциплинарното образование што ги комбинира STEM(Наука, технологија,  инженерство и математика) студиите со хуманистичките науки и родовите студии е  клучно за развивање поодговорни практичари на вештачка интелигенција. 

Идни насоки за истражување:  

-Проширување на анализите на други јазици, културни контексти и модели на вештачка  интелигенција. 

-Истражување на интерактивни интервенции (на пр., стратегии за поттикнување, јамки за  повратни информации од корисниците) за ублажување на пристрасноста за време на  употребата во реално време.  

-Истражување на долгорочните психолошки или социјални ефекти од изложеноста на пристрасна содржина генерирана од вештачка интелигенција.  

Патот до етичка вештачка интелигенција е сложен и мора да вклучува не само инженери,  туку и феминистки, социолози, едукатори и уметници. Преосмислувањето на вештачката  интелигенција низ призма ориентирана кон правдата ќе бара континуирана критика,  иновации и соработка. 

8. Заклучни размислувања  

Во овој труд истражував како LLM како GPT-3.5 ги репродуцираат родовите наративи,  честопати по пат на бинарни стереотипи и не успевајќи да ги претстават небинарните  идентитети. Користејќи феминистичка перспектива, покажав дека овие резултати не се  само неутрални рефлексии на податоците, туку активни учесници во обликувањето на тоа  како родот е претставен во дигиталните простори. Како што вештачката интелигенција  станува сè поприсутна, клучно е да се применат критички родови перспективи во  нејзиниот развој и евалуација. Само преку интердисциплинарни и инклузивни напори  можеме да обезбедиме дека овие моќни технологии ќе ги воздигнуваат, а не  маргинализираат недоволно застапените гласови. Континуираното критичко ангажирање  – и преку теорија и пракса – е од суштинско значење за да се спротивставиме на  автоматизацијата на нееднаквоста. 

9. Библиографија 

-Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the  dangers of stochastic parrots: Can language models be too big?��. In Proceedings of the  2021 ACM conference on fairness, accountability, and transparency (pp. 610-623). 

-Bolukbasi, T., Chang, K. W., Zou, J. Y., Saligrama, V., & Kalai, A. T. (2016). Man is to  computer programmer as woman is to homemaker? debiasing word embeddings. Advances  in neural information processing systems, 29

-Butler, J., & Trouble, G. (1990). Feminism and the Subversion of Identity. Gender trouble3(1), 3-17. 

-Crawford, K. (2021). The atlas of AI: Power, politics, and the planetary costs of artificial  intelligence. Yale University Press. 

-Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. In  Algorithms of oppression. New York university press. 

-Tuchman, G. (2000). The symbolic annihilation of women by the mass media. In Culture  and politics: A reader (pp. 150-174). New York: Palgrave Macmillan US.