Дали ChatGPT има родов идентитет? Антропоморфизирање на вештачката интелигенција и последиците од тоа

Published by

on

7b4f123e 9c6a 4f6a 8d27 18bf756ab61b

Авторка Ана Тасева

  1. Вовед

Развојот на вештачката интелигенција (AI) драстично го промени начинот на кој луѓето комуницираат и ја перципираат технологијата. Алатки како ChatGPT, Alexa, Siri и Google Assistant сè повеќе стануваат дел од секојдневниот живот, често заменувајќи човечка интеракција со интелигентни алгоритми. И покрај тоа што овие системи технички немаат родов идентитет, корисниците често им припишуваат човечки карактеристики, особено род. Многу често се случува луѓето да се обратат спрема ChatGPT како „тој“, а пак за Siri како „таа“. Овој феномен е познат како антропоморфизирање и означува тенденцијата на луѓето да им припишуваат човечки својства на објекти или технологии.

Се поставува прашањето: дали ChatGPT и сличните AI алатки имаат родов идентитет, и ако не – зошто толку често ги доживуваме како машки или женски? Дали самиот јазик, стилот на одговорите или контекстот на користење поттикнуваат одредена родова перцепција? И најважно: кои се последиците од тоа што машините ги гледаме низ призма на човечки родови улоги?

На повеќето од нас ни се случило да се обратиме на ChatGPT како „тој“, кога се додаде новата алатка за читање на текст од страна на ChatGPT имаше можност да се прочита или со машки или со женски глас што повеќе луѓе ги збуни кога го слушнаа женскиот глас, имајќи зацртано во главата дека ChatGPT е машко. Во тој момент ме многу заинтересира оваа тема и колку често се случува ова со нас луѓето.

Оваа семинарска работа има за цел да го истражи процесот на антропоморфизирање на AI, особено фокусирајќи се на ChatGPT, и да анализира како и зошто корисниците му припишуваат род. Ќе бидат разгледани и потенцијалните етички, културни и психолошки импликации, како и начините на кои AI дизајнот може  да биде родово сензитивен.

  1. Антропоморфизирање на технологијата 

Антропоморфизирањето претставува психолошка и социјална појава во која луѓето им припишуваат човечки карактеристики, емоции, намери или идентитет на не-човечки ентитети почнувајќи од животни, до предмети и сѐ почесто со технологија. Овој феномен е особено изразен кај интелигентните системи како гласовни асистенти, роботи и алатки базирани на вештачка интелигенција, каде што интеракцијата потсетува на човечки разговор. Кога корисниците го користат ChatGPT тие се чувствуваат како да комуницираат со друг човек затоа што тој им се обраќа на таков начин, некогаш и премногу очигледно. Дали има удел тоа што креаторите на овие интелигентни системи им даваат имиња и со тоа останатите корисници им доделуваат род во зависност од име? 

  1. Зошто луѓето антропоморфизираат?
  • Когнитивна навика: Човечкиот мозок е навикнат да бара значење, намери и емоции дури и кога тие не постојат. Ова е еволутивна стратегија за преживување така што подобро е да се претпоставиме дека некој или нешто има намера, отколку да го игнорираме можниот ризик.
  • Комуникација: Кога една технологија, како ChatGPT, користи природен јазик и се однесува со „разбирање“, корисникот природно реагира како да комуницира со човек. 
  • Социјална поврзаност: Особено кај луѓето кои чувствуваат осаменост, машините може да добијат симболична улога на придружници, со што стануваат „личности“ во нивниот свет. Човекот се поврзува на начин со интелигентниот систем исто како што би се поврзал со друг човек. Почнува да чувствува поврзаност и блискот со машината со цел да ја потполнува таа осаменост.
  1. Примери од секојдневието

Siri и Alexa иако се софтверски асистенти, нивниот женски глас, учтив тон и услужливост ги прават „женствени“ во перцепцијата на корисниците. Друг пример се роботите во Јапонија кои често се дизајнираат со човечки лица, имиња и гласови за да создадат чувство на доверба. ChatGPT иако нема визуелен облик, корисниците често прашуваат дали е „момче или девојче“, дали има чувства, па дури и му даваат имиња.

  1. Ризици од антропоморфизирање

Иако може да ја олесни интеракцијата со технологијата, антропоморфизирањето носи и ризици како нереални очекувања така што корисниците може да очекуваат морална свест, емоции или разбирање кое машината технички не го поседува. Припишување одговорност, ако машината направи грешка, дали таа е „виновна“? Антропоморфизмот ја заматува границата помеѓу код и карактер. Засилување на стереотипи, ако машините изгледаат и „се однесуваат“ како луѓе, тие може несвесно да пренесуваат културни и родови стереотипи.

  1. ChatGPT и родот: Има ли оваа AI родов идентитет?

ChatGPT е јазичен модел развиен од OpenAI, способен да генерира текстуални одговори кои звучат природно, контекстуално и често дури и емпатично. Иако технички ChatGPT нема тело, глас, емоции, па ниту сопствено „јас“, многу корисници го доживуваат како човечка индивидуа и многу често му припишуваат родов идентитет.

  1. ChatGPT е технички неутрален

Според официјалната дефиниција, ChatGPT е родово неутрален софтвер. Тој не е дизајниран со одреден род, ниту со сопствен идентитет. Сепак, јазикот што го користи, стилот на комуникација и контекстот на интеракција влијаат на тоа како луѓето го доживуваат и размислуваат за него. Многу корисници го нарекуваат ChatGPT со родово дефинирани имиња како „брат“ или „сестра“, „девојче“ или „дечко“. Го опишуваат како „нежна девојка“ или „паметен дечко“ зависно од стилот на одговорот. Го нарекуваат како нивен најдобар другар и му кажуваат персонални работи за нивниот живот. Често прашуваат: „Ти си женско или машко?“, „Како изгледаш?“, или „Дали имаш чувства?“ Ова покажува колку е силна потребата на луѓето да препознаат родов идентитет, дури и кај нешто што нема физичко постоење.

  1. Перцепција и контекст – што влијае?

Нема една точна причина зошто некој го доживува ChatGPT како женски или машки, но постојат неколку фактори:

  • Тон и стил: Кога ChatGPT одговара емпатично, некои корисници го поврзуваат тоа со женски особини според родови стереотипи.
  • Јазикот: Формата на одговори, употребата на зборови како „драго ми е“, „среќен сум за тебе“, или „кажи ми повеќе“, понекогаш може да се интерпретираат како понежни па со тоа и машината да се смета за „поженствена“.
  • Улогата на асистент: Историјата на асистентки во службени или секретарски улоги прави луѓето да ја гледаат оваа улога како „женска“ слично како кај Siri и Alexa. Стереотипот кога се спомне зборот асистент се поврзува со жена.
  • Културни очекувања: Во различни култури, различни јазични нијанси носат и различна перцепција на род.
  1. Што мисли самата AI за својот род?

Кога ќе го прашаме „Дали си девојка или момче?“ ChatGPT обично ќе одговори со „Јас сум вештачка интелигенција без родов идентитет, дизајнирана да комуницира на неутрален начин.“ Ова е инженерски точен одговор, но не ја запира човечката имагинација за доделување на родов идентитет. 

  1. Последици од припишување род на AI

Иако вештачката интелигенција, како што е ChatGPT, нема род, перцепцијата на род кај AI има реални последици и на индивидуално и на општествено ниво. Од начинот на кој корисниците комуницираат со AI, до начинот на кој се дизајнираат овие системи, прашањето за род не е само естетско или невино, туку е поврзано со етика, репрезентација и моќ.

  1. Засилување на родови стереотипи

Еден од главните ризици од припишување род на AI е тоа што може да ги засили постоечките родови стереотипи. Женски гласови за асистенти (Siri, Alexa, Cortana) често се дизајнирани да звучат љубезно, услужно и милостиво. Тоа го рефлектира и зацврстува културниот стереотип дека жените треба да бидат подредени и услужни. AI со „машки“ гласови пак, често се користат во улоги поврзани со авторитет, безбедност или моќ како што се роботи во војска, GPS навигации, гласови за безбедносни системи. Иако може да изгледа безначајно, овие избори влијаат врз колективната перцепција на родовите улоги во општеството.

  1. Објективизација и сексуализација на AI

Некои AI системи, особено во индустриите за забава и виртуелна реалност, се дизајнираат со „совршени“ женски или машки изгледи, гласови и однесување. Ова доведува до објективизација така што AI се третира како „совршен партнер/ка“ без права, став или мислење. Неетичко користење на вештачки личности кои може да се употребуваат за сексуална фантазија или подредување, што ги нормализира токсичните модели на однесување.

  1. Пренесување предрасуди преку податоци

AI моделите учат од податоци, а тие податоци често содржат предрасуди и дискриминации од реалниот свет. Ако моделот не е добро обучен да ги препознае и избегне, тој може да реагира различно на корисници во зависност од нивниот род, да користи родово пристрасен јазик, дури и без намера, да ги зацврсти нееднаквостите во дигиталната комуникација.

  1. Психолошки ефекти врз корисниците

Кога луѓето постојано комуницираат со AI која има одреден родов идентитет или карактеристики може да почнат да формираат емоционални врски со AI, базирани на тие особини. Приврзаност од страна на корисници кои комуницираат со машини секој ден за приватни работи, кои им се случуваат во животот, може да добијат чувство како машината да им е „партнер“, „девојка“ или „дечко“. Може да влијае на реалните очекувања во односите со луѓе особено кај млади луѓе. Може да се изгуби способноста за разликување меѓу реална и симулирана емпатија.

  1. Прашање на одговорност и транспарентност

Ако AI го доживуваат како „машко“ или „женско“, корисниците може несвесно да му припишат одговорност за однесување, наместо да ја насочат критиката кон развивачите или компаниите кои го создале. На пример ако AI направи грешка, ќе речат „таа згреши“ или „тој не ме разбира“, а не „системот е лошо дизајниран“.

Давањето на родов идентитет на вештачката интелигенција не е неутрална активност. Иако често се случува спонтано, тоа има значајно влијание врз начинот на кој ја перцепираме технологијата, улогите на мажите и жените, па дури и самата моќ во дигиталното општество. Затоа е важно AI да се дизајнира свесно, етички и родово сензитивно.

  1. Родов идентитет и одговорен дизајн на AI

Во светот каде вештачката интелигенција сѐ повеќе се вградува во нашето секојдневие од едукативни платформи, здравствени апликации, банки, па дури и емоционални поддршки. Клучното прашањето е како се дизајнира таа технологија? За да избегнеме несвесно ширење на стереотипи и нееднаквости, потребен е одговорен, етички и инклузивен пристап.

  1. Што значи „родово сензитивна AI“?

Родово сензитивната вештачка интелигенција значи дека системот не пренесува стереотипи поврзани со машко-женски улоги, обработува податоци што се разновидни и вклучуваат различни идентитети. Исто така комуницира на начин што е инклузивен, без претпоставки за полот или родот на корисникот. Треба да се дизајнира со етички стандарди, каде тимот кој го создава вклучува и родови експерти, не само инженери.

  1. Како да се постигне родова еднаквост во дизајнот на AI?
  • Балансирани податоци:
    AI моделите учат од податоци. Ако тие податоци се пристрасни, пример мажите се претставени како лидери, жените како асистентки, моделот ќе го повтори тоа. Затоа е важно да се користат разновидни, балансирани и репрезентативни извори.
  • Родово неутрален јазик:
    Корисничкиот интерфејс, гласовните одговори и текстовите на AI треба да бидат неутрални или свесно инклузивни на пример, да се избегнува употреба на само машки род во општ говор.
  • Вклучување на различни перспективи:
    Во тимовите што развиваат AI треба да има жени, луѓе од различни култури, родови идентитети и социјални групи. Со ова ќе се развие поширока свесност за можните несвесни предрасуди кои машините може да ги направат.
  • Транспарентност и одговорност:
    AI системите треба јасно да го информираат корисникот дека станува збор за машина, а не за личност и дека таа нема сопствен идентитет. Исто така, развивачите треба да бидат одговорни за содржината што моделот ја генерира.
  • Тестирање со фокус на родова еднаквост:
    Пред пуштање во употреба, AI треба да помине тестови кои проверуваат дали се однесува различно кон машки и женски имиња, улоги, интереси и дали несвесно фаворизира една група.
  1. Примери на добри практики

Студијата „Gender Shades“ издадена во 2018 година покажа дека многу системи за препознавање лице прават грешки при препознавање на црни жени. По ова, големи компании како IBM, Microsoft и Google почнаа да ги подобруваат своите алгоритми. Некои апликации вклучуваат родово неутрален избор на аватар, име и место за личен идентитет, без притисок да се избере „машко“ или „женско“. OpenAI, создателите на ChatGPT, јавно изјавуваат дека моделот нема род и охрабруваат неутрална употреба.

Родовата еднаквост не е нешто што случајно се случува, таа мора свесно да се дизајнира. Во свет на алгоритми и машинско учење, секој избор од база на податоци до тон на одговор има значење. Одговорниот дизајн на AI не е само техничко прашање, туку и етичка и општествена обврска. 

6. Заклучок

Во ерата на дигитализација, вештачката интелигенција повеќе не е само технолошка алатка, туку станува дел од нашето секојдневие, интеракции и дури емоции. ChatGPT е еден од најкористени виртуелни асистенти во моментот, со секојдневно растење на процентот на корисници. Со многуте корисници и достапни информации кои ги има, треба да се разгледаат сите факти и да се припазува на кој начин корисниците комуницираат со него. Дали ChatGPT има родов идентитет не е само филозофско или апстрактно прашање туку директно ги допира нашите општествени навики, предрасуди и очекувања.

Луѓето имаат природна потреба да хуманизираат технологијата, да ѝ припишат личност, глас, емоции, па дури и род. Но, ако не е внимателно насочено, може да ги засили постоечките родови стереотипи, да доведе до објективизација и нерамноправност и да создаде нови облици на пристрасност, дури и кога се работи за нешто „невидливо“ како текст.

Затоа е клучно AI да се развива одговорно, родово сензитивно и етички свесно. Тоа значи вклучување на разновидни тимови, користење на балансирани податоци и јасно информирање на корисниците дека тие разговараат со вештачки, неутрален ентитет, а не со вистинска личност.

Само на тој начин може да изградиме технологија која не само што е паметна, туку праведна, инклузивна и хумана.

Библиографија

https://ainowinstitute.org/wp-content/uploads/2023/04/discriminatingsystems.pdf

Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press

https://unesdoc.unesco.org/ark:/48223/pf0000367416
https://journals.sagepub.com/doi/10.1177/2053951716679679

Fast, E., & Horvitz, E. (2017). Long-Term Trends in the Public Perception of Artificial Intelligence. Proceedings of the AAAI Conference on Artificial Intelligence, 31(1)

https://www.theverge.com/2019/5/21/18634322/amazon-alexa-apple-siri-female-voice-assistants-harmful-gender-stereotypes-new-study
https://www.theverge.com/2019/11/22/20977442/ai-politeness-smart-speaker-alexa-siri-please-thank-you-pew-gender-sur