Родова пристрасност во генеративни алатки базирани на вештачка интелигенција: ChatGPT, DALL·E и Stable Diffusion

Published by

on

Unnamed (28)

Искра Марковска

  1. Вовед

Генеративната вештачка интелигенција (ВИ) претставува група од системи способни да создаваат нови содржини, како текст, слики, музика или видеа, врз основа на шеми и шаблони научени од големи бази на податоци. Модели како ChatGPT, DALL·E и Stable Diffusion се сè почесто користени од различни индустрии, од маркетинг и дизајн до образование и забава. Меѓутоа, резултатите од овие алатки честопати ги рефлектираат и зајакнуваат предрасудите присутни во нивните тренинг податоци, особено кога станува збор за родовите стереотипи и присрасности. Со оглед на масовната примена и влијанието што го имаат врз дигиталните содржини и општествените норми, од суштинско значење е да се анализира како и зошто овие алатки создаваат родови присрасности, какви последици може да има тоа и кои се можните решенија за намалување на овој проблем.

  1. Генеративна вештачка интелигенција и нејзината примена

Генеративната вештачка интелигенција претртавува подмножество на вештачката интелигенција кое користи модели на машинско учење за создавање нови содржини – текст, слики, аудио или видеа – врз основа на шаблони и шеми научени од постоечки податоци. За разлика од традиционалната вештачка интелифенција која претежно се фокусира на класификација и предвидување, генеративната ВИ има способност да генерира нови и оригинални излези како одговор на зададени упати.

Историски достигнувања:

  • 1960-ти години: Појава на првите програми базирани на ВИ, како што е ELIZA – чатбот кој симулира психотерапевт.
  • 2014 година: Развој на генеративни противнички мрежи (Generative Adversarial Networks – GANs) кои овозможуваат создавање реалистични слики.
  • 2017 година: Воведување на трансформер архитектурата, која доведе до значајни напредоци во јазичните модели.
  • 2020-ти години: Брз развој на генеративна ВИ со модели како GPT-3, DALL·E и Stable Diffusion, со што значително се проширија креативните можности на овие технологии.

Клучни алатки на генеративната ВИ

ChatGPT е јазичен модел развиен од OpenAI, способен да генерира текст сличен на човековиот, базиран на дадени промптови. Се користи масовно за создавање на содржини, одговарање на прашања и симулирање разговори. 

DALL·E е систем на OpenAI кој создава слики врз основа на текстуални описи, овозможувајќи им на корисниците да ги претворат своите идеи и барања во визуелна форма.

Stable Diffusion е модел со отворен код развиен од Stability AI, наменет за генерирање на слики од текстуални промптови. Познат е по својата ефикасност и можноста да функционира и на хардвер со просечна конфигурација.

Примената на генеративна вештачка интелигенција во различни индустрии

Генеративната ВИ наоѓа широка примена во различни индустрии:

  • Здравство: Помага во откривање на нови лекови преку предвидување на

молекуларни структури и создавање синтетички медицински слики за обука на дијагностички модели.

  • Финансии: Се користи за автоматизирано креирање извештаи, генерирање

синтетички финансиски податоци и подобрување на комуникацијата со клиентите преку персонализирана содржина. 

  • Образование: Овозможува персонализирно учење преку креирање квизови,

образовни материјали и туторска помош прилагодена на индивидуалните потреби на учениците. 

  • Забава и медиуми: Се користи за создавање музика, сценарија и визуелни

ефекти, со што се оптимизираат процесите на продукција. 

  • Маркетинг: Помага во создавање рекламна содржина, постови за

социјалните мрежи и описи на производи, со што се зголемува ангажманот и ефикасноста на маркетинг кампањите.

  1. Родова присрасност во алатки на генеративната ВИ

Родовата присрасност во вештачката интелигенција се јавува кога алгоритмите произведуваат резултати пто систематски фаворизираат или дискриминираат врз основа на родот. Ова може да се манифестира преку текстуални модели што асоцираат одредени професии со специфичен род или преку визуелни генератори што прикажуваат стереотипни слики. Примери за ова се ChatGPT, кој често поврзува улоги како  „извршен директор“ со мажи, или DALL·E и Stable Diffusion, кои генерираат  жени претставени како млади и сексуализирани, додека мажите се прикажани како постари и во доминантни позиции.

Meханизми преку кои настанува родова присрасност

  • Пристрасни податоци за обука: Ако моделите се обучуваат со податоци што веќе содржат родови стереотипи, тие пристрасности автоматски се пренесуваат во резултатите на моделот.
  • Алгоритамски дизајн: Некои алгоритми можат да ги засилат постојаните присрасности ако не се дизајнирани со внимание на инклузивност и праведност.
  • Недостаток на разновидност во развојните тимови: Недоволното учество на жени и други маргинализирани групи во тимовите што ги развиваат овие алатки често води до игнорирање на одредени пристрасности или слепи точки.

Теоретски рамки за анализа на родова присрасност во ВИ

Различни теоретски рамки може да се искористат за подобро разбирање на родовата пристрасност во генеративните алатки. Теоријата на амбивалентен сексизам ја нагласува штетноста на и „благиот“ и „непријателскиот“ сексизам во општеството, при што дури и позитивните описи на жените (на пример, како грижливи или привлечни) ги засилуваат традиционалните улоги. Дополнително, теоријата на социјална улога објаснува како историските родови улоги влијаат на перцепцијата и доделувањето на одредени професионални и општествени позиции. Покрај тоа, феминистичката лингвистика се користи како алатка за анализа на начинот на кој јазикот и неговата употреба во ВИ можат да придонесат за репродукција на родови стереотипи.

  1. Анализа на родова присрасност во текстуални генератори

Родовата пристрасност во текстуалните генеративни алатки, какви што се ChatGPT и Claude, претставува значаен предизвик во развојот и примената на вештачката интелигенција. Истражувањата покажуваат дека овие модели често ги репродуцираат и засилуваат веќе постоечките родови стереотипи, особено во контекст на професии и општествени улоги.

Една студија открива дека ChatGPT има тенденција да асоцира одредени професии со специфичен род. На пример, кога се бара опис на “извршен директор”, моделот често го поврзува со машки род, додека “секретарка” се поврзува со женски род. Ова укажува дека моделот ги одразува стереотипите присутни во податоците на кои е обучен. Дополнително, УНЕСКО спроведе истражување кое покажува дека големите јазични модели, вклучувајќи ги GPT-3.5 и GPT-2, имаат тенденција да ги опишуваат жените во домашни улоги, користејќи зборови како “дом”, “семејство” и “деца”, додека мажите се поврзуваат со термини како “бизнис”, “извршен”, “плата” и “кариера” .

Како ВИ одговара на промптови поврзани со професии, улоги и карактеристики

Кога се користат промптови поврзани со професии или карактеристики, ВИ моделите често генерираат содржини кои ги одразуваат општествените стереотипи. На пример, при барање за опис на “инженер”, моделот веројатно ќе го опише како маж со технички вештини, додека “медицинска сестра” може да биде опишана како жена со грижлив карактер. Овие одговори укажуваат дека моделите ги репродуцираат пристрасностите присутни во нивните податоци и обука. Дополнително, кога ќе им се побара на моделите да елаборираат за изборот на род при генерирање на одредени професии, одговор е дека тоа било намерно, бидејќи карактеристиките од дадениот промпт поттикнуваат длабоко вкоренети општествени архетипи присутни во податоците со кои биле хранети моделите. Ова дополнително ја потврдува важноста од свесно справување со пристрасноста при развој и примена на генеративните јазични модели.

  1. Анализа на родова пристрасност во визуелни генератори

Родовата пристрасност во визуелните генеративни алатки. Како што се DALL·E и Stable Diffusion, претставува значаен предизвик со развојот и примената на вештачката интелигенција. Како и текстуалните генератори, така и визуелните покажуваат дека моделите често ги повторуваат и зајакнуваат постоечките родови стереотипи. 

Студија од 2023 година открива дека DALL·E 2 генерира слики кои во 59.4% од случаите ги користат родовите стеретотипи. Во генерираните слики, жените се најчесто прикажани како млади, со светла кожа и во улоги како актерки или пејачки, додека мажите се претставени како постари и во позиции на авторитет, како политичари или бизнисмени. Слични резултати се забележани и кај Stable Diffusion. Истражување од 2024 година покажува дека овие алатки имаат тенденција да прикажуваат хирурзи како бели мажи во 98% од случаите. Од друга страна, пак, жените се често сексуализирани во генерираните слики, со нагласени физички карактеристики и во сугестивни пози.

Родовата пристрасност во визуелните генеративни алатки не е само технички недостаток, туку може да има и длабоки општествени последици. Ваквата пристрасност ги зајакнува постојаните стереотипи за родови улоги, придонесувајќи за ограничување на жените со традиционални и подредени улоги, додека мажите се претставени како доминантни и авторитетни фигури. Ова може да влијае врз јавната перцепција, особено кај младите генерации и да го одржува кругот на родова нееднаквост и дискриминација во реалниот свет. 

Дополнително, постои алармантен тренд на користење генеративни визуелни алатки за создавање лажни експлицитни слики на вистински жени, најчесто без нивна согласност. Овие практики не само што претставуваат формна на дигитално насилство и злоупотреба, туки и придонесуваат за репродукција на културата на објективизација и сексуализација на женските тела, со потенцијално сериозни последици врз приватноста и психолошката благосостојба на жртвите. 

  1. Последици од родова пристрасност во содржините на ВИ

Последиците од родовата пристратсност во содржините создадени од вештачката интелигенција се далеку подлабоки од самото искривување на резултатите – тие директно влијаат врз начинот на кој општеството ги дефинира и препознава родовите улоги. Присуството на вакви пристрасности во генеративните алатки создава ризик од одржување на застарени културни модели, особено во дигиталниот простор, каде младите генерации се главните корисници и потрошувачи на содржини создадени со ВИ.

Овие пристрасности можат да имаат долгорочен економски ефект преку несвесно влијание на пазарот на труд, каде што професиите претставени со мажи ќе се перцепираат како повредни или пореномирани. Ова го продлабочува веќе постоечкиот јаз во вработувањето и платите помеѓу половите. Дополнително, перпетуирањето на стереотипни родови претстави може да ја намали видливоста и застапеноста на жени во технолошките и лидерските сектори, со што вештачката интелигенција станува активен учесник во репродукција на системската нееднаквост.

  1. Можни решенија и препораки

Справувањето со родовата пристрасност во генеративната вештачка интелигенција бара мултидимензионален пристап што ги вклучува техничките, етичките и општествените аспекти.

Технички решенија

На техничко ниво, клучно е подобрување на квалитетот и разновидноста на податоците за обука. Потребно е внимателно креирање и прочистување на базите за податоци за да се намали присуството на стереотипни содржини. Истовремено, се препорачува имплементација на автоматизирани филтри и алатки за мониторинг кои ќе детектираат и минимизираат пристрасни излези во реално време. Дополнително, некои истражувачи предложуваат развој на модели со вградени механизми за праведност, кои можат да балансираат меѓу различни групи при генерирање на содржини.

Етички и регулаторни пристапи

Етичкиот аспект бара воспоставување на јасни стандарди и протоколи за одговорна употреба на генеративни алатки. Регулаторните тела треба да воведат обврзувачки насоки за транспарентност, отчетност и пристапност во развојот и користењето на овие технологии, со посебен акцент на заштита од родова и друга видива или невидлива пристрасност. Потребни се и јасни рамки за санкционирање на злоупотребите, особено во случаи на генерирање на неовластени или експлицитни слики на поединци.

Улогата на креаторите и општеството

Покрај техничките и регулаторни мерки, важна е и свесноста и одговорноста на самите креатори и корисници на овие технологии. Развојните тимови треба да бидат составени од лица со различни социјални и културни позадини за да се избегнат слепи точки во дизајнот и обуката на моделите. Исто така, потребно е општеството активно да се едуцира и информира за ризиците од пристрасноста на ВИ, со што ќе се охрабри критичко користење на содржините кои ги генерираат овие алатки.

  1. Заклучок

Генеративната вештачка интелигенција претставува значаен технолошки напредок

со потенцијал да го трансформира начинот на кој се создава и консумира дигитална содржина. Сепак, овие алатки не се ослободени од репродукција на постоечките родови стереотипи и пристрасности. Овие пристрасностни не само што ја нарушувата точноста и етичноста на содржините, туку можат да имаат и долгорочни општествени, културни и економски последици, продлабочувајќи ги постоечките нееднаквости.

 За да се минимизираат овие ризици, потребно е интегрирање на технички, етички и регулаторни мерки, но и да се подигне свеста кај креаторите, корисниците и општеството во целина. Само преку соработка помеѓу технолошкиот, академскиот и граѓанскиот сектор може да се создаде поинклузивна и етички одговорна генеративна вештачка интелигенција, која ќе служи како алатка за напредок, а не за одржување на системските нееднаквости.

  1. Библиографија
  1. IBM. (n.d.). What is generative AI?. IBM. https://www.ibm.com/topics/generative-ai
  2. Toloka. (2023). History of Generative AI. Toloka AI Blog. https://toloka.ai/blog/history-of-generative-ai/
  3. TenUp Software. (2023). Stable Diffusion: Use cases and benefits. https://www.tenupsoft.com/blog/stable-diffusion-use-cases-benefits.html
  4. McKinsey & Company. (2023). What is generative AI?. McKinsey Explainers. https://www.mckinsey.com/featured-insights/mckinsey-explainers/what-is-generative-ai
  5. Wikipedia contributors. (2024). Generative artificial intelligence. Wikipedia. https://en.wikipedia.org/wiki/Generative_artificial_intelligence
  6. Binns, R. (2018). Fairness in Machine Learning: Lessons from Political Philosophy. Proceedings of the 2018 Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3287560.3287583
  7. Seldon. (2023). The gender data gap in AI. https://www.seldon.io/the-gender-data-gap-in-ai/
  8. Washington Post. (2023). These fake images reveal how AI amplifies our worst stereotypes. https://www.washingtonpost.com/technology/interactive/2023/ai-generated-images-bias-racism-sexism-stereotypes/
  9. Diversity Atlas. (2023). Gender bias in artificial intelligence: The need for diversity and gender theory in machine learning. https://diversityatlas.io/wp-content/uploads/2023/08/2018-Gender-Bias-in-Artificial-Intelligence_-The-Need-for-Diversity-and-Gender-Theory-in-Machine-Learning.pdf
  10. NY Post. (2024, April 26). ChatGPT overwhelmingly depicts financiers CEOs as men, and women as secretaries: study. https://nypost.com/2024/04/26/chatgpt-overwhelmingly-depicts-financiers-ceos-as-men-and-women-as-secretaries-study/
  11. UNESCO. (2023). Generative AI: UNESCO study reveals alarming evidence of regressive gender stereotypes. https://www.unesco.org/en/articles/generative-ai-unesco-study-reveals-alarming-evidence-regressive-gender-stereotypes
  12. Hawkins, W., Russell, C., & Mittelstadt, B. (2025). Dramatic rise in publicly downloadable deepfake image generators. Oxford Internet Institute. Retrieved from https://www.oii.ox.ac.uk/news-events/dramatic-rise-in-publicly-downloadable-deepfake-image-generators/
  13. García-Ull, F.-J., & Melero-Lázaro, M. (2023). Gender stereotypes in AI-generated images. https://doi.org/10.3145/epi.2023.sep.05