Визуелна пристрасност: Родовата  застапеност во компјутерски генерирани  слики и deepfake технологии

Published by

on

 

Иман Топчи 

Вовед 

Во ерата на дигитализацијата, визуелните содржини стануваат сè подоминантна  форма на комуникација и информирање. Со развојот на вештачката  интелигенција, особено на технологиите за компјутерски генерирани слики и  deepfake видеа, границите меѓу реалноста и симулацијата сè потешко се  разликуваат. Иако овие технологии отвораат низа можности – од уметничко  изразување до медицинска визуелизација – истовремено носат и сериозни  ризици, особено во однос на родовата еднаквост и репрезентација.  Истражувањата сè почесто укажуваат на тоа дека алгоритмите кои стојат зад овие  визуелни системи често се обучени врз податоци кои ја рефлектираат и  репродуцираат постоечката родова пристрасност. Така, жените се појавуваат во  ограничени и стереотипизирани улоги, а нивните лица почесто се користат без  дозвола во deepfake содржини со експлицитна или дискредитирачка природа. 

Оваа семинарска работа има за цел да ја истражи родовата застапеност и  пристрасност во компјутерски генерираните слики и deepfake технологиите, преку  анализа на начинот на кој овие системи создаваат и пренесуваат визуелни  пораки. Ќе се разгледаат факторите кои доведуваат до родова нерамнотежа,  последиците врз јавната перцепција и личната безбедност, како и можните етички  и технолошки решенија за развој на поинклузивни визуелни алатки. 

Теоретска рамка

Терминот „визуелна пристрасност“ се однесува на несвесна или системска  тенденција за претставување на одредени групи (по пол, раса, етничка  припадност итн.) на стереотипизиран, исклучувачки или нерепрезентативен  начин во визуелните медиуми. Во контекст на вештачка интелигенција, визуелната  пристрасност најчесто произлегува од пристрасни податочни сетови или од  недоволно инклузивни дизајнерски практики. 

Deepfake технологијата, која користи машинско учење за да генерира лажни, но  реалистични видеа, има потенцијал и за позитивни и за штетни намени. Сепак,  статистиката покажува дека најголем дел од deepfake содржините имаат  експлицитна содржина насочена кон женски личности – најчесто без нивна  согласност. Истовремено, компјутерски генерираните слики кои се користат во  медиуми, реклами или игри ретко вклучуваат разновидни женски претстави,  особено жени од различни етнички групи, постари жени или жени со хендикепи. 

Теориите за родови репрезентации, како и феминистичката анализа на медиуми,  се клучни за разбирање на оваа појава. Теоретичарки како Лора Малви укажуваат  на „машкиот поглед“ (male gaze), концепт кој објаснува како визуелните медиуми  

ја претставуваат жената од перспектива на машката желба. Иако овој концепт е  развиен за филмот, денес добива нова релевантност во анализата на  алгоритамски генерирани слики и содржини. 

Родовата пристрасност во генеративните модели 

Компјутерски генерираните слики се резултат на алгоритми обучени врз огромни  бази на податоци. Ако тие податоци содржат родови стереотипи – на пример, жени  прикажани претежно како сексуализирани, емотивни или во улоги на домаќинки – тогаш и излезните слики ќе ги репродуцираат истите тие шаблони. Пример за ова  е Stable Di`usion или Midjourney, каде резултатите за зборови како „CEO“ или  „научник“ многу почесто вклучуваат машки фигури, додека зборови како „секси“  или „асистент“ даваат претежно женски ликови.

Слика 1. Слика генерирана од MidJourney: “professional business people discussing strategy  in oBice illustration” 

Дополнително, многу од овие генеративни системи не прават разлика меѓу  културни и етнички карактеристики на лицата. На пример, ако се побара слика на  „убава жена“, резултатите често ќе ги следат западните стандарди за убавина – светол тен, права и плава коса, тенки црти на лицето – што го маргинализира  глобалниот спектар на женска репрезентација. На овој начин, пристрасноста не  се јавува само по род, туку и по раса и етничка припадност, а често и по возраст  или тело-својства. Со тоа, се исклучуваат жените кои не се вклопуваат во тие  критериуми, придонесувајќи кон дигитална дискриминација. 

Слика 2. Слика генерирана од MidJourney: “beautiful girl” 

Deepfake содржините, пак, најчесто се користат за создавање порнографски  материјали без согласност, при што цел на овие злоупотреби се жени, особено 

јавни личности. Овој тренд го отсликува постоечкиот дигитален родов дисбаланс и  го проширува преку нови, технолошки напредни форми на злоупотреба. 

Дополнителен проблем се јавува во начинот на кој генеративните модели  реагираат на родово неутрални или инклузивни поими. На пример, ако внесеме  барање за „негувател“ или „учител“, сè уште има доминација на одреден пол во  резултатите, што покажува дека алгоритмите не се слободни од општествените  предрасуди присутни во податоците со кои се хранети. 

Слика 3. Слика генерирана од MidJourney: “a professor teaching 20th century history” 

Присуството на овие пристрасности не е секогаш намерно, но има реални  последици, особено кога ваквите слики се користат во медиуми, образовни  материјали или кампањи, каде што треба да се промовира родова еднаквост. 

Последици и етички импликации 

Родовата пристрасност во компјутерски генерираните слики има сериозни  последици. Освен што ги зајакнува стереотипите и ја искривува реалноста, таа  влијае врз тоа како жените се гледаат себеси и како ги гледа општеството. 

Deepfake злоупотребата може да има трауматски психолошки последици, но и  правни и професионални последици за жртвите. 

Истовремено, довербата во визуелните медиуми се нарушува, што може да  придонесе за поширока криза на информираност. Доколку јавноста повеќе не  може да разликува што е реално, ризикуваме да влеземе во „пост-вистинска“  визуелна ера, каде што манипулацијата ќе биде секојдневие. 

Слика 4. Експеримент со deepfake 

Понатаму, постои ризик од нормализирање на родовата нееднаквост преку  секојдневна изложеност на пристрасни дигитални слики, што влијае врз  ставовите на младите корисници и придонесува за продолжување на структурната  дискриминација. Во образованието, овие слики може несвесно да ја формираат  перцепцијата за професионални улоги и родови карактеристики. Исто така,  пристрасноста во визуелните податоци го ограничува опсегот на иновации,  бидејќи ја намалува разновидноста на идеи, приоди и решенија што можат да  бидат инкорпорирани во дизајнот и имплементацијата на технологијата. 

Етичките прашања поврзани со генерирање и дистрибуција на визуелни  содржини треба да станат дел од секоја развојна фаза на AI алатки. Ова вклучува  транспарентност, отчетност, и задолжителна проверка на податочните сетови од  перспектива на различност и инклузија. Дополнително, потребно е меѓународно  усогласување околу правните аспекти, како и зголемена меѓусекторска соработка  помеѓу технолози, правници, активисти и едукатори за да се воспостават  практични стандарди.

Реални примери, случувања 

Покрај теоретската анализа и етичките размислувања, постојат и бројни реални  примери кои ги илустрираат проблемите што произлегуваат од родовата  пристрасност во дигиталните технологии. Тие примерите не само што ги  потврдуваат забелешките од академските студии, туку и ја истакнуваат итноста на  нивната решавање. 

1. Deepfake видеа со злоупотреба на жени 

Еден од најпознатите и најконтроверзните примери е случајот на „deepfake“  видеата кои вклучуваат јавни личности, особено жени. Еден од  најпризнатите случаи е на неколку познати актрици чијшто лик беше  злоупотребен во порнографски deepfake видеа без нивна согласност. Иако  ова е екстремен пример, такви случаи се сè почести, иако жртвите, како  правило, се често жени и девојки. Таквата злоупотреба не само што  предизвикува значителна психолошка штета, туку и нанесува огромна  штета на професионалната репутација на жртвите. 

2. Стереотипизирани и ограничени женски претстави во генеративните  модели 

Технологиите за компјутерски генерирани слики исто така покажуваат  недостиг на родова и етничка разновидност. На пример, истражување  спроведено од Универзитетот во Мичиген открило дека најпознатите  генеративни модели, како што се BigGAN и StyleGAN, создаваат слики со  изразити стереотипи кои се повеќе ги претставуваат жените во  стереотипски улоги – како домаќинки, мајки, или во сексуализирани пози.  Во рекламите и медиумските материјали кои се генерираат со овие  технологии, често жените се претставени како млади, атрактивни и белки,  додека стари жени или жени од различни етнички групи многу ретко се  појавуваат. Овие резултати не само што ја потврдуваат генерираната  пристрасност во алгоритмите, туку и ги зајакнуваат постоечките социјални  стереотипи.

3. Фалсификувани изјави и погрешни родови улоги 

Deepfake технологиите се користени и за манипулација со политички  изјави, како што беа случаите со манипулирани видеа на политичари кои  беа користени за ширење дезинформации. Во овие случаи, жените  политичари, како и жените активистки, се објекти на манипулација со цел  да се деградира нивната позиција и легитимитет. Ова влијае не само на  нивната јавна репутација, туку и на потенцијалното гласачко тело и јавноста  која ја доживува нивната перцепција преку визуелни содржини. 

Со овие примери, се покажува како проблемите со родовата пристрасност и  нееднаквата репрезентација се одразуваат не само во теоретската анализа, туку и  во реалниот живот. Ова дополнително ја истакнува потребата од итно решавање  на овие прашања, за да се обезбеди дека новите технологии се развиваат на  принципите на инклузија и родова еднаквост. 

Препораки и добри практики 

Промената кон поправеден и поинклузивен визуелен дигитален екосистем бара  интегриран пристап, каде секој чинител во технолошкиот ланец – од истражувачи  до креатори на политики – има одговорност да придонесе. Најпрвин, мора да се  развијат конкретни етички насоки за генеративна визуелна интелигенција, кои ќе  бидат составен дел од секоја нова алатка или софтвер. Истите треба да бидат  основа за етички ревизии, односно вграден систем на контрола и анализа на  потенцијални пристрасности. 

Понатаму, развојните тимови треба да се збогатат со експерти од областа на  родовите студии и феминистичка теорија, кои ќе обезбедат критичка перспектива  во сите фази – од дефинирање на проблемот до избор на податоци. Неопходно е  создавање и користење на разновидни и инклузивни податочни сетови, кои ја  рефлектираат реалната демографска структура и се ослободени од  репродуцирање на стереотипи.

Истовремено, обуката на корисници, истражувачи и развивачи е клучна.  Потребни се програми за едукација кои ќе ги информираат за ризиците од  визуелна пристрасност и ќе ги научат како да ја препознаваат и адресираат.  Регулаторни механизми, особено за deepfake содржини, се неопходни – вклучувајќи правна заштита, механизми за одговорност и системи за брзо  известување и отстранување. 

Медиумската писменост е уште еден важен столб. Корисниците треба да бидат  охрабрени и обучени критички да ги оценуваат AI-содржините, а образовните  институции треба да ја интегрираат оваа тема во наставните програми. Проекти  кои анализираат пристрасност и развиваат алатки за нејзино намалување треба силно да се поддржани, а финансирањето за истражувања и стартапи кои нудат  родово инклузивни технолошки решенија да е стимулирано. 

Некои иницијативи веќе работат во оваа насока – пример е проектот “AI Fairness  360” на IBM, кој нуди алатки за анализа на пристрасност, како и ЕУ законодавниот  предлог за вештачка интелигенција кој содржи одредби за заштита на човекови  права. Исто така, некои академски институции воведуваат програми за етички  дизајн на технологија со акцент на родова чувствителност, што претставува добар  чекор кон одржлив системски пристап. 

Заклучок 

Компјутерски генерираните слики и deepfake технологиите претставуваат моќни  алатки со огромен потенцијал, но и со сериозни ризици доколку не се развиваат и  применуваат со свест за родовата еднаквост. Присуството на визуелна  пристрасност не е само технички проблем, туку и длабоко општествено прашање.  Бидејќи сликите кои ги гледаме го оформуваат нашето разбирање за светот и за  самите себе, неопходно е овие технологии да бидат поинклузивни, поправедни и  етички одговорни. 

Оваа тема речиси и да не е застапена во македонскиот контекст, што укажува на  потребата од поголема академска и јавна дебата. Развојот на алатки и политики 

кои ќе обезбедат родова правичност во визуелната AI сфера е неопходен чекор ако  сакаме технолошкиот напредок да биде во служба на сите луѓе, без исклучоци. 

Библиографија 

• Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial  Intelligence

• West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems: Gender, race  and power in AI

• Ajder, H., Patrini, G., Cavalli, F., & Cullen, L. (2019). The State of Deepfakes: Landscape,  Threats, and Impact

• Vincent, J. (2023). Why AI image generators struggle with women and people of color

• Birhane, A., & Prabhu, V. U. (2021). Large image datasets: A pyrrhic win for computer  vision

• UNESCO (2020). I’d blush if I could: Closing gender divides in digital skills through  education.