Ефектот на  алгоритамските  препораки врз  родовата еднаквост  во дигиталните  медиуми

Published by

on

Dqampvkn

Авторка Луна Делевска 

Вовед 

Во современото дигитално општество, алгоритмите претставуваат незаменлив дел од  функционирањето на дигиталните медиуми. Тие управуваат со видливоста на  содржините, ја обликуваат перцепцијата на корисниците и имаат значително влијание  врз општествените норми. Алгоритамските препораки, кои се користат за селектирање  и прикажување на содржини на платформи како што се YouTube, Facebook, Instagram и  TikTok, имаат потенцијал да ја репродуцираат или дури и засилат постоечката  нееднаквост, вклучително и родовата нееднаквост. Во ерата на персонализирани  содржини, алгоритмите стануваат филтри низ кои светот се претставува на  корисниците – со што не само што се обликува она што тие ќе видат, туку и она што ќе  го занемарат. 

Додека алгоритмите можат да понудат практичност и релевантност, нивната работа  ретко е неутрална. Начинот на кој тие се дизајнирани, податоците што ги користат и  целите што ги следат, сè повеќе се препознаваат како фактори што имаат длабоки  социјални импликации. Родовиот дисбаланс, како дел од поширокиот спектар на  општествени нееднаквости, се пренесува и во дигиталната сфера преку начините на  кои алгоритмите препорачуваат, филтрираат и промовираат содржини. 

Оваа семинарска работа има за цел да истражи на кој начин алгоритамските препораки  влијаат врз репрезентацијата на родовите во дигиталните медиуми и какви се  последиците од тоа за постигнувањето на родова еднаквост во дигиталната сфера.  Преку анализа на алгоритамскиот дизајн, таргетирањето на содржини и присуството на  родови пристрасности, ќе се обиде да укаже на предизвиците и можните решенија во  стремежот кон еднаква и праведна дигитална култура. 

Главен дел 

Природа и работа на алгоритмите во дигиталниот контекст 

Алгоритмите се прецизни инструкции или правила кои компјутерите ги следат за да  решат одреден проблем или да извршат задача. Тие се основни составни елементи на  компјутерските програми и функционираат како чекор-по-чекор водич за обработка на  податоци. Алгоритмите можат да бидат едноставни, како сортирање на листа со 

броеви, или сложени, како предвидување на однесувањето на корисниците врз основа  на нивните претходни активности.  

Во контекст на дигиталните медиуми, алгоритмите за препораки користат машинско  учење – техника која им овозможува на компјутерите да учат од податоци и да се  подобруваат со текот на времето. Прво, алгоритамот собира огромна количина  податоци, како што се историјата на пребарување, интеракции и преференции на  корисникот. Потоа, со помош на математички модели и статистички анализи, ги  обработува овие податоци за да предвиди која содржина најмногу ќе го заинтересира  корисникот. Иако алгоритмите се моќни алатки за автоматизација и персонализација,  тие не се секогаш неутрални – нивната работа зависи од квалитетот и разновидноста на  податоците што ги користат, што значи дека тие можат да репродуцираат пристрасности или стереотипи ако податоците се неинклузивни. 

Пример: Алгоритми и селекција на содржини 

Алгоритмите исто така играат суштинска улога во селекцијата и приоритетизацијата на  информациите. Тие одлучуваат кои содржини ќе се појават на почетната страница, кои  ќе бидат препорачани во следното видео или пост, и кои ќе останат на маргините на  дигиталниот простор. Во оваа селекција, женските гласови, особено оние што се  критички или излегуваат надвор од стереотипните улоги, често остануваат потиснати.  Жените кои зборуваат за родова еднаквост, сексуално насилство или социјална правда  неретко се изложени на токсични коментари и говор на омраза, што дополнително ги  дестимулира од активност во јавниот дигитален простор. 

Таргетирање и репродукција на родови улоги 

Во многу случаи, алгоритмите ја засилуваат експлоатацијата на податоците од жените  преку таргетирани реклами кои ги сведуваат нивните интереси на површни аспекти  како убавина, мода или семејни улоги. Овој ограничен спектар на содржина има  долгорочно влијание врз изградбата на дигиталниот идентитет кај младите жени и  девојчиња, кои растат во онлајн средина што непрестајно ги враќа на одредени норми.  Наместо да понудат алтернативни перспективи, алгоритмите често ги затвораат  корисниците во „ехо-комори“ каде што постојано се среќаваат со содржини кои го 

потврдуваат веќе усвоеното мислење. Оваа ограниченост на дигиталната дебата води  кон поларизација и ја намалува можноста за критичка еманципација. 

Алгоритамска транспарентност и пристап до информации 

Дополнително, недостатокот на транспарентност во начинот на кој алгоритмите  функционираат претставува сериозен проблем. Корисниците во најголем дел не знаат  зошто им е прикажана одредена содржина, ниту имаат можност да го променат  алгоритамскиот тек што ги следи. Оваа непрозирност го оневозможува и надзорот од  страна на институции и јавноста, што значи дека пристрасностите често остануваат  непрепознаени и некоригирани. Проблемот станува уште посложен кога ќе се земе  предвид дека алгоритмите не се дизајнирани со етички водилки, туку со економски  цели – да генерираат што поголем профит преку задржување на вниманието на  корисниците. 

Регулативи и инклузивност како решение 

Доколку алгоритмите се оставаат да функционираат без соодветна регулација и етичка  рамка, тие ќе продолжат да ја репродуцираат родовата нееднаквост на начин што е  технички невидлив, но длабоко влијателен. Единствениот пат напред е да се вклучат  родовите перспективи во процесот на дизајнирање, тестирање и примена на  алгоритмите. Технолошките компании мора да преземат одговорност и да вклучат  различни профили на развивачи, меѓу кои и жени и претставници на маргинализирани  групи, во креирањето на дигитални системи. Преку оваа инклузивност, алгоритмите  можат да станат алатки за промовирање еднаквост, а не механизми за продлабочување  на нееднаквостите. 

Родова пристрасност во пребарувачите 

Во рамките на дигиталната инфраструктура, пребарувачите играат клучна улога во  пристапот до информации, но и тие не се имуни на родовата пристрасност што ја  репродуцираат алгоритмите. Истражувањата откриваат дека при едноставно  пребарување на термини со родово-неутрална конотација, како што е „човек“,  резултатите што се прикажуваат често ја рефлектираат родовата нееднаквост во  општеството. Така, во земји со поизразена родова нерамнотежа, се забележува дека 

пребарувачите како Google имаат тенденција да прикажуваат претежно фотографии од  мажи, дури и кога поимот не бара родова спецификација. Ваквата појава не е само  пасивна репрезентација на реалноста, туку активен фактор кој влијае врз формирањето  на перцепциите на корисниците. Преку долготрајна изложеност на вакви пристрасни  резултати, кај поединците се зацврстуваат стереотипите, што понатаму може да влијае  на нивните одлуки, особено кога станува збор за професионални избори и процеси на  вработување. 

Резултати од Студија 1 (А) и Студија 2 (Б). Родова нееднаквост (изведена од GGGI пресметан од  Светскиот економски форум во 2020 година; x-оска) како функција на родовата пристрасност во  резултатите од пребарувањето слики на Google, прикажана овде како процент на мажи во резултатите од  сликите на Google при пребарување на родово неутралниот збор „лице“ во јазикот и со IP-адресата на  секоја нација (y-оска). 

Примери од пракса 

Конкретни примери од дигиталната пракса дополнително ја илустрираат длабочината  на проблемот. Алгоритмите на YouTube, на пример, во многу случаи го фаворизираат  традиционалниот приказ на родови улоги, при што содржината создадена од жени за  технолошки теми се појавува поретко и има помал ангажман отколку аналогната  содржина создадена од мажи. Овој дисбаланс не произлегува од квалитетот на видеата,  туку од алгоритамските параметри што го следат очекуваното корисничко однесување,  при што содржините кои предизвикуваат повисок ангажман – често базиран на  стереотипи – се дополнително промовирани. Слична ситуација се забележува и на  Instagram, каде што рекламните алгоритми често таргетираат мажи со технолошки 

производи, додека жените доминантно се опсервираат како потенцијални потрошувачи  на козметика и облека. Дури и на професионални мрежи како LinkedIn, се забележува  диспропорција во препораките за работни позиции, каде што жените поретко добиваат  предлози за лидерски или технолошки улоги, иако квалификациите не се разликуваат  значително. 

Последици врз родовата еднаквост 

Ваквите алгоритамски пристапи имаат долгорочни импликации за родовата еднаквост  во дигиталниот простор. Кога алгоритмите систематски ја поттикнуваат содржината  која го одразува постојниот статус-кво, тие активно придонесуваат за одржување на  стереотипите и за ограничување на пристапот до нови можности. Ова значи дека  жените како креаторки, претприемачки или експертки се соочуваат со помала  видливост, а со тоа и со ограничени шанси за заработка, раст и влијание. Во исто  време, младите девојчиња кои се секојдневно изложени на содржина што ја  репродуцира ограничена слика за женската улога, се обесхрабрувани да се насочат кон  професии како што се науката, технологијата, инженерството и математиката – области  кои веќе се доминирани од мажи. 

Решенија и препораки 

Решавањето на овие проблеми бара интервенција на неколку фронта. Најпрвин,  неопходно е да се обезбеди разновидност во податоците врз основа на кои се обучуваат  алгоритмите, за да се овозможи поправедна репрезентација на различните групи во  општеството. Понатаму, се јавува потребата од транспарентност во алгоритамскиот  дизајн и пристапот до независна ревизија, која би открила скриени пристрасности и би  овозможила нивно коригирање. Од суштинско значење е и вградувањето на етички  принципи во сите фази од развојот на технолошките решенија, особено кога станува  збор за решенија што имаат потенцијал да влијаат на масовна публика. Образовните  институции исто така имаат важна улога, преку промоција на дигитална писменост кај  младите девојки, за тие да не бидат само пасивни кориснички, туку активни  обликувачки на дигиталната средина. Конечно, неопходно е системско охрабрување и  промовирање на женските креативни и професионални гласови во онлајн просторот, за  да се воспостави пореална, поинклузивна и праведна дигитална култура.

Алгоритмите како рефлексија на социјалната моќ и културните норми 

Прашањето за родовата неутралност на алгоритмите не е само техничка дилема, туку  длабоко политичко и културолошко прашање кое бара интердисциплинарен пристап.  Коренот на проблемот не се наоѓа единствено во кодот, туку во структурата на моќта  која ја одредува што е „нормално“, „релевантно“ или „вредно препорака“. Во  

дигиталниот екосистем, вредноста на содржината се мери преку кликови, реакции и  време на гледање – метрики кои често се резултат на веќе постоечки социјални норми.  Така, ако општеството има длабоко вкоренети родови предрасуди, алгоритмите  неизбежно ќе ги репродуцираат, бидејќи тие го учат „нормалното“ од однесувањето на  мнозинството. И наместо да станат алатка за промена, тие стануваат рефлектори на  најгласните и најчесто потврдени пристрасности. 

Влијание врз млади генерации и дигиталната социјализација 

Дополнително, дигиталните платформи сè почесто стануваат главно место за  социјализација, информирање и оформување на идентитетот. Кај младите генерации,  особено девојчињата и жените, изложеноста на родово пристрасна содржина има не  само репрезентативно, туку и психолошко влијание. Секојдневното консумирање на  алгоритамски селектирана содржина која ги сведува жените на декоративни, пасивни  или сервилни улоги, може да доведе до намалување на самодовербата, ограничување  на амбициите и прифаќање на ограничени општествени улоги како „природни“ и  неменливи. На тој начин, дигиталните медиуми стануваат нова арена во која се води  борбата за родова еднаквост – борба која не се гледа со голо око, но чии последици се  долготрајни. 

Недостаток од инклузија при дизајнирање на алгоритамски системи 

Покрај тоа, недостигот од инклузија при дизајнирањето на алгоритмите доведува до  ограниченост во начинот на кој тие „размислуваат“. Развојните тимови во голем дел се  машки и технократски ориентирани, што значи дека нивните избори, намерно или не,  се обликувани од сопствените искуства и слепи точки. Отсуството на жени и  претставници на маргинализирани групи во развојните и одлучувачките процеси  доведува до системски пропусти – содржини одредени за одредени демографии  остануваат невидливи, а потребите на разноликата публика не се препознаваат како 

релевантни. Како резултат на тоа, постои реална опасност од формирање на дигитална  реалност која одговара на интересите и светогледот на малкумина, но важи за сите. 

Општествена одговорност и граѓанска свест како двигатели на промена 

Во таа насока, клучно е да се разбере дека технолошките решенија не се неутрални,  туку вредносно и културно обележани. Алгоритмите, иако формално се логички  системи, сепак се дизајнирани и обучени врз основа на човечки избори. Кои податоци  ќе бидат користени, кои варијабли ќе бидат пресметувани, што ќе се смета за „успех“  или „релевантност“ – сето тоа се одлуки донесени од луѓе. И кога тие одлуки се носат  без соодветна родова перспектива, резултатите често се пристрасни и исклучувачки. 

Затоа, решенијата мора да бидат системски и долгорочни. Освен техничко  подобрување, неопходна е и културна промена – прифаќање на потребата за етички и  родово чувствителен пристап во сите фази на дизајн и примена на алгоритмите.  Технолошките компании треба да ја преземат одговорноста не само за  функционалноста, туку и за општественото влијание на своите производи. Преку  воспоставување на интерни механизми за ревизија на пристрасност, вклучување на  мултидисциплинарни тимови и соработка со експерти по родови студии, тие можат да  создадат системи кои се посензитивни на разликите и неправдите што ги  репродуцираат. 

Истовремено, улогата на јавноста, образованието и граѓанските организации е  непроценлива. Преку подигнување на јавната свест за невидливите алгоритамски  механизми и нивното влијание врз секојдневниот живот, се создава критична маса на  корисници кои можат да бараат отчетност и промени. Жените, особено младите  генерации, треба да бидат охрабрени да се вклучат во полето на технологијата не само  како кориснички, туку како дизајнерки, програмерки и истражувачки. Само на тој  начин може да се обезбеди дигитална средина која не ја репродуцира нееднаквоста од  реалниот свет, туку нуди алтернатива – простор за нови визии, еднакви шанси и  вистинска дигитална правда.

Алгоритамска транспарентност и одговорност – регулаторен и етички пристап 

Прашањето на одговорност и транспарентност станува сѐ поактуелно во дебатата за  алгоритми и родова еднаквост. Иако технолошките компании често тврдат дека  нивните алгоритми се „неутрални“ или „автоматизирани“, ваквите тврдења не ја земаат  предвид сложеноста на начинот на кој податоците се генерираат, обработуваат и  имплементираат во системите за препораки. Во реалноста, секоја алгоритамска одлука  е резултат на човечки избор – кој податок ќе биде вреднуван повеќе, која интеракција  ќе се брои како значајна, каква содржина ќе биде потисната. 

Недостатокот на механизми за отчетност ја продлабочува можноста за злоупотреба.  Корисниците најчесто немаат увид ниту во тоа кои податоци се собираат, ниту на кој  начин се обработуваат, што не само што создава простор за дискриминација, туку и ја  нарушува дигиталната доверба. Европската Унија, преку иницијативи како Законот за  дигитални услуги (Digital Services Act), веќе прави чекори за регулирање на големите  технолошки платформи, но регулативите поврзани со родова еднаквост се сè уште  недоволно застапени. Од суштинско значење е овие регулативи да предвидат јасни  одредби за родова анализа, тестирање на пристрасност и јавна отчетност.  Технологијата не смее да биде простор без надзор; токму спротивното – мора да биде  пространа за колективна одговорност. 

Покрај регулаторните интервенции, потребен е и етички кодекс што ќе биде  интегриран во образованието и обуката на програмери, дата-научници и дизајнери на  системи. Етичката писменост треба да биде основен критериум при развојот на секој  алгоритам. Без тоа, постои ризик од создавање системи кои го легитимираат и  автоматизираат исклучувањето, дури и кога намерата не е злонамерна. 

Улогата на жените во технолошкиот сектор – застапеност, учество и моќ на влијание 

Ако алгоритмите се создадени од луѓе, тогаш прашањето кој ги создава станува  фундаментално. Недоволната застапеност на жени во технолошкиот сектор, особено во  водечки позиции во вештачка интелигенција и машинско учење, директно влијае на  пристапот, перспективата и инклузивноста на крајните производи. Според глобалните  податоци, жените сочинуваат помалку од една третина од вработените во ИТ-

индустријата, а процентот дополнително се намалува кога се анализираат раководни и  истражувачки позиции. 

Овој недостаток на застапеност не е само прашање на социјална правда, туку и на  квалитет на технолошките решенија. Истражувањата покажуваат дека тимовите со  поголема разновидност создаваат покреативни, поинклузивни и поодржливи иновации.  Жените, како и припадниците на други маргинализирани заедници, носат искуства кои  се клучни за предвидување на штетни ефекти и за откривање на пристрасност што би  останала незабележана од хомогени тимови. 

Потребни се системски мерки за да се поттикне учеството на жени во ИТ, почнувајќи  од образованието. Иницијативи за СТЕМ-едукација на девојчиња, програми за  менторство, родово-сензитивна промоција на технолошки професии и креирање  безбедни работни средини се дел од патот кон рамноправност. Само преку засилено  присуство на жени во процесите на дизајнирање, кодирање и управување со  технолошките системи, може да се очекува промена што ќе се одрази и во алгоритмите  – не како пасивен рефлекс на доминантни шеми, туку како свесно насочена алатка за  промена. 

Заклучок 

Алгоритамските препораки во дигиталните медиуми имаат длабоко и сложено  влијание врз родовата еднаквост. Тие не се само технолошки алатки, туку културни  актери кои обликуваат начини на размислување, претставување и комуникација. Преку  репродукција на стереотипи, маргинализација на женски гласови, таргетирано  рекламирање и изложување на токсични содржини, алгоритмите придонесуваат за  одржување и засилување на родовата нееднаквост. Решението не лежи само во  технолошко подобрување, туку и во структурна промена во начинот на кој се  развиваат, тестираат и имплементираат алгоритмите. Инклузијата на различни гласови  во дизајнот на технолошките системи, транспарентноста, одговорноста и соработката  помеѓу академијата, граѓанскиот сектор и технолошките компании се клучни за  постигнување на дигитална правда. Само преку свесен и инклузивен пристап кон  алгоритмите, дигиталната средина може да стане простор кој ја поддржува, наместо да  ја загрозува, родовата еднаквост.

Референци 

https://metamorphosis.org.mk/wp-content/uploads/2019/05/Gender-and-IT-Assesement-.pdf https://balkaninsight.com/2022/05/11/how-online-violence-against-women-goes-unpunished/ https://www.oecd.org/en/publications/oecd-digital-education-outlook-2023_c74f03de-en/full report/algorithmic-bias-the-state-of-the-situation-and-policy 

recommendations_a0b7cec1.html 

https://www.coe.int/en/web/freedom-expression/-/strengthening-media-s-role-in-addressing gender-based-violence-in-north-macedonia 

https://eca.unwomen.org/sites/default/files/Field%20Office%20ECA/Attachments/Publicatio ns/2021/5/Digitally%20empowered%20Generation%20Equality-min.pdf https://banyanglobal.com/wp-content/uploads/2019/09/USAID-North-Macedonia-Gender Analysis-Report.pdf 

https://www.coe.int/en/web/skopje/-/women-as-equal-partners-in-the-ai-revolution-a-call-for gender-equality-in-the-digital-age 

https://fra.europa.eu/sites/default/files/fra_uploads/fra-2022-bias-in-algorithms_en.pdf https://govinsider.asia/intl-en/article/artificial-intelligence-suffers-from-some-very-human flaws-gender-bias-is-one 

https://journals.sagepub.com/doi/full/10.1177/20319525231167300
https://www.pnas.org/doi/10.1073/pnas.2204529119