Давид Митоски
1. Вовед: Алгоритмите како невидливи посредници на културата
Во дигиталната ера на 21 век, културата сè повеќе се создава, дистрибуира и консумира преку онлајн платформи. YouTube, Spotify и Netflix одамна престанаа да бидат само технички алатки за забава; тие се трансформираа во комплексни медиумски екосистеми кои активно влијаат врз вкусот, вредностите и општествените претстави на корисниците. Во нивното јадро се наоѓаат алгоритмите за препораки – автоматизирани системи кои селектираат и хиерархизираат содржина, одлучувајќи што ќе стане видливо, а што ќе остане маргинализирано.
Во услови на информациска хиперпродукција, алгоритмите функционираат како неопходни филтри. Сепак, тие не се неутрални посредници. Напротив, тие се модели обучени врз историски податоци кои ги рефлектираат постоечките општествени односи на моќ, вклучително и родовите нееднаквости. Оттука, алгоритмите можат да се сфатат како „модерни културни архитекти“ – тивки, но влијателни актери кои го обликуваат колективното културно искуство.
Целта на оваа семинарска работа е систематски и критички да се анализира начинот на кој алгоритмите за препораки на YouTube, Spotify и Netflix придонесуваат кон репродукција и зајакнување на родовите стереотипи, како и да се разгледаат нивните пошироки културни и општествени последици.
2. Теоретска и техничка основа на алгоритмите за препораки
Алгоритмите за препораки претставуваат комплексни социо-технички системи кои комбинираат математички модели, машинско учење и анализа на големи количини податоци со цел да ја предвидат и насочат корисничката активност. Иако на прв поглед делуваат како неутрални технолошки алатки, нивното функционирање е длабоко вградeно во економската логика на дигиталните платформи и во општествениот контекст од кој произлегуваат податоците што ги користат.
Во продолжение се разгледуваат клучните принципи врз кои се засноваат овие системи, како и нивните имплицитни идеолошки и родови импликации.
2.1 Основни принципи на функционирање
Современите препорачувачки системи најчесто се базираат на два фундаментални пристапи кои функционираат самостојно или во комбинација, зависно од платформата и нејзините цели.
Филтрирање базирано на содржина (content-based filtering)
Овој пристап се темели на анализа на карактеристиките на содржината што корисникот претходно ја консумирал. Алгоритмот создава профил на интереси врз основа на метаподатоци како жанр, тема, визуелен стил, јазик, ритам, актери или автори. Потоа, системот препорачува нови содржини кои се слични по овие параметри.
Иако овој метод изгледа персонализиран и релативно безопасен, тој има јасна ограничувачка логика: корисникот постојано се движи во рамките на веќе воспоставени интереси. Наместо да поттикнува истражување и излез од комфорната зона, алгоритмот го репродуцира минатото однесување, создавајќи континуитет и предвидливост.
Колаборативно филтрирање (collaborative filtering)
Овој пристап оди чекор понатаму и не се фокусира само на индивидуалниот корисник, туку на неговата позиција во поголема група. Алгоритмот ги споредува моделите на однесување на различни корисници и создава препораки врз основа на сличности меѓу нив. Препораките произлегуваат од логиката „корисници слични на вас го гледале/слушале и ова“.
Иако колаборативното филтрирање е исклучително ефикасно во откривање нови содржини, токму тука се појавува проблемот со стереотипизацијата. Групните обрасци често ги одразуваат доминантните општествени норми и нееднаквости, па алгоритмот ги третира тие шеми како „природни“ и пожелни. Така, индивидуалните отстапувања се маргинализираат, а масовните трендови се зацврстуваат.
Во комбинација, овие два пристапи создаваат систем кој е технички ефикасен, но културно конзервативен – систем што го стабилизира постоечкиот вкус наместо критички да го предизвикува.
2.2 Метрики на ангажман и нивната идеологија
Во сржта на алгоритмите за препораки се наоѓаат таканаречените метрики на ангажман. Овие метрики служат како главен критериум за тоа која содржина ќе биде промовирана, а која ќе остане невидлива.
Најчесто користени метрики се:
- времетраење на гледање или слушање,
- стапка на кликови,
- интеракции како лајкови, коментари и споделувања,
- стапка на целосно консумирање на содржината.
Иако овие показатели изгледаат технички и објективни, тие носат јасна вредносна ориентација. Алгоритмите се оптимизирани да го задржат вниманието на корисникот што е можно подолго, бидејќи времето поминато на платформата директно се претвора во економска вредност преку реклами, претплати и податоци.
Како последица на ова, системите фаворизираат содржина која предизвикува брзи, интензивни и често емоционално набиени реакции. Сложените, критички или едукативни содржини, кои бараат време и концентрација, се помалку „исплатливи“ од аспект на ангажман и затоа се потиснати.
Оваа логика има јасни културни импликации: таа ги наградува поедноставените наративи, сензационализмот и поларизацијата, создавајќи медиумска средина во која стереотипите стануваат ефикасен алат за задржување внимание.
2.3 Родот како имплицитна статистичка променлива
Иако повеќето платформи формално тврдат дека родот не е експлицитен параметар во нивните алгоритми, во пракса тој функционира како моќна имплицитна статистичка променлива. Преку анализа на огромни количини кориснички податоци, системите откриваат корелации помеѓу одредени форми на содржина и демографски карактеристики.
На пример, ако голем процент од корисниците кои консумираат одреден тип музика, видеа или филмови се жени, алгоритмот ќе ја поврзе таа содржина со „женски интереси“. Истото важи и за содржини кои доминантно ги консумираат мажи. Со текот на времето, овие статистички корелации се претвораат во стабилни модели на препораки.
Клучниот проблем е што алгоритмот не прави разлика помеѓу опишување на реалноста и нормативно обликување на реалноста. Наместо само да рефлектира постоечки трендови, тој активно ги засилува, насочувајќи ги корисниците кон содржини што одговараат на нивниот „профил“. Така, индивидуалните отстапувања од родовите норми се третираат како статистички шум, а не како легитимни културни избори.
На овој начин, родовите стереотипи не се експлицитно програмирани во кодот, туку се појавуваат како нуспроизвод на оптимизацијата за ангажман. Стереотипите стануваат функционален ресурс на алгоритмот – ефикасен сигнал за предвидување однесување – што ги прави особено тешки за откривање и корекција.
3. Платформска анализа: Родови стереотипи во пракса
Додека теоретската анализа ги објаснува механизмите зад алгоритмите за препораки, конкретните дигитални платформи нудат јасна слика за тоа како овие механизми функционираат во реална културна пракса. YouTube, Spotify и Netflix, иако различни по форма и медиум, делат заедничка логика на персонализација која често резултира со репродукција и зацврстување на родовите стереотипи. Во продолжение се анализира начинот на кој овие процеси се манифестираат на секоја платформа поединечно.
3.1 YouTube: Визуелна култура и алгоритамска радикализација
YouTube претставува една од највлијателните платформи во современата визуелна култура, особено кај младата публика. Како платформа базирана на видео-содржина, YouTube има моќ не само да информира и забавува, туку и да обликува норми за изглед, однесување и родови улоги. Алгоритмот за препораки игра централна улога во овој процес преку постепено канализирање на интересите на корисниците уште од рана возраст.
Кај девојчињата, алгоритмот често промовира содржини поврзани со физички изглед, грижа за тело, шминка, мода и емоционален труд. Овие видеа, иако не се проблематични сами по себе, во континуитет создаваат наратив во кој женската вредност се поврзува со естетика, прифатливост и самоподобрување. Истовремено, содржините често се поврзани со потрошувачка култура, промовирајќи производи и услуги како неопходни за „успешна“ женственост.
Од друга страна, момчињата се насочуваат кон видеа поврзани со технологија, видео-игри, автомобили, спорт или „реакциски“ содржини кои промовираат натпревар, доминација и иронија. Во овие екосистеми често се појавуваат наративи што ја нормализираат агресијата, емоционалната дистанца и омаловажувањето на „слабоста“, што традиционално се поврзува со машките родови очекувања.
Особено проблематичен аспект е феноменот на алгоритамска радикализација. Истражувањата покажуваат дека корисници кои започнуваат со релативно неутрални пребарувања – како самопомош, мотивација или совети за односи – можат постепено да бидат насочени кон поларизирачки, па дури и мизогини содржини. Овие видеа често се претставуваат како „искрени“, „контроверзни“ или „анти-системски“, што им дава привид на автентичност и ги прави особено привлечни за млади мажи кои бараат чувство на припадност и јасни одговори.
На овој начин, YouTube не само што ги рефлектира постоечките родови стереотипи, туку активно учествува во нивно зајакнување преку алгоритамска селекција и хиерархизација на содржината.
3.2 Spotify: Жанровска сегрегација и музички канон
За разлика од YouTube, Spotify функционира во доменот на аудитивната култура, но и тука алгоритмите за препораки играат клучна улога во обликувањето на родовите норми. Родовиот аспект не се манифестира визуелно, туку преку жанровска категоризација, плејлисти и начинот на кој се промовираат изведувачите.
Алгоритмите на Spotify имаат тенденција да ги поврзуваат женските слушателки и изведувачи со жанрови кои се опишуваат како „помеки“, емотивни или интимни, како поп, indie-pop или singer-songwriter. Наспроти тоа, машките слушатели и изведувачи почесто се поврзуваат со жанрови кои се перцепираат како технички, „тешки“ или агресивни, како рок, метал, хип-хоп или електронска музика.
Оваа жанровска сегрегација не е случајна, туку резултат на статистички модели кои ги третираат историските трендови како природни. Алгоритмот ретко ги предизвикува овие поделби, бидејќи неговата примарна цел е да ја задржи корисничката удобност и предвидливост. Како резултат, можноста за интержанровско истражување е ограничена, а корисниците остануваат „заробени“ во звучни светови кои одговараат на нивниот профил.
Дополнително, оваа логика ја репродуцира историската нееднаквост во музичката индустрија, каде жените се помалку застапени во одредени жанрови и технички улоги. Наместо да ја коригира оваа нерамнотежа, алгоритмот ја засилува, бидејќи ја користи како податочна основа за идни препораки.
3.3 Netflix: Персонализација на наративи и родови улоги
Netflix претставува специфичен пример на алгоритамска персонализација, бидејќи не влијае само врз тоа што корисниците гледаат, туку и како содржината им е претставена. Платформата користи напредни техники како A/B тестирање на наслови, описи и визуелни материјали за иста серија или филм, во зависност од проценетиот профил на корисникот.
На пример, романтична серија може да биде претставена со визуел кој ја нагласува емотивната врска и женскиот лик кај корисничка, додека кај машки корисник истиот наслов може да биде прикажан преку акционен елемент или машка перспектива. Овој процес суптилно ги потврдува претпоставките за тоа што мажите и жените „треба“ да гледаат и во кои жанрови припаѓаат.
Дополнително, категоризацијата на содржините во жанрови како „романтични драми“, „семејни приказни“ или „акциски трилери“ создава наративни ехо-комори. Корисниците ретко се изложени на содржини кои излегуваат надвор од нивниот алгоритамски профил, што резултира со зацврстување на традиционалните родови улоги и очекувања.
На овој начин, Netflix не само што ја персонализира забавата, туку и учествува во обликувањето на современите културни приказни за родот, љубовта, моќта и идентитетот.
4. Културни и општествени последици
Алгоритмите за препораки не функционираат изолирано од општеството, туку се активни чинители во процесот на културна продукција и репродукција. Нивното влијание не се ограничува само на индивидуалното искуство на корисникот, туку се прелева и на поширокото општествено, економско и културно ткиво. Во овој контекст, последиците од алгоритамската селекција можат да се разгледаат на две меѓусебно поврзани нивоа: индивидуално и општествено.
4.1 Индивидуално ниво: Идентитет, вкус и конформизам
На индивидуално ниво, алгоритамската селекција има значително влијание врз формирањето на културниот вкус, личниот идентитет и начинот на кој поединците ја перципираат својата позиција во општеството. Постојаното изложување на содржини кои се усогласени со претходните избори на корисникот може да доведе до ограничување на културниот хоризонт, при што различните перспективи, жанрови и наративи остануваат надвор од неговиот дофат.
Овој процес често резултира со создавање на таканаречени „филтер-меури“, во кои корисниците се опкружени со содржини што ги потврдуваат нивните постоечки вкусови и уверувања. Наместо критичко соочување со различноста, корисникот се движи во медиумски простор кој нуди чувство на удобност и предвидливост. Со текот на времето, ова може да го намали интересот за истражување и да ја ослаби способноста за критичка рефлексија.
Покрај тоа, алгоритмите создаваат и внатрешен притисок за конформизам. Кога платформите постојано сигнализираат што „луѓето како тебе“ гледаат, слушаат или следат, се појавува имплицитна порака дека одредени избори се посоодветни или поприфатливи од други. Овој механизам е особено влијателен кај адолесцентите и младите, кои се наоѓаат во фаза на активно градење на идентитетот и чувство на припадност.
Како последица на ова, стереотипните обрасци на однесување и интереси постепено се нормализираат. Родово обележаните наративи – како поврзувањето на женственоста со емоционалност и грижа, или машкоста со рационалност и доминација – почнуваат да се перципираат како природни и неизбежни, наместо како општествено конструирани. Алгоритмот, на тој начин, не само што го рефлектира идентитетот на корисникот, туку и активно учествува во неговото обликување.
4.2 Општествено и економско ниво: Пазари, видливост и креативен ризик
На пошироко општествено и економско ниво, алгоритамската логика на персонализација има далекусежни последици за културните индустрии и начинот на кој се вреднува креативната продукција. Еден од најочигледните ефекти е сегрегацијата на културните пазари, при што одредени жанрови, формати или теми се поврзуваат со специфични родови групи.
Оваа сегрегација директно влијае врз видливоста на креаторите. Уметници, автори и продуценти кои не се вклопуваат во доминантните родови и жанровски категории често имаат ограничен пристап до публика преку алгоритамските препораки. Жените во технички или „машки“ доминирани жанрови, како и мажите во области кои традиционално се перципираат како „женски“, се соочуваат со структурни бариери кои не се експлицитно наметнати, но се длабоко вградени во логиката на системот.
Дополнително, алгоритмите влијаат и врз одлуките на продукциските компании и студијата. Кога податоците покажуваат дека одредени типови содржина генерираат поголем ангажман кај специфични демографски групи, економската логика ги поттикнува продуцентите да создаваат содржини кои ги следат тие обрасци. Ова резултира со редукција на креативниот ризик, при што иновативните, хибридни или субверзивни проекти се сметаат за „неисплатливи“.
На подолг рок, ваквиот пристап може да доведе до културна стагнација, каде што новите идеи и алтернативните перспективи тешко наоѓаат простор за развој. Алгоритмите, во овој контекст, функционираат како чувари на статус квото, репродуцирајќи ги постоечките општествени хиерархии под превезот на техничка објективност.
5. Кон поинклузивни алгоритамски практики
Иако алгоритмите за препораки често се критикувани поради нивната улога во репродукција на родови и други општествени нееднаквости, тие не се по својата суштина штетни или непроменливи. Напротив, нивниот дизајн, примена и регулација се резултат на човечки одлуки, економски приоритети и општествени вредности. Затоа, прашањето не е дали алгоритмите треба да постојат, туку како тие можат да се редизајнираат и користат на поинклузивен и поодговорен начин.
Во продолжение се разгледуваат можни интервенции на три клучни нивоа: техничко-дизајнерско, образовно-регулаторно и корисничко-креаторско.
5.1 Технички и дизајнерски интервенции
На техничко ниво, една од најзначајните промени што може да се направи е надминување на исклучивата ориентација кон метриките на ангажман. Наместо алгоритмите да бидат оптимизирани само за време на гледање или број на интеракции, потребно е воведување на метрики за разновидност и изложеност. Ова би значело намерно вклучување на содржини кои излегуваат надвор од типичниот профил на корисникот, со цел да се поттикне истражување и контакт со различни културни и родови перспективи.
Дополнително, транспарентноста претставува клучен елемент на поинклузивен дизајн. Корисниците ретко знаат зошто одредена содржина им е препорачана, што ја засилува илузијата на неутралност. Објаснувачки механизми, како кратки информации од типот „ова ви е препорачано бидејќи…“, би можеле да ја зголемат свеста за алгоритамското влијание и да овозможат поинформирано користење на платформите.
Истовремено, важно е да се овозможи поголема корисничка контрола. Опции за прилагодување на препораките, ресетирање на алгоритамскиот профил или исклучување на одредени параметри би им дале на корисниците активна улога во обликувањето на сопственото медиумско искуство.
Конечно, редовните етички аудити на алгоритамските системи се неопходни за откривање и корекција на системските пристрасности. Овие аудити треба да бидат спроведувани од независни тела и да вклучуваат анализа на тоа дали различни родови групи добиваат структурно различни типови содржина.
5.2 Образование и регулација
Покрај техничките решенија, клучна улога играат образованието и регулаторните рамки. Дигиталната писменост повеќе не може да се сведе само на техничка способност за користење на платформи, туку мора да вклучува и критичко разбирање на алгоритмите. Корисниците треба да бидат едуцирани дека она што го гледаат онлајн не е случајно или природно, туку резултат на специфични дизајнерски и економски одлуки.
Во овој контекст, формалното образование, но и неформалните образовни иницијативи, имаат задача да развиваат свест за алгоритамската пристрасност, родовите стереотипи и нивните последици. Критичката дигитална писменост може да ги оспособи корисниците да препознаат кога нивниот медиумски простор е ограничен и да бараат алтернативи.
На институционално ниво, регулаторните тела имаат важна улога во поставување рамки за одговорност и транспарентност. Европски иницијативи како Законот за вештачка интелигенција (AI Act) претставуваат чекор кон препознавање на алгоритамската дискриминација како системски ризик. Ваквите регулативи можат да наметнат обврски за процена на влијанието, транспарентност и заштита од дискриминација, без притоа да ја задушат иновацијата.
5.3 Улога на корисниците и креаторите
Иако алгоритмите често се перципираат како моќни и недопирливи системи, тие учат и се адаптираат врз основа на корисничкото однесување. Оттука, корисниците не се пасивни жртви, туку потенцијални агенти на промена. Со свесно барање и поддршка на разновидна содржина, корисниците можат постепено да влијаат врз податочните шеми врз кои се тренираат алгоритмите.
Креаторите, пак, имаат посебна одговорност и можност за дејствување. Преку креаторска солидарност, соработки и меѓусебна промоција, тие можат да создадат мрежи кои го предизвикуваат доминантниот алгоритамски канон. Кога креаторите од различни родови, жанрови и културни позадини се поврзуваат, тие му „покажуваат“ на алгоритмот нови корелации и можности кои не се засноваат на стереотипни поделби.
На овој начин, иако промената е бавна и постепена, таа станува возможна преку колективна акција и свесно користење на дигиталните платформи.
6. Заклучок
Алгоритмите за препораки денес претставуваат една од најмоќните, но и најмалку видливи структурални сили во современата културна економија. Преку нивната секојдневна и масовна употреба, платформите како YouTube, Spotify и Netflix не само што посредуваат помеѓу корисниците и содржината, туку активно учествуваат во обликувањето на културните вкусови, идентитетите и општествените норми. Особено значајна е нивната улога во репродукцијата и нормализацијата на родовите стереотипи, кои се вградени во статистичките модели врз кои овие системи учат и функционираат.
Оваа семинарска работа покажа дека алгоритамската пристрасност не произлегува од злонамерна намера, туку од комбинација на економски интереси, технички решенија и историски нееднаквости вградени во податоците. Во стремежот кон максимизирање на ангажманот, алгоритмите често ги фаворизираат поедноставените и стереотипни претстави за родот, бидејќи тие се ефикасни сигнали за предвидување однесување. На тој начин, технолошката персонализација создава привид на индивидуален избор, додека во позадина ја зацврстува културната предвидливост и конформизам.
Анализата на конкретните платформи покажа дека овие процеси имаат реални последици – од ограничување на индивидуалниот културен хоризонт, преку сегрегација на културните пазари, до влијание врз продукцијата и видливоста на креаторите. Алгоритмите, така, функционираат како чувари на статус квото, суптилно одржувајќи ги традиционалните родови улоги под превезот на техничка објективност и иновација.
Сепак, ваквата состојба не е неизбежна. Како што беше истакнато, можни се поинклузивни алгоритамски практики преку технички редизајн, зголемена транспарентност, етички аудити, критичка дигитална писменост и соодветни регулаторни рамки. Истовремено, корисниците и креаторите не треба да се гледаат како пасивни субјекти, туку како активни учесници кои можат постепено да влијаат врз насоката на алгоритамското учење.
Во крајна линија, предизвикот не е во укинувањето на алгоритмите за препораки, туку во нивното одговорно преосмислување. Доколку овие системи се редизајнираат како алатки за културно истражување наместо културно затворање, тие можат да придонесат кон пофер, поразновидна и поинклузивна дигитална култура. Остварувањето на ваква визија не зависи само од технологијата, туку од колективната општествена волја да се препознаат и адресираат скриените структури на моќ што таа ги репродуцира.
Користена литература
- Pariser, E. (2011). The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think. Penguin Press.
https://www.penguinrandomhouse.com/books/209563/the-filter-bubble-by-eli-pariser/ - O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown.
https://weaponsofmathdestructionbook.com/ - Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
https://nyupress.org/9781479837243/algorithms-of-oppression/ - Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research (PMLR).
http://proceedings.mlr.press/v81/buolamwini18a.html - Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G - Tufekci, Z. (2018). YouTube, the Great Radicalizer. The New York Times.
https://www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html - Covington, P., Adams, J., & Sargin, E. (2016). Deep Neural Networks for YouTube Recommendations. ACM RecSys (Proceedings).
https://dl.acm.org/doi/10.1145/2959100.2959190 - Gomez-Uribe, C. A., & Hunt, N. (2015). The Netflix Recommender System: Algorithms, Business Value, and Innovation. ACM Transactions on Management Information Systems, 6(4).
https://dl.acm.org/doi/10.1145/2843948 - Burgess, J., & Green, J. (2018). YouTube: Online Video and Participatory Culture (2nd ed.). Polity Press.
https://www.wiley.com/en-us/YouTube%3A+Online+Video+and+Participatory+Culture%2C+2nd+Edition-p-9780745694429 - Datta, A., Tschantz, M. C., & Datta, A. (2015). Automated Experiments on Ad Privacy Settings: A Tale of Opacity, Choice, and Discrimination. Proceedings on Privacy Enhancing Technologies (PoPETs).
https://doi.org/10.1515/popets-2015-0007 - European Commission (2022). Digital Services Act (DSA). (Регулатива за платформи, транспарентност и системски ризици.)
https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package - European Parliament / Council of the EU (2024). EU Artificial Intelligence Act (AI Act). (Рамка за ризици и одговорност кај ВИ системи.)
https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence - UNESCO (2021). Recommendation on the Ethics of Artificial Intelligence.
https://unesdoc.unesco.org/ark:/48223/pf0000380455
