Зорана Стерјоска
Вовед
Дигитални асистенти и системи за препорака, до автоматизирани процеси за вработување и креирање содржини, неспорно е дека вештачката интелигенција достигна да има голема улога и влијание во секојдневието на една индивидуа. Со таков тек на движење на напредокот и настаните, неизбежно е да се постави прашањето дали AI ги руши старите бариери или само ги засилува постојните родови стереотипи?
Во многу од најкористените AI-интерфејси – како Siri, Alexa или Google Assistant – женскиот глас е стандард. „Иако можеби не сте го забележале тоа досега, и кај повеќето постои можност за избор на машки глас, не било тоа отсекогаш случај.“ (AIGender, 2025). Женскиот глас често се поврзува со улоги на услуга, додека мажите во AI се појавуваат како експерти, аналитичари или „глас на авторитет“. Ваквите избори не се технички, туку културолошки. AI не е неутрална – таа ги учи своите модели од податоци што се резултат на историја исполнета со нееднаквости.
Истовремено, се поставува и оптимистичка перспектива: може ли AI, ако е соодветно дизајнирана, да го редефинира разбирањето на родот? Може ли да понуди нови, постхуманистички перспективи за родовиот идентитет, каде што ќе преовладува флуидност наместо бинарност?
Целта на оваа семинарска е да посвети внимание на тоа како AI ги реплицира, засилува или можеби има потенцијал да ги трансформира родовите улоги. Ќе бидат разгледани конкретни примери од индустријата, етички предизвици, улогата на културата во технолошкиот дизајн, и ќе се понудат насоки за дизајн на поинклузивни AI системи.
Алгоритамска пристрасност: појава и влијание
AI системите се модели кои се тренираат на големи количини на податоци. Во случаи кога таквите податоци содражат пристрасности, како што се нееднаквостите при вработување или STEM образование за жените, алгоритмот ги зема таквите податоци здраво за готово и ги реплицира. Еден од најпознатите примери е системот за селекција на кадар на Amazon кој автоматски дисквалификувал кандидатки бидејќи бил обучен на податоци кои преферирале машки апликанти.
Покрај тоа, модели за препознавање лица покажале значително поголема стапка на грешки кај жени и потемнокожи лица – што укажува на сериозни импликации за приватноста и безбедноста.
Дополнително, системите за автоматска модерација на содржина честопати погрешно идентификуваат говор на женски или маргинализирани групи како проблематичен, додека мажите со сличен израз често остануваат необележани. Тоа покажува дека алгоритмите не само што учат од нерамномерни податоци, туку и ја перпетуираат дискриминацијата во нови, дигитални форми.
Родовата пристрасност во образование и работна средина
Во ИКТ и STEM областите, жените се помалку застапени, што создава дополнителни нерамнотежи. Кога алгоритмите анализираат успех или перформанси во овие области, тие често го рефлектираат мажкиот доминантен модел. На пример, системи за рангирање на студенти можат несвесно да фаворизираат однесување типично за машки студенти или културолошки норми кои ги исклучуваат жените.
Во образованието, AI-тутори или системи за персонализирано учење можат да понудат содржини кои се несвесно „родово кодирани“, што дополнително влијае врз мотивацијата и ангажираноста на девојчињата во технички предмети. Овие системи честопати се базираат на податоци добиени од генерации во кои машкото учество било значително поголемо, што доведува до занемарување на различните начини на учење и комуникација кај девојчињата.
Во работната средина, алатки за предвидување на продуктивност можат да базираат резултати на модели што го привилегираат машкиот стил на работа или комуникација. На пример, AI што ги мери „ефикасните“ состаноци може да го вреднува агресивниот пристап повеќе од колаборативниот, што често води до недоволна вреднување на женскиот придонес. Дополнително, AI системи за селекција на кадар може да ги филтрираат кандидатите врз основа на минати трендови, со што ги игнорираат квалитетните женски апликантки.
Истражувањата покажуваат дека девојчињата уште од млади години се соочуваат со ограничувачки очекувања во врска со нивните способности во технички дисциплини, а AI, ако не е соодветно дизајнирана, може несвесно да ги засили овие ограничувања. Со ова се отвора потребата за социјално одговорно дизајнирање на едукативни технологии и работни алатки што ја препознаваат разновидноста на искуства и потреби.
Етички предизвици и последици
Алгоритамската пристрасност не е само технички проблем – таа претставува длабок етички предизвик. Кога вештачката интелигенција се користи за донесување важни одлуки – како вработување, доделување кредити, здравствена нега или дури судски пресуди – пристрасните модели можат да доведат до структурна дискриминација. Една погрешна проценка може да значи изгубена работа, одбиен заем или погрешна дијагноза, што ги погодува најчесто жените и маргинализираните групи.
Дополнително, овие системи функционираат како „црни кутии“ – нивното внатрешно функционирање е често недостапно за јавноста. Без алатки за транспарентност и механизми за одговорност, лицата погодени од одлуките на AI ретко имаат можност за жалба или поништување на одлуката. Недостатокот на етички рамки може да резултира со нормализација на дискриминаторски алгоритми, особено кога компаниите или институциите се фокусираат на ефикасноста и профитабилноста наместо на правичноста.
Затоа е клучно AI системите да бидат развивани според начелата на „ethics by design“ – каде што етичките вредности се интегрирани уште од првата фаза на развој, а не додавани како коректив во подоцнежните етапи
Политики и добри практики за организациите
Организациите сè повеќе се соочуваат со притисок од јавноста, законодавството и партнерите да обезбедат етичка, инклузивна и транспарентна употреба на вештачката интелигенција. За таа цел, спроведувањето на конкретни политики не е само добра пракса, туку стратешка неопходност за одржливост и легитимност.
Покрај техничките практики, како што се балансирани податочни сетови и fairness testing, организациите треба да усвојат интерни механизми за отчетност, како што се AI етички комитети или офицери за алгоритамска етика. Овие структури треба да имаат независна надлежност и да вклучуваат членови од различни родови и дисциплини.
Потребно е и создавање на интерна култура на етичка свест, каде што развивачите, менаџерите и политиките се усогласени со вредностите на инклузија. Една компанија која само симболично назначува “AI Principles” но не ги применува, ризикува да ја изгуби довербата на своите корисници и вработени.
Организациите треба да воведат специфични политики за да се намали ризикот од родова пристрасност:
- Аудитирање на податоци: Пред да се користат податоци за обука, тие треба да се анализираат за родова застапеност и балансираност.
- Вклучување на разновидни тимови: При дизајн и развој на AI, потребно е учество на жени, луѓе од различни култури и професионални позадини.
- Транспарентност и објасниви модели: Секој корисник или засегната страна треба да може да разбере зошто системот донел одредена одлука.
- Континуирана едукација: Обука за развивачите и донесувачите на одлуки за пристрасности и инклузивен дизајн.
- Мониторинг и ревизија: Периодично следење на излезот од AI системите со посебен фокус на родова анализа.
- Употреба на synthetic data: Таму каде што вистинските податоци се пристрасни, може да се користи синтетички генерирана, балансирана обука.
- Тестирање пред примена: Секој AI систем треба да биде тестиран на демографски групи пред реална имплементација.
Конечно, најдобрите практики бараат и јавно објавување на влијанието од AI системите – на пример преку т.н. „algorithmic impact assessments“, каде што јасно се прикажуваат потенцијалните ефекти по групите засегнати од системот.
Улогата на образованието и јавната свест
Образовниот систем има клучна улога во подигнување на свеста за овие проблеми. Потребно е вклучување на теми поврзани со етика, пристрасност и родова еднаквост во техничките наставни програми. Исто така, неопходно е младите – без разлика на род – да имаат еднаков пристап и охрабрување да се вклучат во STEM и AI области.
Јавните кампањи, поддршката од државни институции и медиумите, како и активната улога на невладиниот сектор, можат да ја трансформираат културата околу родовите улоги и да охрабрат една поинклузивна технолошка иднина.
Интернационални примери и регулативи
Во Европската Унија, AI Act e првиот сеопфатен предлог за регулирање на AI кој бара транспарентност, човекова супервизија и забрана за дискриминаторни практики. UNESCO ја изработи „Recommendation on the Ethics of AI“ која потенцира родова еднаквост како суштински принцип. Компании како IBM и Google почнаа да вклучуваат fairness-тестирање во своите развојни циклуси.
Овие иницијативи се важен чекор, но не доволен. Локалниот контекст мора да се земе предвид, и политиките мора да бидат применливи за различни општества и економии.
Библиографија:
- Buolamwini, J. & Gebru, T. (2018). “Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification.” Proceedings of Machine Learning Research.
- UNESCO (2022). Recommendation on the Ethics of Artificial Intelligence.
- Dastin, J. (2018). “Amazon scraps secret AI recruiting tool that showed bias against women.” Reuters.
- Noble, S. (2018). Algorithms of Oppression. NYU Press.
- IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems (2019). Ethically Aligned Design.
- European Commission (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (AI Act).
- Google AI (2020). Responsible AI Practices. https://ai.google/responsibilities/responsible-ai-practices/