Андреј Тасевкси
Воведна дискусија за избраниот фокус:
Во ерата на интензивна дигитализација, кога системите на вештачка интелигенција (ВИ) стануваат основа за донесување одлуки во области како што се здравство, вработување, правосудство и образование, сè почесто се појавуваат критички прашања околу нивната етичка употреба и можностите за дискриминација. Особено алармантен е феноменот на алгоритамска пристрасност, односно вгнездената нееднаквост што произлегува од трендовите, податоците и структурите според кои системите се обучуваат. Истражувањата сè повеќе покажуваат дека родовата пристрасност – како форма на алгоритамска дискриминација – е латентно присутна и често невидлива, но сепак има значителни последици по правата и можностите на жените и девојките, особено во професионални и општествени контексти каде автоматизираните системи се користат за процена, селекција и категоризација.
Историско-структурален контекст на пристрасноста:
Суштината на овој проблем лежи во историските и социјалните нееднаквости кои се рефлектираат во податоците со кои се обучуваат системите на ВИ. Кога овие системи се базираат на информации кои се веќе резултат на вековна родова хиерархија – како на пример податоци за вработувања, медицински третмани, академски успех – тие несвесно репродуцираат и автоматизираат таа историја. Алгоритамите не се независни од општеството, туку се негов одраз; кога тие се користат како
„објективни“ инструменти за донесување одлуки, ризикот од институционализирање на дискриминацијата расте експоненцијално. Овој процес го комплицира и фактот што дизајнерите на таквите системи често се мажи, што дополнително ја зацврстува родовата пристрасност во технолошките дизајни.
Примери на родово неповолни последици од ВИ:
Меѓу најзагрижувачките примери на алгоритамска пристрасност е случајот со Amazon, чиј систем за автоматизирано регрутирање автоматски дискриминирал кандидатки заради тоа што бил обучен на податоци кои доминираат со машки биографии. Слично, софтвер за препознавање лица има значително поголема стапка на грешка кај жените со потемна кожа – податок што укажува на фундаментален недостаток во репрезентативноста на податоците за тренинг. Во здравството, жените често добиваат пониски приоритети при автоматска класификација на симптоми, што резултира со неодговарачка здравствена грижа. Овие примери ја нагласуваат нужноста за
повеќеинтерсекциски пристап во дизајнот и примената на ВИ, каде родот, расата, класата и другите категории се разгледуваат заедно.
СТЕМ образованието и родовата диспаритетност:
Проблемот со алгоритамската пристрасност се поврзува со длабоко вкоренети нееднаквости во полето на СТЕМ (наука, технологија, инженерство и математика). Недоволната застапеност на жени во овие области значи дека гласовите, перспективите и етичките чувствителности на жените се маргинализирани во фазите на концептуализација и имплементација на ВИ системи. Еден од начините да се спречи понатамошната алгоритамска дискриминација е преку ревитализација на СТЕМ образованието со фокус на родова инклузивност, интердисциплинарност и етичка чувствителност. Притоа, не е доволно само да се поттикнуваат жените да студираат СТЕМ, туку неопходно е да се создадат услови каде нивните знаења и гласови ќе бидат суштински вградени во технолошките иновации. Со забрзаниот раст
Политики, иницијативи и етичка регулатива:
Постојат значајни иницијативи – како оние од страна на UNESCO, UN Women и Европската Унија – кои го повикуваат технолошкиот сектор на одговорност и бараат транспарентност во алгоритамските процеси. Регулативи како General Data Protection Regulation (GDPR) и новата AI Act на ЕУ се обидуваат да воспостават механизми за контрола, ревизија и отчетност, но ефикасноста на овие инструменти сè уште е предмет на дебата. За да се постигне вистинска родова правда во ВИ, не е доволно само техничка корекција на податоците – потребна е политичка волја, културна промена и активно вклучување на феминистичките и граѓанските иницијативи во креирањето на технолошката иднина. Тука се отвора прашањето: може ли еден алгоритам навистина да биде праведен, ако е создаден во неправедно општество?
Заклучни рефлексии и перспективи за иднината:
Технологијата, колку и да е напредна, е огледало на човечките вредности и предрасуди. Алгоритамската пристрасност не е само технички проблем, туку е длабоко етичко прашање кое повикува на преиспитување на начинот на кој ја разбираме правдата, еднаквоста и технолошката иновација. Само преку колективна одговорност – каде истражувачите, програмерите, политичарите, едукаторите и активистите ќе соработуваат – може да се создадат системи на ВИ кои нема да ја репродуцираат родовата нееднаквост, туку ќе служат како алатки за нејзино надминување. Овој процес бара и трансформација на образовниот систем, инклузивна политика, но и нова етичка парадигма која ја препознава технологијата како општествена пракса, а не само како збир од кодови и алгоритми.
Родовата структура на технолошката моќ: Невидливите бариери и отпорот преку интерсекциски пристап
Од перспектива на критичка анализа на технологијата, нееднаквоста не е несакан ефект, туку често е структурно инкорпорирана во самите епистемологии и дизајни на дигиталните системи. Проблемот на родовата еднаквост во сферата на вештачката интелигенција и ИКТ не смее да се согледува како прашање на претставеност или бројка на жени во индустријата, туку како сложен систем на моќ кој го обликува самото знаење, методологиите и приоритетите во технолошките иновации. Феминистичката теорија на технологијата посочува дека самата идеја за „објективност“ во алгоритамските системи е мит – одлуките за тоа што е значајно, кој податок е релевантен, како се структурира моделот, секогаш произлегуваат од социјално ситуирани субјекти со специфични интереси. Жените, особено оние од маргинализирани етнички и социјални заедници, честопати се предмет на алгоритамско профилирање, но ретко имаат пристап до дизајнирањето на тие профили. Оттука, потребно е не само вклучување на жените во технолошките полиња, туку трансформирање на начинот на кој размислуваме за знаење, моќ и технологија – преку интерсекциски, критички и егалитарен пристап.
Етички дилеми и одговорности на алгоритамските архитекти:
Еден од најголемите предизвици на современата дигитална епоха е дефинирањето на етиката во контекст на алгоритамските процеси. Технолошките компании често се движат побрзо од правните и нормативните структури што би требало да ги регулираат нивните производи. Во такви услови, често е нејасно кој сноси одговорност за дискриминаторските ефекти на вештачката интелигенција – дали тоа се програмерите, компаниите, институциите кои ја имплементираат или целото општество? Прашањето станува уште посложено кога ќе се земе предвид дека многу од овие технологии функционираат како „црни кутии“ – системи чии внатрешни одлуки се непрозирни дури и за самите нивни творци. Затоа е неопходна изградба на нова парадигма на алгоритамска одговорност, каде дизајнот, тренингот и имплементацијата се подложни на јавна контрола, етички ревизии и инклузивни дебати. Таквата парадигма мора да се потпира на принципи како што се транспарентност, ревизибилност, човекова супервизија и родова инклузивност, но и на воспоставување на независни тела кои ќе можат да вршат континуирана проценка на социјалните последици на автоматизираното одлучување.
Технологијата како алатка за еманципација: можности за трансформација на родовите односи
Иако доминантните наративи за технологијата често ја третираат како неутрална или дури и опасна во контекст на нееднаквост, важно е да се потенцира дека ВИ и ИКТ можат да бидат и моќни алатки за родова еманципација. Мрежите за поддршка, едукација и активизам базирани на дигитални технологии – како што се феминистички платформи, бази на податоци за родова дискриминација, или алатки за самоодбрана преку ВИ – ја отвораат можноста за нови форми на отпор, соработка и колективно
знаење. Примерите на иницијативи како Black in AI, Women in Machine Learning и Feminist Internet покажуваат дека постои глобално движење за технолошка правда, кое настојува да ги реосмисли темелите на дигиталната ера. Тие предлагаат визија на технологија која не само што ги ублажува нееднаквостите, туку активно работи на нивно демонтирање – преку колаборативен дизајн, хуманитарен инженеринг и социјално одговорно програмирање. Во овој контекст, жените не се само објекти на технолошките системи, туку нивни создавачи, критичарки и трансформаторки.
Воспоставување родово сензитивни едукациски практики во СТЕМ и ИКТ:
Клучен сегмент за промена на родовите динамики во технолошкиот развој е образованието – не само во смисла на квантитативно зголемување на женската присутност во СТЕМ, туку и во темелна промена на наставните содржини, педагошките пристапи и институционалните култури. Родово сензитивните програми бараат холистички пристап: од ревизија на наставните материјали за да се елиминираат стереотипите, преку овозможување менторство и мрежи на поддршка, до евалуација на успех не само преку академски резултати, туку и преку чувство на припадност, самодоверба и идентитетска валоризација. Важно е да се создадат безбедни и инспиративни средини каде младите девојчиња ќе можат да се идентификуваат со технолошките иднини не како пасивни корисници, туку како активни создателки и критички мислители. Во таа насока, колаборации помеѓу образовниот, граѓанскиот и технолошкиот сектор можат да генерираат иновативни модели на интервенција кои го спојуваат техничкото знаење со родовата правичност и социјалната правда.
Глобалните перспективи и потребата за локален контекстуализиран ангажман:
Иако многу истражувања и иницијативи за родова еднаквост во технологијата произлегуваат од глобалниот север, важно е да се нагласи дека овие прашања имаат различна конфигурација и импликација во различни геополитички, културни и економски контексти. Во земјите од глобалниот југ, каде пристапот до образование, интернет и технолошка инфраструктура е ограничен, жените често се соочуваат со двојна маргинализација: и како род, и како субјекти во неразвиени или периферни технолошки екосистеми. Оттаму произлегува итната потреба од локализирани стратегии кои ќе ги адресираат специфичните бариери со кои се соочуваат жените во различни контексти – од рурална недостапност на интернет, до културни норми кои ги одвраќаат од технолошки професии. Родово сензитивниот пристап мора да биде истовремено глобален и локален, универзален во вредностите, но контекстуален во имплементацијата. Само така може да се постигне вистинска технолошка правда што ги вклучува сите.
Алгоритамите како одраз на културна структура: Скриениот пат на технолошката дискриминација
Со забрзаниот раст на индустријата за вештачка интелигенција и сè пошироката нејзина примена во различни сектори од јавниот и приватниот живот, станува јасно дека алгоритмите не се неутрални артефакти, туку производи на специфични културни, родови и епистемолошки услови. Системите за препознавање на лица, на пример, веќе неколку години се предмет на жестока критика поради нивната неспособност да препознаат црнокожи и женски лица со истата прецизност како белите машки лица. Истражувањето на Joy Buolamwini и Timnit Gebru, двете водечки фигури во областа на алгоритамската правда, открива драматични разлики во прецизноста на препознавање: алгоритмите со кои работеле достигнувале точност од над 99% за белци, но паѓале под 65% за црнокожи жени. Овие разлики не се само технички проблеми, туку имаат длабоки импликации за човековите права, бидејќи ваквите алгоритми сè почесто се користат во полициски, судски и безбедносни системи. Нееднаквоста се префрлува од општествените структури во технолошките модели, репродуцирајќи и дури засилувајќи веќе постоечките неправди под маската на автоматизирана ефикасност.
Покрај тоа, вреди да се разгледа и како алгоритамските системи влијаат на родовите улоги и перцепции во општеството. Многу дигитални асистенти – од Siri до Alexa – имаат женски гласови по подразбирање, што имплицитно го засилува концептот на жената како сервисна фигура, како присутна за да помогне, да одговара, да служи. Овој избор на глас не е случаен, туку се базира на маркетиншки анализи кои покажуваат дека корисниците ги доживуваат женските гласови како „помалку авторитарни“ и „понежни“. Со тоа, технолошките компании несвесно (или можеби сосема свесно) го нормализираат родовото стереотипизирање преку софтверот. Ако дигиталниот асистент е женски, а нејзината функција е да го исполнува секое барање со подредена интонација, тогаш се создава виртуелна реконструкција на традиционалната подредена женственост, префрлена од реалниот во дигиталниот простор. Критичките феминистички пристапи инсистираат на тоа дека оваа симболика не смее да се занемари, особено кога младите генерации растат во технолошки обкружувања каде улогите на половите се доживуваат преку интерфејсот на апликациите, уредите и алгоритмите.
Паралелно со критичката анализа на постоечките системи, мора да се разгледаат и моделите на отпор и трансформација. Некои од најзначајните поместувања во последните години се резултат токму на гласовите на жените во технолошките заедници, особено оние кои се занимаваат со прашањата на транспарентност, етика и одговорност. Истакнати примери за тоа се отпуштањето на истражувачките водителки како Timnit Gebru од Google, поради нејзината критика на пристрасноста во големите јазични модели, што предизвика глобална дебата за потребата од независни етички тела и истражувања во технолошките корпорации. Таквите инциденти не се исклучоци, туку симптоми на подлабок судир помеѓу профитните интереси на индустријата и потребата од егалитарни и правични системи. Етичките истражувачки групи и
активистички иницијативи – како Algorithmic Justice League, Data for Black Lives, AI Now Institute – се обидуваат да создадат нова инфраструктура на одговорност и отчетност, каде родот не е само квота, туку суштински критериум за оценување на социјалното влијание на технологијата.
Истовремено, мора да се истакне и улогата на јавните политики и законодавствата во обликувањето на технолошките иновации. Земји како Канада и Шведска воведоа стратегии за родова еднаквост во вештачката интелигенција, кои вклучуваат не само финансирање на проекти водени од жени, туку и нормативни барања за оценка на родовото влијание на технолошките системи пред нивната имплементација. Европската Унија, преку својот AI Act, предлага низа механизми за проверка на ризиците што ги носат ВИ системите, меѓу кои и критериуми за дискриминација. Овие примери укажуваат на можноста за институционализирање на етичките принципи преку законодавна рамка, но и на потребата од постојано надградување на овие рамки во согласност со брзото темпо на технолошката еволуција. Родово сензитивната технологија не се создава само преку добри намери, туку преку политички ангажман, правна регулација и социјален надзор.
Конечно, вреди да се размисли за улогата на уметноста, културата и креативните индустрии во редефинирањето на односите помеѓу родот и технологијата. Преку критичка дигитална уметност, феминистички хакерски практики и интердисциплинарни лаборатории, сè повеќе жени создаваат нови форми на технолошка експресија кои ја деконструираат традиционалната машка доминација во техно-наративите. Овие практики не се само алтернативи на постоечките системи, туку експерименти со нови модуси на знаење, комуникација и дизајн кои го ставаат телото, емпатијата, релациите и грижењето во центарот на технолошкото искуство. Така, технологијата станува простор на потенцијална родова реинвенција, каде можно е да се замислат и реализираат системи кои не само што не дискриминираат, туку активно придонесуваат за општествена праведност, колективна автономија и хуман дигитален живот.
Образование и сегрегација: Идеолошката архитектура на СТЕМ-системите
Во анализата на родовите нееднаквости во образовниот систем во доменот на ИКТ и СТЕМ, се забележува дека и покрај деценискиот напор за охрабрување на жените да се насочат кон научни и технолошки дисциплини, сепак постои длабоко вкоренет структурен и културен дисбаланс кој постојано ја одржува родовата сегрегација. Меѓународните извештаи, како оној на UNESCO „Cracking the Code: Girls’ and Women’s Education in STEM“ (2017), потврдуваат дека девојчињата во основното образование покажуваат интерес и способности за математика и природни науки еднакво како и момчињата, но дека со растот на образовната вертикала, нивното учество драматично опаѓа, особено во техничките насоки. Овој феномен на „цевковод од истекување“ (leaky pipeline) се појавува поради комбинација на фактори, меѓу кои
културни предрасуди, отсуство на женски модели за идентификација, прикриена и отворена дискриминација во наставните содржини, како и ниски очекувања од страна на општеството и семејствата. Како резултат на ова, жените се сè уште недоволно застапени во инженерството, информатиката и сродните области, при што само 28% од глобалната научна работна сила во СТЕМ е сочинета од жени, а во подгрупата на ИКТ – процентот е уште понизок, често под 15%.
Анализата на наставните програми и образовните политики открива дека традиционалниот пристап кон СТЕМ-едукацијата е историски дизајниран околу машкиот субјект, со примери, случаи и методологии кои не го земаат предвид родовиот контекст. Наставата по програмирање или инженерство често се фокусира на апстрактни и инструментални аспекти, занемарувајќи ги апликациите што може да бидат поинтересни за поширок спектар на ученици, вклучително и девојчињата. Дополнително, родово сензитивната педагогија сè уште не е присутна како доминантен пристап во обуката на наставниците, што значи дека несвесните предрасуди, како идејата дека момчињата се „природно подобри“ во математика или кодирање, не само што не се адресираат, туку често се повторно зајакнуваат. Истражувањата покажуваат дека девојчињата кои редовно добиваат позитивни повратни информации и охрабрување од наставниците имаат значително поголема веројатност да изберат СТЕМ-профили. Токму затоа, реформите во наставниот процес мора да се фокусираат не само на содржината, туку и на комуникацијата, културниот контекст и структурата на образовната интеракција.
Истовремено, важно е да се препознаат и иницијативите кои се обидуваат да го променат овој дисбаланс преку интервенции од типот на „affirmative action“ програми, стипендии и специјализирани кампањи за промоција на СТЕМ меѓу девојчињата. Пример за таква успешна интервенција е европската мрежа “Girls in ICT”, која организира хакатони, летни школи и менторски програми низ повеќе земји, при што директно ги поврзува младите девојки со професионални модели од индустријата. Во САД, организацијата “Black Girls Code” не само што го овозможува пристапот до техничко образование за девојчиња од маргинализирани заедници, туку активно работи на изградба на самодоверба, критичко размислување и технолошко граѓанство. Овие примери покажуваат дека кога се создадат безбедни, инклузивни и поддржувачки простори, жените не само што успешно се вклучуваат во СТЕМ, туку го менуваат неговото лице, внесувајќи нови перспективи, етички чувствителности и иновативни пристапи кон решавање проблеми.
Но нееднаквоста не завршува со влезот во академските програми или работните позиции – таа продолжува во формите на напредување, оценување и учество во истражувачките проекти и раководните позиции. Податоците од European Commission She Figures (2021) покажуваат дека иако жените сочинуваат 41% од вкупниот број на докторанти во СТЕМ, само 24% од професорските позиции се пополнети од жени, и
уште помал број се наоѓаат во улогата на раководители на технолошки компании или научни институции. Овој хоризонтален и вертикален родов јаз е резултат на т.н. „стаклен таван“ – невидлива, но цврста бариера што ги спречува жените да напредуваат и покрај формалната еднаквост. Ваквата состојба не е само неетична, туку и ирационална, бидејќи губењето на женските перспективи значи губење на потенцијал за иновација, емпатија и социјално одговорна технологија. За да се надмине овој проблем, неопходни се трансформативни политики кои ќе ги вклучуваат родовите аспекти во сите фази на технолошкиот циклус – од истражување, дизајн и имплементација, до анализа на ефектите врз заедницата.
Дополнително, во контекстот на Западен Балкан и пошироко во Источна Европа, родовата сегрегација во СТЕМ има и дополнителна димензија поврзана со економската нестабилност, миграцијата на млади таленти и нефлексибилноста на образовните системи. Во Македонија, на пример, последните податоци од Државниот завод за статистика покажуваат дека само околу 30% од вработените во ИКТ се жени, а нивната застапеност во високотехнолошки претпријатија е уште пониска. Повеќето технички факултети имаат слаб процент на женски професори, што создава чувство на отуѓеност и недостиг на идентитетска резонанца кај студентките. Истовремено, програмите за дообразование, сертификација и стартап инкубација многу ретко се фокусираат на родова инклузија, па дури и кога го прават тоа, честопати тоа е симболично и несуштинско. Потребно е целосно преструктурирање на пристапот кон СТЕМ како општествен проект, кој не е само економски, туку и еманципаторски по природа.
Пристрасност како архитектура: Историската тежина на податоците во алгоритамскиот дизајн
Во контекстот на развојот на вештачката интелигенција и нејзината се поголема инкорпорација во секојдневниот живот, неизбежно се појавуваат прашања поврзани со родова пристрасност и неправда што може да се вгради во алгоритмите и машинското учење. Алгоритмите, иако претставени како неутрални, се дизајнирани од луѓе, обучени врз историски податоци и имплементирани во социјални контексти обременети со структурни нееднаквости. Кога системите за препознавање на лица, автоматизирани системи за вработување, медицински дијагностички модели или дури и апликации за јавна безбедност се обучуваат врз податоци кои ја репродуцираат постоечката дискриминација, тие несвесно ја зацврстуваат и прошируваат родовата – но и расната, класната и етничката – пристрасност. На пример, познатата студија на MIT Media Lab од 2018 година покажа дека комерцијално достапни системи за препознавање лице покажуваат грешки до 35% при идентификација на жени со потемна кожа, додека кај бели мажи грешката е под 1%. Овие наоди не се само технички проблем, туку се длабоко етички и политички предизвици кои бараат радикална ревизија на начинот на кој ја разбираме технологијата и нејзината улога во општеството.
Во последните неколку години, почна да се појавува концептот на феминистичка вештачка интелигенција, како критичка алтернатива кон доминантниот техноцентричен модел. Овој пристап не само што се фокусира на елиминирање на пристрасноста, туку и инсистира на нови модели на развој и имплементација кои се засноваат врз вредности како грижа, емпатија, одговорност и социјална правда. Феминистичката АИ не се стреми само да ги „исчисти“ податоците од нееднаквост, туку ги преиспитува основите на самото претставување, категоризација и автоматизација. Пример за ваков пристап е проектот „Feminist Data Set“ на американската уметница и активистка Кејтлин Р. Мекдоналд, кој се обидува да создаде нови збирки на податоци што се курирани врз принципите на интерсекционалност и инклузија. Таквите иницијативи ја поставуваат потребата од општествено одговорна технологија која не само што ја признава нееднаквоста, туку активно се стреми да ја трансформира преку нови форми на знаење, репрезентација и ангажман.
Од друга страна, улогата на жените во самото создавање на вештачката интелигенција останува минимализирана и потценета, со исклучоци кои обично се маргинализирани од страна на доминантната техноелита. Само околу 12% од истражувачите кои се занимаваат со АИ на глобално ниво се жени, а нивното влијание во креирањето политики и етички стандарди е сè уште симболично. Овој податок не треба да се сфати како случајност, туку како симптом на поширокиот системски проблем – недоволна инклузивност, хиерархизација на знаењето и елиминација на различните гласови од процесот на одлучување. Нееднаквото учество резултира со технолошки производи што ја репродуцираат машката перспектива и ги игнорираат специфичните искуства и потреби на жените. Токму затоа, еден од клучните приоритети во политиките за АИ мора да биде институционализирање на родовата перспектива преку квоти, стимули за инклузија и феминистички етички кодекси кои ќе го постават гласот на жените во сржта на технолошкиот развој.
Дополнителна димензија на оваа проблематика е односот помеѓу автоматизацијата, вештачката интелигенција и трудот на жените, особено во глобалниот југ. Многу АИ системи, иако претставени како автономни, всушност се потпираат на огромна армија на нископлатени и невидливи работнички кои вршат „data labeling“, модерација на содржини или тестирање на алгоритми, често во неподносливи работни услови. Овој феномен, што академскиот свет го нарекува „ghost work“, е длабоко родово обележан и претставува нова форма на дигитална експлоатација. Жените од Филипини, Индија, Кенија и други земји секојдневно учествуваат во создавањето на податоците што ги хранат АИ системите, без признание, стабилност или заштита на трудот. Така, дури и во фазата на создавање на вештачката интелигенција, родовата нееднаквост е структурен дел од системот, а не надворешна последица. Размислувањето за етичката димензија на АИ мора да го вклучи трудот, родот и глобалните нееднаквости како централни, а не периферни прашања.
Во современата ера на дигитален капитализам, вештачката интелигенција стана новото поле на борба за моќ, контрола и дефинирање на иднината. Во таа смисла, родовата еднаквост не треба да се гледа само како морална обврска, туку како суштинска компонента на технолошката одржливост и иновација. Сè поголем број истражувања покажуваат дека тимовите со родова разновидност создаваат посуштински етички дебати, имаат поширок спектар на иновации и се посклони кон дизајн ориентиран кон човекот. Вклучувањето на жените и другите маргинализирани групи не е само прашање на претставеност, туку и на квалитет, перспектива и општествена релевантност на технолошките решенија. Токму затоа, потребна е длабока трансформација на институционалните, културните и едукативните рамки кои ја обликуваат АИ, со цел создавање на дигитален свет кој не само што е поефикасен, туку и поправеден, похуман и поеманципаторски.
Јавни политики и едукација: Родовата еднаквост како системска трансформација
Примената на родово чувствителни јавни политики и образовни иницијативи претставува суштински чекор кон деконструкција на родовата нееднаквост во полето на вештачката интелигенција и информациско-комуникациските технологии. Во последните години, се развиваат програми на национално и интернационално ниво со цел да се поттикне учество на девојчиња и млади жени во STEM-области, особено во програмирање, машинско учење, сајбер-безбедност и етички аспекти на технологијата. Пример за ваква интервенција е UNESCO програмата „Cracking the Code: Girls’ Education in STEM“, која не само што идентификува бариери за учество на жените, туку и предлага конкретни стратегии за наставни програми, педагошки пристапи и кариерна ориентација. Таквите програми го нагласуваат значењето на претставеноста, менторството и културната промена, со цел создавање на образовни простори кои ја поддржуваат, а не ја одбиваат родовата разновидност.
Истовремено, важен дел од јавната политика е регулаторната рамка која ги поставува стандардите за развој на праведна и транспарентна вештачка интелигенција. Европската унија, преку својот AI Act, воспоставува систем на
„високоризични“ апликации каде што се бара прецизно евидентирање и елиминирање на дискриминаторски ефекти, вклучително и оние со родова основа. Овие регулативи не само што ја насочуваат технолошката индустрија кон почитување на човековите права, туку го прошируваат и концептот на техничка ефикасност со социјална одговорност. Некои држави, како Канада и Финска, воведуваат „gender impact assessments“ во развојот на дигитални услуги и алатки, при што секој проект мора однапред да го анализира и елаборира можниот влијателен спектар врз различни родови групи. Со тоа се поставува прашањето за дигитална правда како етичка и политичка агенда, а не само како технолошка можност.
Од особено значење се и локалните иницијативи кои го менуваат микроконтекстот во образованието и заедниците. Проекти како „Girls Who Code“, „Black Girls Code“ и
„Technovation Challenge“ докажуваат дека кога младите жени имаат пристап до ресурси, ментори и поддржувачка средина, тие не само што ги совладуваат технолошките вештини туку и развиваат самодоверба и лидерски потенцијал за менување на општествените структури. Овие иницијативи честопати функционираат како паралелни образовни системи кои ја компензираат патријархалната динамика на официјалните институции. Тие претставуваат простори на отпор, солидарност и иновација кои ја покажуваат силата на заедницата во креирање на поинклузивна технолошка иднина. Во тој контекст, градењето на долгорочни стратегии што ќе ги поврзат ваквите иницијативи со институционални поддршки и политичка волја е суштинско за одржливост на промените.
Дополнително, неопходно е да се истакне важноста на интерсекционалниот пристап во дизајнот на политики и образовни програми. Жените не се хомогена група, и нивното искуство со технологијата е обликувано од низа други идентитетски параметри како раса, класа, сексуалност, инвалидност, мигрантски статус и географска локација. Политики кои ја игнорираат оваа сложеност ризикуваат да репродуцираат нови форми на исклучување дури и кога декларираат праведност. Затоа, потребни се инструменти за анализа и евалуација на технолошките решенија кои ќе ја интегрираат оваа интерсекционалност како принцип, а не како додаток. Во таа насока, соработката помеѓу активисти, академици, инженери и политичари е неопходна за создавање на екосистем кој не само што ги предвидува ефектите на технологијата, туку и активно ги дизајнира така што ги трансформира постоечките нееднаквости во можности за еманципација.
Ваквите примери укажуваат дека родовата еднаквост во ерата на вештачка интелигенција не е утописка цел, туку политички, етички и технолошки императив. Не се работи само за прашање на праведност, туку и за прашање на квалитет и релевантност на самата технологија. Кога жените се рамноправни учесници во развојот, дизајнот и употребата на АИ, се создаваат технологии кои се почувствителни, поправедни и посоцијално корисни. Со цел да се постигне тоа, потребна е синергија помеѓу едукацијата, регулацијата, културната промена и економските политики кои ќе го поддржат овој преод од сегашната технократска хиерархија кон хоризонтален, емпатичен и инклузивен технолошки пејзаж.
Библиографија
1. UNESCO. (2017). Cracking the Code: Girls’ and Women’s Education in Science, Technology, Engineering and Mathematics (STEM). Paris: United Nations Educational, Scientific and Cultural Organization.
2. European Commission. (2021). Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act). Brussels: European Commission.
3. Criado-Perez, C. (2019). Invisible Women: Exposing Data Bias in a World Designed for Men. London: Chatto & Windus.
4. Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research, 81, 1–15.
5. World Economic Forum. (2020). Global Gender Gap Report 2020. Geneva: WEF. https://www.weforum.org/reports/gender-gap-2020-report-100-years-pay-equality
6. Hill, C., Corbett, C., & St. Rose, A. (2010). Why So Few? Women in Science, Technology, Engineering, and Mathematics. Washington, DC: AAUW.
7. Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press.
8. OECD. (2018). Bridging the Digital Gender Divide: Include, Upskill, Innovate. Paris: OECD Publishing.
9. Cheryan, S., Ziegler, S. A., Montoya, A. K., & Jiang, L. (2017). Why Are Some STEM Fields More Gender Balanced Than Others? Psychological Bulletin, 143(1), 1–35. https://psycnet.apa.org/record/2016-48466-001
10. Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press.
11. United Nations Women. (2023). Gender Equality and Big Data
https://www.unwomen.org/sites/default/files/Headquarters/Attachments/Sections/ Library/Publications/2018/Gender-equality-and-big-data-en.pdf
12. Technovation. (2022). Annual Impact Report. San Francisco: Technovation Global. https://www.technovation.org/impact/
13. Girls Who Code. (2021). Closing the Gender Gap in Tech: Program Impact Summary. New York: Girls Who Code.
14. World Bank. (2020). Women, Business and the Law 2020: Navigating Legal Barriers in Technology Access. Washington, DC: World Bank Group.
Изработил: Андреј Тасевски 216046