Автор Глигор Костов
Вовед: Кога технологијата не е неутрална
Во светот во кој вештачката интелигенција (ВИ) сѐ повеќе го обликува секојдневието – од алгоритми за вработување до гласовни асистенти – се наметнува прашањето: Може ли машината да биде родово свесна? Ова прашање не е само техничко, туку длабоко политичко и општествено. ВИ не постои во вакуум – таа е производ на вредносните системи, односите на моќ и културните норми кои ја формираат. Ако општествата се нееднакви, технологијата, доколку не ја преиспитаме, само ја репродуцира таа нееднаквост.
Покрај ветувањето за технолошки напредок и автоматизација, ВИ исто така носи ризици поврзани со репродукција на системски нееднаквости. Особено загрижувачки е кога овие нееднаквости се поврзани со родовата дискриминација – една длабоко вкоренета структура во нашите општества. Вештачката интелигенција, без соодветен надзор, критика и етички водилки, има потенцијал да ги зацврсти овие неправди под маската на објективност и неутралност.
Овој текст го истражува начинот на кој родовата пристрасност се инфилтрира во системите на ВИ, феминистичките критики и алтернативи што го преобликуваат технолошкиот развој, и потенцијалот на ВИ да стане сојузник во борбата за родова еднаквост. Ќе се потпираме на примери, студии на случај и современи теории од феминистичките и технолошките студии.
2. Родовата пристрасност како системски проблем
Родовата пристрасност во ВИ не е случајна грешка, туку резултат на системски проблеми. Таа настанува уште во фазата на собирање податоци, продолжува со пристапот кон алгоритамскиот дизајн, и се репродуцира преку недоволно инклузивни тимови кои ги развиваат тие системи.
На пример, истражување од MIT (2018) открива дека алгоритмите за препознавање лице имаат точност од 99% за бели мажи, но под 65% за темнокожи жени. Слично на тоа, Amazon мораше да повлече интерен регрутациски систем бидејќи тој автоматски ги елиминирал биографиите на жени за технички позиции, само затоа што бил обучен врз база на претходно машко-доминирани податоци.
Системите за обработка на природен јазик честопати пренесуваат и зајакнуваат стереотипи. Пример е преведувањето на родово неутрални реченици од турски јазик кон англиски: „Оваа личност е доктор“ станува „He is a doctor“, додека „оваа личност е медицинска сестра“ станува „She is a nurse“. Таквите суптилни, но моќни примери покажуваат како технологијата, далеку од неутрална, ја одразува општествената пристрасност.
3. Феминистички перспективи за вештачката интелигенција
Феминистичките теории одбиваат да ја прифатат претпоставката дека технологијата е неутрална или објективна. Наместо тоа, тие ја гледаат како социјално конструирана, полна со вредности и хиерархии. Жените и другите маргинализирани групи историски биле исклучени од процесот на технолошки развој, што резултира со системи кои ги отфрлаат нивните перспективи.
Techno-feminism, како што го формулира Judy Wajcman, истакнува дека технологијата е рефлексија на доминантните општествени вредности и моќни структури. Дизајнерите, програмерите и инженерите – кои честопати доаѓаат од хомогени социјални групи – ги вградуваат своите гледишта во системите што ги создаваат. Ова доведува до технологија што не ги препознава, ниту пак ги вклучува потребите на жените, небинарните лица, транс заедниците или лицата со попреченост.
Феминистичката ВИ бара демократизација на технолошкиот развој: разновидност во тимовите, интердисциплинарни методологии и партиципативен дизајн. Само преку критичко преиспитување на моќта, можеме да ги разбереме последиците на ВИ системите и да градиме технологија која промовира правичност.
4. Градење родово свесна ВИ: Од критика кон трансформација
Градењето родово свесна ВИ значи премин од критика кон акција. Ова започнува со креирање на репрезентативни податочни сетови кои опфаќаат род, раса, класа, возраст и други оски на идентитет. Потребни се и техники на fairness-aware machine learning – алгоритми и метрики дизајнирани да откриваат и ублажат пристрасност.
Транспарентноста и објаснивоста на моделите (explainability) се клучни. Само ако знаеме како некој алгоритам донел одлука, можеме да го преиспитаме неговиот етички ефект. Ова особено е важно во чувствителни домени како кредитирање, вработување или безбедност.
Сѐ повеќе истражувачи предлагаат т.н. value-sensitive design – процес кој ги става вредностите на луѓето (автономија, приватност, правда) во центарот на технолошкиот дизајн. Комбинирано со партиципативен дизајн, ова доведува до системи кои не само што се технички ефективни, туку и општествено одговорни.
5. Потенцијалот на ВИ како сојузник во борбата за еднаквост
Со внимателен дизајн, ВИ може да стане сојузник во детектирање, анализа и решавање на родовата нееднаквост. Примери вклучуваат:
• Алатки за анализа на плати кои ги откриваат родовите разлики и предложуваат политики за нивно намалување.
• Системи за модерирање на говор на омраза кои се чувствителни на родова димензија.
• Образовни платформи што нудат персонализирана поддршка за девојчиња во СТЕМ.
• Алатки за безбедност на жртви од семејно насилство преку доверливи чет ботови и анонимни ресурси.
ВИ може и креативно да се користи: генеративни системи може да создаваат текстови, уметност и симулации што ги преиспитуваат родовите норми, отворајќи простор за нови форми на претставување.
6. Предизвици и идни насоки
Еден од најголемите предизвици е самата дефиниција на правичност – постојат десетици различни метрики кои понекогаш се меѓусебно спротивставени. Дали е праведно ако сите добиваат ист третман? Или ако добиваат третман согласно нивните потреби?
Исто така, постои опасност од „етичко перење“ – површни обиди за инклузивност што не носат суштинска промена. Потребни се обврзувачки регулативи, јасни етички кодекси и отчетност. Европската Унија веќе работи на AI Act кој вклучува барања за процена на влијанието врз човековите права.
Наспроти технолошкиот оптимизам, мора да признаеме дека квалитетните, интерсекционални податоци се ретки. Балансирањето помеѓу приватноста, правичноста и иновацијата е комплициран процес. Затоа, потребна е континуирана еволуција на методологиите, соработка меѓу академија, индустрија и граѓанскиот сектор.
7. Образованието и културната промена како предуслов за родово праведна ВИ
Не можеме да зборуваме за родово свесна технологија без да го вклучиме образованието и културната трансформација. Едно од главните прашања што феминистичката критика го поставува е: Како ги едуцираме идните технолошки дизајнери, инженери и истражувачи? Доколку во нивното образование не се вклучуваат прашања за етика, родова еднаквост и општествени последици од технологијата, тогаш постои реален ризик новите генерации да ги репродуцираат истите пристрасни системи.
Интеграцијата на родовите прашања во курикулумот по компјутерски науки, инженерство, дизајн и податочна анализа е од суштинска важност. Но, тоа не е доволно. Потребна е и културна промена во академијата и индустријата, каде што се вреднува интердисциплинарното знаење и критичкото размислување. Примери како програмите на MIT Media Lab или Data & Society покажуваат дека е можно да се развива технологија која е и технички софистицирана и општествено одговорна.
Исто така, потребно е охрабрување на девојчиња и жени уште од млада возраст да се вклучат во СТЕМ (наука, технологија, инженерство и математика) области, но на начин кој не ги прилагодува нив на машките стандарди, туку ја проширува самата дефиниција за тоа што значи да бидеш научник, инженер или програмер. Тука спаѓаат и менторски програми, поддржувачки заедници и борба против родови стереотипи во медиумите.
8. Родовата претстава во медиумите и влијанието врз технолошката перцепција
Еден аспект што често се занемарува е начинот на кој медиумите ја претставуваат технологијата, инженерите и самата вештачка интелигенција. Во многу научно фантастични филмови и популарни медиуми, ВИ е претставена како или опасна машка доминација (како во „Terminator“), или како сексуализирана, подредена женска фигура (како во „Ex Machina“ или „Her“).
Овие претстави имаат реално влијание врз тоа како луѓето ја перципираат ВИ и какви вредности ја обликуваат. Кога гласовните асистенти како Siri, Alexa или Google Assistant по дифолт имаат женски гласови, тоа несвесно ги засилува претпоставките дека жените се асистентки, прилагодливи и услужни. Истовремено, асистенти со машки гласови се користат во системи каде што се бара авторитет или знаење (нпр. финансиски сервиси, вештачки тренери).
Феминистичката анализа ни помага да ги разоткриеме овие културни пораки и да предложиме нови форми на претставување кои не само што ги избегнуваат стереотипите, туку ги поттикнуваат различноста и инклузијата.
9. Интердисциплинарноста како клучен пристап
Една од најголемите придобивки на феминистичката анализа во контекст на ВИ е нејзината интердисциплинарна природа. Таа не се задоволува само со техничка корекција на податоци, туку бара соработка меѓу компјутерски науки, етика, социологија, родови студии, психологија и правни науки.
Овој интердисциплинарен пристап овозможува да се поставуваат прашања кои не се видливи низ една единствена призма. На пример: Кои групи се најмногу подложни на автоматизирана дискриминација? Како културните норми влијаат врз прифаќањето
на ВИ во различни заедници? Дали еднаквоста значи ист третман, или праведно различен третман?
Феминистичката перспектива не нуди лесни одговори, туку нѐ охрабрува да живееме со сложеноста и да ја интегрираме во нашите дизајнерски и политички процеси.
10. Родовата инклузија во политиките за дигитална трансформација
Во последната деценија, многу држави и меѓународни организации донесуваат стратегии за дигитална трансформација. Сепак, ретко која од овие стратегии експлицитно вклучува родова перспектива. Повеќето регулативи се фокусираат на техничка безбедност, ефикасност, приватност и иновација, но ја изоставуваат социјалната правда и еднаквоста како централни вредности.
На пример, предлогот на Европската Унија за Акт за Вештачка Интелигенција (AI Act) дефинира високо-ризични системи и вклучува барања за транспарентност, но сѐ уште не содржи конкретни насоки за родова анализа на влијанието. Затоа, потребна е борба да се вклучат родови показатели, ревизии на пристрасност и обврска за отчетност кон маргинализираните заедници.
Некои земји прават напори во таа насока. Канада, на пример, користи т.н. Gender based Analysis Plus (GBA+) за процена на влијанието на политиките врз различни демографски групи, вклучително и при дигитализација. Но за да се направи вистинска промена, потребно е овие анализи да се операционализираат и обврзуваат – преку законски рамки, јавни извештаи и санкции за прекршување.
Вклучувањето на феминистички принципи во националните дигитални стратегии не само што ќе ја направи технологијата поправедна, туку ќе осигура и дека никој не е оставен зад себе во процесот на дигитализација.
11. Родовата свест како нова дигитална писменост
Дигиталната писменост традиционално се поврзува со способноста да се користат технолошки уреди и софтверски алатки. Но, во современиот контекст, тоа повеќе не е доволно. Потребна е нова дефиниција на дигиталната писменост – онаа што вклучува разбирање на алгоритамската пристрасност, моќта на податоците и родовите импликации од технолошките одлуки.
Родовата свест во технологијата не треба да биде екстра додаток, туку основен дел од дигиталната култура. Ова значи дека образовните програми, професионалните обуки, па дури и јавните кампањи за дигитална едукација треба да ги вклучуваат прашањата за род, инклузивност и етика. Дигитално писмена личност денес не е само онаа што
знае како да користи алатка, туку и онаа што знае како алатката ја обликува реалноста, чиј интерес застапува и кого потенцијално исклучува.
Оваа нова писменост е особено важна во времето на социјални медиуми, каде што алгоритмите одлучуваат какви вести ќе видиме, какви реклами ќе добиеме и какви претстави за родот ќе ни бидат сервирани. Без критичка свест, постои ризик да ги прифатиме дигиталните стереотипи како реални и неизбежни. Преку родово информирана дигитална едукација, може да се развие пописмена јавност способна да влијае врз креирањето на технологии, а не само пасивно да ги консумира.
12. Глобалната перспектива: Родовата еднаквост и ВИ надвор од западниот контекст
Голем дел од досегашната дебата за родова свест и ВИ се води во рамки на западниот технолошки развој. Сепак, пристапот кон ВИ мора да биде чувствителен и на глобалниот југ, каде што дигиталниот пристап, културните разлики и политичките предизвици создаваат сосема поинакви услови.
Во многу земји во развој, жените се соочуваат со дигитална неписменост, ограничен пристап до интернет и технолошки уреди, и социо-културни бариери за учество во технолошките индустрии. ВИ алатките дизајнирани во западен контекст често не се адаптирани на локалните реалности и дури можат да ги влошат постојните нееднаквости.
Поради тоа, е потребен деколонијален пристап кон ВИ и родовата еднаквост – оној што вклучува гласови од глобалниот југ, поддржува локални иницијативи, и признава дека родот не е универзално доживеан на ист начин. Различни култури имаат различни концепции за идентитетот, семејството, телото и улогите на половите – сето тоа мора да биде земено предвид при дизајнирањето на ВИ со глобален досег.
На пример, проекти како „AI4D Africa“ се обидуваат да изградат инклузивна и контекстуализирана ВИ во африканските земји. Овие проекти комбинираат технологија со развојни цели, но и со родова чувствителност што произлегува од соработката со локални жени истражувачи и заедници. Ваквиот модел треба да биде инспирација за поширокиот технолошки свет.
13. Емпатија, емоционална интелигенција и родова чувствителност во ВИ
Една од најинтересните и најконтроверзни теми во развојот на вештачката интелигенција е способноста на машините да разберат и обработат емоции. Се појавуваат сѐ повеќе системи наречени „affective computing“, односно емоционални компјутери, кои можат да препознаат чувства преку изрази на лице, глас, текст и гестови.
Овде се поставува прашањето: Може ли ВИ да биде емоционално интелигентна, а притоа и родово чувствителна? Емоционалната интелигенција, како што ја разбираме кај луѓето, е поврзана со емпатија, контекстуалност и културна чувствителност – нешта што се особено важни кога станува збор за родови прашања.
Но многу од постоечките системи за препознавање на емоции се обучени на податоци кои одразуваат западни, машки, хетеронормативни изрази. На пример, „лутина“ кај мажи често се препознава како „одлучност“, додека кај жени истата експресија може да биде погрешно класифицирана како „непријатност“ или „емоционална нестабилност“.
Затоа, феминистичката анализа бара не само техничко унапредување на ваквите системи, туку и вклучување на разнолики културни и родови изрази на емоции. Потребна е нова генерација на ВИ која не само што препознава чувства, туку го прави тоа низ призмата на правичност, историја и разновидност. Само тогаш може да зборуваме за вистински етичка, емпатична и родово свесна технологија.
14. Заклучок: Машината мисли како што ја учиме да мисли
Вештачката интелигенција нема своја морална интуиција. Таа учи од нас. Ако ѝ понудиме свет полн со дискриминација, таа ќе ја репродуцира. Но ако пристапиме критички, одговорно и со феминистичка визија, можеме да создадеме технологија што е навистина за сите.
Родовата еднаквост не е само вредност; таа е предуслов за правична и етичка технологија. Само со интеграција на феминистичките принципи во срцето на технолошкиот развој можеме да одговориме на прашањето: Да, машината може да мисли родово свесно – но само ако ја научиме така.
Библиографија :
1. D’Ignazio, C., & Klein, L. F. (2020). Data Feminism. MIT Press.
2. How Search Engines make us more racist.
3. Study finds gender and skin-type bias in commercial artificial-intelligence systems https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence systems-0212
4. Data Bias in a World Designed for Men.
5. European Commission. (2021). Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts.
6. An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations.
7. Intersectional feminism: what it means and why it matters right now. https://www.unwomen.org/en/news/stories/2020/6/explainer-intersectional-feminism what-it-means-and-why-it-matters
8. UNESCO. (2022). Recommendation on the Ethics of Artificial Intelligence. https://montrealethics.ai/unescos-recommendation-on-the-ethics-of-ai/
9. Wajcman, J. (2004). TechnoFeminism. Polity Press.
