Андреј Шаркоски
Апстракт
Во современиот дигитален свет, вештачката интелигенција (AI) игра сè поголема улога во носење одлуки, анализа на податоци и автоматизација на процеси во сите сфери на општеството. Но алгоритмите не се неутрални — тие се производ на историските, општествените и културните структури кои ги обликувале податоците што се користат при нивната обука.
Овој труд го истражува етичкиот аспект на AI од родово-интерсекционален поглед, фокусирајќи се на тоа како алгоритмите ги репродуцираат нееднаквостите врз основа на пол, раса, класа, сексуална ориентација, возраст и попреченост.
Се покажува дека недостатокот на интерсекционална перспектива доведува до системски дискриминаторни резултати, непрецизни предвидувања и општествено штетни одлуки. Трудот предлага методи, политики и етички стратегии за создавање праведни, транспарентни и инклузивни AI системи.
Вовед
Вештачката интелигенција денес се користи во сите сфери — од здравството, образованието и банкарството, до јавните политики, безбедноста и социјалната заштита. Но, иако AI се смета за технолошка иновација која треба да донесе објективност, истражувањата докажуваат дека алгоритмите многупати произведуваат пристрасни резултати.
Интерсекционалноста, концепт дефиниран од Кимберли Креншоу, објаснува дека човековите идентитети не постојат независно — туку преку преплетување на пол, раса, сексуалност, класа, возраст и попреченост. Кога AI системите не ги земаат предвид овие преплетени идентитети, резултатот е алгоритамска дискриминација.
Целта на овој труд е да се анализира како AI ги репродуцира историските нееднаквости, како тие влијаат врз различни групи, и кои етички пристапи се неопходни за да се создадат правични технолошки системи.
Подетално објаснување на интерсекционалност
Интерсекционалноста претставува аналитички рамки кои ги разгледуваат идентитетите на индивидуата како повеќеслојни и меѓусебно зависни. Терминот е воведен од правничката Кимберли Креншоу во 1989 година, со цел да се објасни како жените од различни расни и социјални групи не го доживуваат сексизмот на ист начин. Според Креншоу, жената не постои како „универзален субјект“, туку како комбинација на пол, раса, класа, сексуалност, инвалидитет и други општествени категории. Затоа, секоја анализа која се фокусира само на една категорија создава непотполна слика.
Интерсекционалноста нагласува дека дискриминацијата функционира како преплет на системски неправди: сексизмот, расизмот, класизмот, хетеросексизмот и аблеизмот. Тие не може да се анализираат изолирано, бидејќи луѓето не живеат изолирани идентитети. На пример, расизмот врз жените со црна кожа функционира поинаку отколку врз мажите со истата кожа, и поинаку отколку врз белите жени.
Овој концепт станува суштински во дигиталната ера, особено кога алгоритмите почнуваат да носат одлуки во образованието, здравството, банкарството и работните процеси. Ако AI моделите не ја земаат предвид интерсекционалноста, тие ги репродуцираат истите општествени хиерархии што ги постојат во реалноста
Интерсекционални пристрасности во AI
Полова пристрасност во податоците
Родовите разлики се длабоко вкоренети во податоците. Истражувањата покажуваат дека AI системите почесто препознаваат машки лица, машки гласови и машки модели во текст. Алгоритмите за вработување ги елиминираат женските имиња, бидејќи историските податоци фаворизирале мажи на високи позиции.
Расни и етнички нееднаквости
Моделите за препознавање лица имаат висока грешка кај потемни тонови на кожа. Алгоритмите за предиктивно полициско работење често таргетираат малцински заедници, бидејќи историјата покажувала зголемена полициска активност таму — што не значи реална криминалност, туку историска пристрасност.
Класна дискриминација
AI моделите за кредитен скоринг, доделување станбена помош и предвидување на ризик во социјалните служби често ги казнуваат сиромашните заедници. Податоците се веќе обликувани од нееднакви општествени структури.
Алгоритамско исклучување на попречености
Лицата со попреченост ретко се застапени во обуки на AI. Моделите за препознавање говор тешко препознаваат лица со говорни тешкотии, а системите за препознавање лица не препознаваат лица со анатомски варијации.
ЛГБТ+ исклученост
AI системите погрешно категоризираат содржини поврзани со ЛГБТ+ заедницата, што резултира со цензура, неточни препораки и исклучување од дигиталните услуги. Недостатокот на податоци доведува до огромна дигитална маргинализација.
Родови пристрасности во тренинг – Пример
Една од најголемите причини за пристрасност во AI е нееднаквата застапеност на жените во податоците. Во многу системи за препознавање на глас, женските гласови се препознаваат со 13–20% поголема грешка од машките (UN Women, 2023). Причината е што моделите се обучувани на аудио-записи доминантно од машки говорници.
Во обработката на текст, машките имиња, занимања и глаголи што се поврзуваат со машки род се појавуваат значително повеќе. Студиите покажуваат дека многу NLP модели, како word2vec и GloVe, генерираат асоцијации „медицинска сестра – жена“, „инженер – маж“, што создава родови стереотипи во автоматските преводи, препораките и системите за вработување.
Алгоритмите за селекција на кандидати, користени од големи компании, понекогаш фаворизираат машки биографии бидејќи историските податоци содржеле повеќе успешни машки кандидати. Во познатиот пример со Amazon (2018), AI системот за вработување го намалуваше рејтингот на кандидатки само затоа што во биографијата стоеше „women’s club“, „women’s coding group“, итн.
Расни нееднаквости и нивен преклоп со половите
Истражувањето Gender Shades од MIT Media Lab (Buolamwini & Gebru, 2018) покажува драматични разлики во точноста на препознавање лица:
Машки бели лица → <1% грешка
Женски бели лица → ~7% грешка
Машки црни лица → ~12% грешка
Женски црни лица → до 35% грешка
Ова е јасен пример за интерсекционален проблем: најголемата дискриминација ја трпат жени со темна кожа, а не само жени или само црни лица.
Алгоритмите за предиктивна полиција, користени во САД и Европа, често даваат ризични оценки за луѓе кои доаѓаат од етнички малцинства. Причината не е зголемена криминалност, туку историски нееднакви полициски практики кои ги формирале базите на податоци.
Класни и економски пристрасности
Алгоритмите за кредитно скорирање, како оние на големите банки и платформи како Klarna, често ги казнуваат луѓето со пониски приходи поради:
помал пристап до финансиски институции
помалку историја на задолжување
нестабилни работни позиции
Кога класата се преклопува со полот (жени од сиромашни заедници) или со расата (етнички малцинства), тие групи се системски казнети од автоматските системи.
Слично, алгоритмите за распределба на социјална помош во Холандија и Велика Британија покажаа поголема веројатност за означување ризик кај самохрани мајки, мигрантки и лица со ниски приходи – типичен пример за интерсекционална дискриминација.
Последици врз јавните системи
2.1 Последици во јавните политики
Кога владините системи користат AI за распределба на ресурси, тие многу често ги репродуцираат нееднаквостите. Жени, сиромашни и етнички малцинства добиваат помалку социјална поддршка.
2.2 Ефекти во здравството
Здравствените алгоритми не ги препознаваат симптомите кај различни групи — жени, лица со потемна кожа, лица со попречености. Последиците се погрешни дијагнози, одложени третмани и здравствени ризици.
2.3 Алгоритмска дискриминација во образованието
AI системи за оценување на ученици произведуваат предрасуди против ученици од одредени социо-економски групи. Машките ученици често добиваат повисоки системски оценки поради историски пристрасни примероци.
2.4 Дигитална нееднаквост
Жените и руралните заедници имаат помал пристап до дигитални алатки, што доведува до уште поголема исклученост кога побарувањето за дигитален пристап расте.
2.5 Алгоритми во трудот и работните односи
AI системите користени за селекција на кандидати често дискриминираат кандидати по пол, возраст или етничко потекло.
Исклученост на лицата со попреченост
AI моделите ретко содржат доволно примери од лица со попреченост. Ова резултира со:
неточни системи за препознавање говор кај лица со говорни тешкотии
неточни биометриски системи кај лица со анатомски варијации
некоректни системи за следење на движење кај лица со ограничена подвижност
Исто така, многу образовни алатки базирани на AI не се достапни за слепи или глуви лица, што создава дигитална бариера.
ЛГБТ+ исклученост во дигиталните системи
AI алгоритмите, особено оние во социјалните мрежи и рекламните системи, често погрешно класифицираат содржини што се однесуваат на ЛГБТ+ теми како „чувствителни“, „експлицитни“ или „опасни“. Ова резултира со:
цензура на образовни содржини
делистирање на видеа
ограничена видливост на корисници
Повеќе студии покажуваат дека алгоритмите не ја препознаваат разликата помеѓу дискриминаторски говор и само-идентификација (на пример, лице што пишува „I’m gay“ добива ограничување).
Последици од алгоритамската дискриминација во јавните системи
AI системите сѐ почесто се користат во државните институции. Ова доведува до голем ризик ако моделите се пристрасни или нетестирани.
Здравство
Алгоритмите кои предвидуваат ризик за одредени болести често го потценуваат ризикот кај жени и кај лица со потемна кожа. Познат пример е здравствениот алгоритам во САД кој им доделуваше пониски приоритети на црните пациенти (Obermeyer et al., 2019).
Едукација
Автоматските системи за оценување, како што се користеа во Велика Британија (A-level scandal 2020), покажаа поголема склоност да дават пониски оценки на ученици од сиромашни заедници.
Вработување
Алгоритмите за препорака или автоматска селекција ги фаворизираат машките кандидати во технолошките професии.
Стратегии за етички и инклузивни AI системи
Интерсекционален дизајн на AI
Мора да се имплементираат податочни множества кои ги претставуваат сите идентитетски групи — полови, раси, класи и возраст.
Транспарентност и отворени алгоритми
Алгоритмите мора да бидат ревидирани од независни експерти, а државите мора да обезбедат објаснива AI технологија.
Регулативи и законски рамки
Потребни се закони кои ќе забранат дискриминаторни AI системи и ќе наложат одговорност кај институциите.
Етички стандарди
Секој AI систем мора да биде развиен со принципи како правичност, отчетност и инклузивност.
Континуирани ревизии
AI мора да се ревидира во реално време за да се избегне нова појава на пристрасности.
Заклучок
AI има потенцијал да го подобри светот, но исто така може да ги зајакне најдлабоките општествени нееднаквости ако не биде правилно дизајниран. Интерсекционалната перспектива е неопходна за да се разбере како алгоритмите влијаат врз различни групи. Без оваа перспектива, AI ќе остане дискриминаторен, нетранспарентен и опасен.
Само преку етички пристапи, политички регулативи, инклузивни податоци и транспарентност можеме да создадеме AI системи кои работат за сите — а не само за привилегираните.
Библиографија
UN Women – Gender and AI
https://knowledge.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender-equality
OECD / UNESCO – „The Effects of AI on the Working Lives of Women“
https://www.oecd.org/en/publications/the-effects-of-ai-on-the-working-lives-of-women_14e9b92c-en.html
WHO – Gender and Health
https://www.who.int/health-topics/gender
AI Now Institute – Algorithmic Bias Reports
https://ainowinstitute.org/news/ai-now-2017-report
MIT Media Lab Studies on AI Bias – Gender Shades
https://gendershades.org/overview.html
TED Talks – Algorithmic Fairness
https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms
YouTube: Gender Bias in AI Development
https://www.youtube.com/watch?v=Vq7fkXTMyq4
