Ерата на вештачката интелигенција: напредок или нееднаквост 

Published by

on

Download (10)

Авторка Евгенија Јанкуловска 

Вовед 

Како што напредува вештачката интелигенција треба да почнеме повеќе да се запрашуваме на што сè таа има влијание во нашите животи. Таа сè подлабоко навлегува во одлуките што ги обликуваат човечките секојдневија, влијае на нашите одлуки и постапки. Сè почесто го прашуваме нашиот нов најдобар пријател (ChatGPT) за совети поврзани со нашите чувства, како подобро да направиме нешто, како да научиме повеќе, каде да патуваме, како да го поминеме нашиот ден… Ова ме тера да се запрашам. Врз основа на што го добивам одоговорот и колку често истиот е точен и веродостоен? 

Кога моделите се обучуваат на историски пристрасни податоци, тие можат да ги засилат разликите помеѓу луѓето. Овој труд ги анализира механизмите преку кои настанува пристрасност кај вештачката интелигенција, реалните штети и доблести што произлегуваат од неа и стратегиите за создавање правична, одговорна и чувствителна вештачка интелигенција. 

ВИ може да стане алатка за еднаквост само ако еднаквоста е присутна од дизајн до имплементација. Само ако се тргнат стереотипите на страна и вештачката интелигенција се храни со “вистински” податоци.

Од каде започнува пристрасноста 

И покрај напредокот во развојот на вештачката интелигенција (ВИ), еден од клучните предизвици останува пристрасноста во податоците врз кои моделите учат. Проблемот започнува со историските податоци, кои често ја отсликуваат општествената нерамнотежа. Исто така, клиничките студии врз кои се базираат многу здравствени системи во ВИ, главно се вршеле врз машки пациенти, што доведува до погрешни дијагнози на жените и малцинските групи. 

Дополнително, проблемот се продлабочува со пристрасното означување. На пример, ако се испрати фотографија од маж и жена во медицинско одело, моделот може да ја класифицира машката личност како „доктор“, а женската како „медицинска сестра“, одразувајќи ги родовите стереотипи што постојат во податоците. Овие пристрасности не се резултат на „лоша намера“ од страна на развивачите, туку на огледалото што технологијата го држи пред општеството. 

Дополнителен проблем е што при обработка на податоците, малцинските групи често се препознаваат како „аномалии“ – и поради тоа се отфрлаат како шум или непотребни елементи. Но токму тие податоци се клучни за изградба на инклузивна и веродостојна ВИ. 

Сето ова доведува до циклус на пристрасност – моделите учат од пристрасни податоци, потоа произведуваат пристрасни резултати, кои пак се користат како „доказ“ за следни одлуки и обуки. Без интервенција, ВИ нема да го ублажи туку ќе го засили постојниот социјален дисбаланс. 

Сѐ додека основата – податоците – е пристрасна, не можеме да очекуваме непристрасен резултат. Развојот на етичка и праведна ВИ мора да започне со критичка анализа и поправка на самите податоци.

Конкретни примери за пристрасни податоци и нивното влијание врз вештачката интелигенција 

Пристрасноста во податоците не секогаш се манифестира на очигледен начин. Често е суптилна, скриена во начинот на кој податоците се собираат, преработуваат, организираат и толкуваат. Следните примери го илустрираат тоа. 

1. Пристрасност во критериумите за вработување: 

Еден од системите кои користат ВИ е систем за автоматизирана селекција на кандидати за вработување. Ако метриката за успех на моделот е дефинирана како „кандидати кои останале во компанијата повеќе од две години“, тогаш се фаворизираат групи што имаат стабилни работни историјати, а се дискриминираат оние што поради животни околности (на пр., родители што се грижат за деца) имаат поголема веројатност да ја сменат работата порано. Така, дури и без директно наведување на пол, возраста или семејниот статус, моделот индиректно создава пристрасни критериуми што ја намалуваат шансата за вработување на одредени групи. 

Еден од најпознатите случаи се случи во 2018 година, кога компанијата Amazon беше приморана да се откаже од интерна алатка за селекција на кандидати за вработување, откако беше утврдено дека алгоритмот систематски ги дискриминира женските резимеа. Алгоритмот беше обучен врз историја на апликации од изминатите 10 години, при што мнозинството успешни кандидати биле мажи, што резултирало со автоматско намалување на рангирањето на апликации кои вклучуваат зборови како „женски“ или дипломи од женски колеџи. 

2. Невидливост на малцинските групи: 

Малцинските групи најчесто се слабо застапени во базите на податоци. Како резултат на тоа, грешките кои моделот ги прави врз овие групи остануваат скриени – тие се толкуваат како „ретки“ случаи или се игнорираат во статистичката анализа. Ова води до недоволна корекција на моделот, што значи дека системот ќе продолжи да донесува погрешни одлуки токму за најмаргинализираните корисници. 

3. Пристрасност при тестирање: 

Ако се користат тест-податоци кои се слични или идентично пристрасни како оние врз кои моделот бил обучен, тогаш резултатите од тестирањето ќе покажат висока точност – но тоа е само илузија. Моделот не е „точен“, туку е во согласност со својата пристрасност. Наместо да се откријат слабостите, тие се легитимираат како „точни“. 

4. Пристрасност во медицината: 

Во медицинскиот сектор, истражувања покажуваат дека неколку модели за предвидување и дијагноза не земаат предвид специфичности поврзани со женскиот организам. Причината лежи во фактот што мнозинството клинички податоци на кои моделите се обучени потекнуваат од машки испитаници. Како последица, некои дијагностички системи даваат неточни резултати за женски пациенти, што може да доведе до доцна или погрешна дијагноза. 

5. Проблеми кај модели за препознавање лица 

Проблемот е присутен и кај системите за препознавање лица. Истражување од 2019 година покажа дека точноста на препознавање на лица кај афро-американски жени може да биде пониска за повеќе од 35% во споредба со белите мажи. Овие разлики имаат сериозни импликации, особено во безбедносни системи или апликации во полицијата, каде што грешките можат да резултираат со погрешна идентификација и неправедно третирање. 

6. Потврдување на постоечките убедувања: 

Улогата на тестаторите и уредувачите на вештачката интелигенција не смее да се потцени. Доколку тие не се свесни за сопствените погледи, може несвесно да ги потврдат и зајакнат заклучоците што ги дава моделот. Овој феномен се нарекува confirmation bias, при што луѓето имаат тенденција да прифаќаат информации кои се совпаѓаат со нивните претходни убедувања, а да игнорираат оние што не се вклопуваат.

7. Најкористениот модел на вештачка интелигенција (ChatGPT) е подложен на стереотипи 

Во прилог на оваа анализа се презентирани два примера добиени од ChatGPT, при што се бараше опис на „типичен маж“ и „типична жена“.

Анализата на резултатите покажува дека: 

Во двата случаи, опишаните карактеристики директно или индиректно се темелат на родови стереотипи (на пример, жените се опишуваат како грижливи, емотивни и поврзани со домашни обврски, додека мажите се опишуваат како силни, амбициозни и лидери). 

Иако моделот честопати користи фрази како „според општата перцепција“ или „според општествените норми“, сепак ги репродуцира тие стереотипи без критичко одвојување на перцепцијата од реалноста. Ова укажува дека

моделите на вештачка интелигенција, иако „свесни“ за стереотипите, не располагаат со доволно механизми да ги избегнат во своите одговори. 

Овој феномен ја потенцира потребата од посериозна контрола и надзор при тренирање на генеративни модели, особено кога тие модели имаат широка примена во образовни, здравствени, или административни контексти. 

Сите овие примери ја покажуваат сложеноста на проблемот: пристрасноста не е само техничко прашање, туку длабоко социјално и етичко. Без внимателен пристап при дефинирање на критериумите за успех, избирање на податоци и критичка евалуација на резултатите, моделите на вештачка интелигенција не само што ќе ги репродуцираат постојните нееднаквости – туку ќе ги зацементираат како „научно потврдени вистини“. 

Нееднаква пристапност до вештачката интелигенција како фактор на продлабочување на социјалната нееднаквост 

Иако вештачката интелигенција носи голем потенцијал за општествени подобрувања, таа не е подеднакво достапна за сите. Разликите во пристапот до ВИ не произлегуваат само од технички, туку и од економски, образовни, културни и јазични бариери. Кога овие разлики не се адресираат, постои ризик вештачката интелигенција да стане алатка која ја засилува постоечката социјална и економска нееднаквост, наместо да ја намали. 

Како нееднаквата пристапност води кон поголема нееднаквост? 

1. Економски бариери 

Луѓето со пониски примања често немаат пристап до модерна технологија или интернет конекција, што ги спречува да користат ВИ-базирани услуги како онлајн едукација, дигитално здравство или платформи за вработување.

Како резултат, тие остануваат изолирани од економски можности и понатаму заостануваат зад побогатите слоеви. 

2. Образовни разлики 

ВИ системите бараат одредено ниво на разбирање за да се користат ефективно. Лицата со пониско ниво на образование имаат потешкотии да ги разберат, користат или контролираат ВИ алатките. Тоа создава нова форма на дигитална зависност и ранливост, каде што образованите и технолошки вештите стануваат уште поосилни, а другите сѐ поизолирани. 

3. Јазична и културна исклученост 

Повеќето ВИ алатки се развиваат на англиски и за доминантни култури. Корисниците од мали или недоволно застапени заедници – вклучувајќи и говорници на македонски – имаат ограничен пристап до корисни ВИ сервиси како препознавање на говор, машински преводи или локализирани образовни ресурси. Ова го намалува нивното учество во глобалниот дигитален простор. 

4. Исклучување на лица со попречености 

Иако ВИ може да понуди алатки кои ја олеснуваат секојдневната комуникација и вклученост на лицата со попречености, овие алатки често не се доволно развиени, достапни или адаптирани на локалните потреби. Како резултат, овие лица остануваат изолирани, и покрај потенцијалот технологијата да им помогне. 

Кога само дел од популацијата има пристап до ВИ алатки, се создава циклус на нееднаквост: групите што се веќе привилегирани добиваат дополнителни ресурси, знаења и можности, додека маргинализираните заедници стануваат уште поневидливи. Ова се одразува врз нивото на вработеност и видот на достапни работни места, квалитетот на образование и учење, пристапот до здравствени и административни услуги, можноста за учество во донесување одлуки и иновации. 

Наместо да биде алатка за еднаквост, ВИ ризикува да стане катализатор на уште подлабока поделба ако не се преземат мерки за правична достапност. За да се

избегне ова, потребно е активно вклучување на маргинализираните групи во развојот на технологијата, инвестирање во дигитална писменост, и локализација на ВИ алатки според културните и јазични специфики на различни заедници. 

Мерки за намалување на пристрасноста во вештачката интелигенција 

Вештачката интелигенција ги рефлектира – а понекогаш и ги засилува – општествените стереотипи поврзани со пол, раса, возраст итн. Со самиот развој на вештачката интелигенција, неизмерно е дека ќе мора да ја интегрираме во нашите животи и од клучно значење е истата да враќа веродостојни резултати. Во продолжение се наведени неколку примери како може да се намали пристрасноста на моделите. 

1. Креирање на разновидни и балансирани бази на податоци При избор на податоци за тренирање на модели, потребно е да се вклучат податоци кои се репрезентативни за различни полови, етнички групи, возрасни категории и социјални позадини. На пример, при развој на систем за автоматско препознавање говор, потребно е да се вклучат аудио-записи од луѓе со различни акценти и дијалекти. Истовремено, потребно е свесно да се елиминираат податоци кои ја рефлектираат историската пристрасност, како што се стереотипни поврзувања на професии). 

2. Формирање на инклузивни тимови за развој и тестирање Истражувањата покажуваат дека тимови составени од лица со различни културни, полови и расни позадини полесно ги препознаваат и коригираат потенцијалните пристрасности во системите. На пример, во компаниите кои имаат поразновиден состав на вработени, се бележат помалку случаи на т.н. „слепи точки“, каде што алгоритмите функционираат неправилно врз одредени демографски групи.

10 

3. Јакнење на јавната писменост и образованието за ВИ 

Образовните програми и кампањи за подигање на свеста кај корисниците се клучни за справување со пристрасноста. Кога корисниците разбираат како функционира еден алгоритам – на пример, дека моделот учи врз основа на податоци и дека тие податоци може да се погрешни или пристрасни – тие полесно ќе можат да ги идентификуваат проблемите и да изразат сомнеж или отпор кон погрешни одлуки. Ова се особено важни алатки во образовниот систем и во јавниот сектор, каде што вештачката интелигенција сè повеќе се користи при носење одлуки. 

Улогата на ВИ за откривање на нееднаквост 

Вештачката интелигенција сè почесто се користи за анализа на големи количини на податоци со цел да се идентификуваат различни видови на нееднаквост: родова, етничка, образовна, економска и географска. 

Подолу се прикажани неколку конкретни примери каде што АИ системи се употребуваат за препознавање и анализирање на ваквите разлики: 

1. Родова нееднаквост 

Glassdoor користи алгоритми за анализа на плати и бенефиции во илјадници компании. Преку овие анализи, можат да се утврдат просечни плати за иста позиција по пол. Овие податоци му овозможуваат на работодавачот да увидува несразмерности – на пример, жена и маж со исти квалификации да имаат различна плата – и да преземе корективни мерки. 

LinkedIn користи вештачка интелигенција за да ги анализира податоците за вработените според пол, индустрија и менаџерски позиции. Овие податоци покажуваат, дека жените се значително помалку застапени во ИТ секторот и на лидерски позиции. 

IBM Watson се користи во интерна анализа на големи корпорации, каде преку анализа на перформансни прегледи и комуникациски шаблони се открива

11 

дали жените добиваат помалку можности за унапредување или пониски оценки за ист квалитет на работа. 

2. Етничка и расна нееднаквост 

Zest AI е компанија што користи машинско учење за подобрување на процесите за кредитно оценување. Наместо да се потпира на историски податоци (кои често се пристрасни), Zest AI користи алтернативни извори на податоци за да обезбеди фер услови за маргинализирани етнички групи кои традиционално се соочувале со дискриминација при добивање кредити. 

3. Едукативна нееднаквост 

Coursera и EdX користат ВИ за анализа на податоците од учесници на нивните курсеви. Со помош на овие податоци се следи родот, возраста, географската локација и социо-економскиот статус на учесниците. Вака може да се утврди, на пример, дека лица од рурални средини поретко се запишуваат на STEM курсеви, што води кон развој на стратегии за нивна поголема инклузија. 

4. Географска и економска нееднаквост 

UN Global Pulse, иницијатива на ОН, користи АИ за анализа на податоци од социјални мрежи, сателитски снимки и економски извештаи за да идентификува области со најголема сиромаштија или нееднаквост во пристап до здравствени и образовни услуги. Овие податоци им помагаат на владините тела и НВО да ги насочат ресурсите кон најзагрозените региони. 

Соодветно развиени и транспарентни АИ системи можат да бидат моќна алатка во борбата против различни форми на нееднаквост. Она што е важно е да се осигура дека моделите не ги повторуваат постојните пристрасности, туку активно придонесуваат за поправедно и поинклузивно општество. Овие примери покажуваат дека технологијата не е неутрална – нејзината етичка вредност зависи од начинот на кој ја користиме.

12 

Заклучок 

Вештачката интелигенција претставува моќна алатка што може да го обликува нашето општество на различни начини – и позитивно и негативно. Како што видовме, пристрасноста што се пренесува преку историски податоци и стереотипи може значително да влијае врз луѓето, како во начинот на кој се претставени, така и во можностите што им се доделуваат. Но, исто така видовме дека доколку се користи правилно, со соодветен дизајн, транспарентност и инклузивност, вештачката интелигенција може да се претвори во моќен сојузник во борбата за еднаквост. 

За да се постигне ова, неопходно е да се преземат конкретни чекори: развивање на модели со разновидни и балансирани податоци, формирање инклузивни тимови и едукација на јавноста за потенцијалните ризици и предности. Вештачката интелигенција не е неутрална – таа учи од нас, од нашите постапки и нашата историја. Од нас зависи дали ќе ѝ дозволиме да ги повтори старите неправди или ќе ја насочиме кон поправедна иднина. 

Едукацијата и подигнувањето на јавната свест играат клучна улога во градењето општество што разбира како функционира вештачката интелигенција и какви последици може да има нејзината пристрасна примена. Само свесно и информирано општество може да создаде технологии што служат на сите граѓани подеднакво.