Автор Александра Јошеска
Вовед
Со развојот на технологијата како и разните нови човекови креации силен замав зема Вештачката Интелегенција и алатките со кои располага истата. Како битен дел од секојдневниот живот на човекот Вештачката Интелегенција драстично му помогна на просечниот човек да се пробие во многу свери од животот без разлика на неговите способности и квалификации. Безброј прашања со безброј понудени одговори… за секој наш проблем има и генерирано решение. Но треба да го поставиме прашањето колку навистина податоците кои ги добиваме од генераторите може да ги асоцираме со реалноста?
Да можеби звучи чудно, но доста од умот на генераторите произлегува од алгоритамот кој ние го произведуваме. Добро програмираната алатка всушност ја користи нашата сила и нашиот ум, и ние како човештво целосно и се препуштивме.. Оставајќи ја целосно да располага со нашето време и внимание.
Како човештво секојдневно се соочуваме со безброј проблеми на кои и самите бараме решение преку овие алатки. Но како еден од главните проблеми за кој треба да се дискутира е родовата нееднаквост која е доста видлива , но сепак одлучуваме да не ја гледаме.. Добра паралела можеме да направиме со вештачката интелегенција и алатките кои генерираат неточни информации и шират лажни вести, поради тоа што секојдневно се генерираат и вадат информации кои шират предрасуди и стереотипи кои ја поткрепуваат првата теза од оваа семинарска работа која е фактот дека родовата нееднаквост е сеуште присутна. Преку следното истражување ќе обрнам внимание на самиот алгоритам кој ги изнесува тие информации како и решение кое може да го намали ширењето на родова нееднаквост во нашето општество.
Обработка
Како се формираат алгоритми кои шират родова нееднаквост?
Како што веќе споменав во самиот вовед кога е во прашање терминот Вештачка Интелегенција, треба да сме свесни дека станува збор за нешто кое е всушност градено од човекот за човекот. Алгоритам кој ни помага токму на нас.. алатка токму за нас. Но како всушност се доаѓа до сите информации со кои располагаат алатките за генерирање на содржина??
Станува збор за една поврзаност со различни бази на податоци. Самото јадро е поврзано со тие податоци, кои всушност претставуваат збир на технологии кои им овозможуваат на компјутерите да извршуваат сложени задачи побрзо од просечниот човек. Како пример можам да го земам системот за вештачката интелегенција , но поконкретно моделите за машинско учење кои своите задачи ги учат и за истите се соодветно обучени.
Со тоа ние согледуваме дека станува збор за алатки кои се многу добри во учење на одредени информации кои можат да придонесат до ширење на неконзистентни информации како и дискриминација. А поточно РОДОВА дискриминација. Кога овие модели се потпираат на пристрасни алгоритми тие можат да зајакнат веќе постоечки предрасуди како и одново поттикнување на дискриминација. Самата поврзаност кон грешна база на податоци која се базира на доста стари анализи може да доведе до неконзистентни генерирани информации како и статистики. Со тоа како пример можам да земам некоја тренирана машина која е способна и обучена за донесување на одлуки за вработување. Истата е поврзана со податоци кои се доста стари и укажуваат на минатото и тогашната состојба со родовата нееднаквост. Ако повеќето од тие примери ги покажуваат мажите како научници, а жените како медицински сестри вештачката интелегенција може да толкува дека мажите и жените се посоодветни за одредени улоги и донесуваат пристрасни одлуки при филтрирање на апликациите. Овој термин е дефиниран како родова пристрасност на вештачката интелегенција – кога таа ги третира луѓето поинаку врз основа на нивниот пол. Тоа е столбот од дрвото на проблеми со кои се соочуваат корисниците на вештачката интелегенција. [1]
Родовата нееднаквост на работните места предизвикана од Вештачката Интелегенција
Од секогаш кога била во прашање родовата нееднаквост не се изоставувало да се споменат разликите и стереотипите низ кои жените поминувале низ годините. Жените се за во кујна не за на работна позиција… мажите можат да го работат тоа додека жените не се способни за позиција како лидер..
Тоа се само дел од предрасудите со кои жените се соочувале низ годините, сеуште истите се присутни но за одредена мера намален е бројот на луѓе кои размислуваат дека жената ја нема силата која одлучува да не ја покаже. Но во светот на Вештачката Интелегенција сеуште се присутни тие некои предрасуди кои ги прикажува во форма на изгенерирана слика, или пак статистика која е грешна.
Постојат одредени статистики кои покажуваат дека жените се доста дискриминирани особено на позициите кои се наменети за технологија
- Недостаток на родова еднаквост во дизајнот – На глобално ниво жените се уште сочинуваат само помалку од една третина од вработените во технолошкиот сектор [2]
- Недостаток на родова еднаквост на лидерските позиции – истражувањата покажуваат дека жените сочинуваат само 8% од главните директори за технологија [2]
- Недостаток на транспарентност и одговорност – алгоритмите за генерирање и управување со податоците зависат од квалитетот на податоците кои се користат за обука на моделот на вештачка интелегенција како што веќе напоменав. Многу често моделите за вештачка интелегенција се користени како така наречена ,,црна кутија,, чии одлуки не се широко разбрани [2]
Интересен експеримент кој вреди да се спомене кој навистина ја поткрепува тезата дека жените се дискриминирани на работното место е експериментот на Амазон. Во 2014 година, Амазон разби експериментален систем за автоматизирано селектирање на кандидати за работна позиција преку вештачка интелегенција. До 2015 година компанијата ја достигна својата цел која и беше да се провери колку таа теза на родова нееднаквост е вистинита. Нивниот алгоритам бил обучен на податоци и биографии од последните 10 години, кои во изобилство содржат мажи. Тоа доведува до рангирање на истите како повисоко наспроди оние кои се припадници на женскиот пол. Дошло до елиминација на биографиите што содржат зборови како ,,women’s,, или дипломи од женски колеџи. Со овие добиени резултати можам повторно да кажам дека нееднаквоста е доста видлива особено кога се користи алатката за генерирање вештачка интелегенција. Обидот за неутрализирање на алатките за вештачка интелегенција не биле сигурен чекор за Амазон, бидејќи со вештачката интелегенција нема потполна гаранција. Никој не може да ја гарантира содржината што потенцијално може да биде изгенерирана во одреден момент, како и сортирањето на кандидати кои можат да бидат показател на дискриминација. Многу корпорации сеуште го користат овој пристап, но за разлика од нив Амазон по согледувањето на видливата нееднаквост го откажа проектот, и по тој увид во податоците имаат уште една причина да не се потпираат само на тие рангирања. [3] За жал оневозможувањето на жените од одредени работни позиции низ годините довело до креирањето на ваква лоша статистика која и ден денес се користи за одредени истражувања кој се смета дека ќе помогнат во одредената свера при истражувањето. Борбата на жените низ годините ја покажува нивната моќ која довела до подобрување на сегашната состојба зголемувајќи го процентот на жени кои можат и се пробиле во работните сфери кои од секогаш биле наречени ,,машки,, и немале простор за жените. Амазон со нивниот експеримент ја докажа оваа теза од семинарската работа, но доаѓа и една неодамнешна студија при анализирање на генеративната вештачка интелегенција – поточно тестирање на ChatGpt. ChatGpt претставува алатка која во денешницата е доста позната за генерирање на најразлична содржина. Слики, текст па дури и превод. ChatGpt им помогна на многу студенти и ученици да генерираат најразлична содржина при што и самите добиваат позитивни резултати кога се во прашање студиите или општо образованието. Злоупотребата на овие алатки е битен дел кој не смее да се изостави и мора да се спомене. Развивањето и генерирањето на дискриминаторна содржина е проблем сам по себе. Луѓето ја злоупотребуваат слободата која таа алатка ја нуди за да шират и распространат содржина која е не само дискриминаторна туку и наврледлива. При направеното тестирање конкретно се користел моделот на големи јазици, Алпака – модел развиен од Универзитетот Стенфорд , кој ќе произведува писма со препораки за потенцијални вработени. Како што веќе споменав оваа студија како и многу други придонесоа за признавање на социјалните тела за вистинската состојба на родовата дискриминација во вештачката интелегенција. Асоцирањето на мажот со термините како ,,експерт,, и ,,интегритет,, , а жената со ,,убавина,, и ,,задоволство,, беа вистинскиот показател дека зад вештачката интелегенција се крие еден длабок проблем кој е доста голем за искоренување. [4]
Како корисници на сите овие алатки за генерирање на вештачка интелегенција кои се во голема мера достапни можеме да го поставиме прашањето колку навистина е таа распространета? Дали единственото нејзино видно поле е на работните места или пак тука лежи многу подлабок проблем?… Преку анализа на следните тези можеме да го одговориме поставеното прашање.
Анализа на ризиците со кои се соочуваат жените при злоупотреба на Вештачката Интелегенција
Како што веќе го напоменав проблемот со работните позиции при користење на Вештачката Интелегенција и нејзините вешти алатки претставува цврсто сплотување на грешна статистика и долгогодишна дискриминација. Би сакала да кажам дека тоа е единствениот проблем кој го има вештачката интелегенција и нејзината потенцијална злоупотреба , но за жал има многу повеќе од тоа. Проблеми кои претставуваат ризик како и за жените така и за мажите.
Според одреден број на студии и истражувања е докажано дека со поголеми ризици за злоупотреба се соочуваат жените кога се во прашање лажни информации.. генерирани слики кои шират неконзистентна содржина како и несоодветни содржини прикажани за одредена индивидуа. Ние како општество не сме сеуште свесни какво лошо влијание може да има само една злоупотреба на фотографија или пак лична информација врз една индивидуа.. Жените се доста загрижени за влијанието на вештачката интелегенција и целото генерирање на содржина кога е во прашање нивната лична безбедност. Одреден период на сцената се појавуваат безброј генерирани фотографии од жени со несоодветна содржина што претставува загрозување на нивниот имиџ како и потенцијална опасност за личната безбедност. Тука веќе зборуваме за ЗЛОУПОТРЕБА на Вештачката интелегенција кое претставува едно вистинско дно за нашето општество. Потенцијално зацрнување на нечиј образ со лажни слики или пак видеа. Голема мета за ова според статистиките претставуваат жените , а особено и женските политички лица.
Одреден број на училишта во различни држави пријавуваат случаи на тинејџерки кои биле подложени на вакви инциденти, што е доста вознемирувачко особено за одредената возрасна група. Со порастот на ваквите инциденти стравот на жените се повеќе и повеќе се зголемува, со тоа што измамите и криминалот обезбеди свое поле и во дигиталната арена. Органите за спроведување на законот пријавуваат значителни зголемувања на онлајн финансиска измама, кражба како и посегнување по нечиј индентитет. Проблемот ги засегнува и двете страни , како и жените така и мажите. Но зголемената загриженост кај жените се должи на долгорочните стравови со кои тие се соочуваат како мета на криминалци кои обично се поврзуваат конкретно со полот, како и со одредена физичка карактеристика која тие ја поседуваат. [5] Како што веќе ги споменав таканаречените ,,Deep Fakes,, или пак просто кажано лажна содржина која секојдневно се генерира против женскиот пол која се одразува во повеќето случаи како одмазда, нечија забава може да доведе до сериозни проблеми. Истите тие се користат за политичка манипулација.
Кога се зборува на темата генерирање на фотографии кои се со несоодветна содржина, во јануари 2024 социјалните мрежи беа преплавени со најразлични фотографии од поп – ѕвездата Тејлор Свифт. Социјалните мрежи беа доста вознемирени и зачудени од содржината која била прикажана , со тоа што постоењето и распространувањето на тие фотографии не соодветствувале со карактерот и стандардите на Тејлор. Но со текот на времето било откриено дека тие слики се ,,Deep Fakes,, слики. Лажно генерирани се со цел да се уништи имиџот на доста популарната ѕвезда.
Многу е битно да се посочи фактот што за жал не станува збор за проблем кој е ретко присутен, туку баш спротивното. Длабоко вграден проблем кој со години ги пушта своите корени во нашето општество , оштетувајќи го уште од самиот почеток. Поткрепа на оваа теза е анализата на 14.678 лажни онлајн видеа каде се согледува дека 96% од нив биле неконсензуални несоодветни содржини главно таргетирајќи ги жените. Со овие проценти и овие примери се согледува вистинскиот проблем при злоупотребата на оваа сериозна алатка. Генерирањето на содржината со помош на вештачката интелегенција не треба да биде забава на сметка на нечиј имиџ, ниту пак момент за одмазда. Посегнувањето по нечиј карактер не е интересно ниту пак забавно. Последиците од злоупотребувањето на овие алатки може да бидат навистина лоши и фатални..
Други видови дискриминација предизвикани од алгоритмите за Вештачката Интелегенција
Алгоритмите за вештачката интелегенција се главниот фактор кога се во прашање тековните дискриминациски проблеми со кои се соочуваме. Тие всушност претставуваат збир на правила или пак инструкции кои овозможуваат на самиот компјутер да учи, да анализира податоци како и да донесува одлучи врз основа на тоа знаење. Или пак накратко кажано алгоритмите претставуваат една програма која им овозможува на машините да извршуваат задачи кои обично бараат човечка интелегенција. Како што веќе напоменав алгоритмите и користењето на стари статистики се еден од главните причинители за видната дискриминација врз женскиот пол. Дали е тоа за работно место, или пак злоупотреба на одредени слики и лични информации , треба да се анализираат сите проблеми детално и да се донесе заклучок на кој начин можеме ние како општество заедно да го подобриме проблемот со дискриминацијата, како и одредување на соодветен начин на користење на вештачката интелегенција совесно. Има доста елементи за кои треба да се дискутира во нашето секојдневие кога е во прашање родовата дискриминација во сферата на технологијата и Вештачката Интелегенција. Битен елемент од оваа теза би бил конкретно системите за здравствена заштита кои се управувани од Вештачката Интелегенција. Конкретно се споменати поради нивниот потенцијал да овековечат дезинформации како и стигмата околу здравствените проблеми на жените. Погрешна дијагноза на самите состојби или пак минимизирање на истите врз основа на одредени податоци. Пристапот до овие решенија за здравствена заштита напојувани со силата на вештачката интелегенција може да биде ограничен за жените. Употребата на вештачката интелегенција во дијагностиката во репродуктивното здравје и третмани за плодност предизвикува и етички грижи. Жените се доста загрижени за нивната приватност која може да биде загрозена поради прилив на личните информации кои знаат да бидат доста чувствителни. Истите податоци се обработуваат со вештачката интелегенција, некои држави дури ги користат со што ја поништуваат заштитата на репородуктивните права на жените.
Жените исто така може да се соочат со сложени ризици поради пресекот на различни демографски и општествени фактори. Битно е да се спомене алгоритамот кој ги генерира сите овие содржини. Според многу претходни статистики и различни бази на податоци , алгоритмите за вештачката интелегенција се со многу поголема веројатност да ги овековечак предрасудите кон жените со посебни потреби, жените кои не се бели, жените од потекла со ниски приходи како и припадниците на LGBT+ заедницата. Економските разлики, ограничениот пристап до технологијата како и културните предрасуди дополнително ги комплицираат овие прашања. Големото темпо на брзата интеграција на вештачката интелегенција во општеството честопати наречено и мегапромена, поставува уникатни предизвици за воспоставените општествени норми, особено за жените. За да може да се намалат влијанијата на вештачката интелегенција врз жените, од клучно значење е да се поттикне поинклузивна работна сила со вештачката интелегенција. Тоа би можело да се постигне со охрабрување на жените да продолжат со кариерите особено кога се во прашање науката, технологијата или пак инеженерството и математиката. Истакнувањето на успешните жени во СТЕМ како модели за улоги и поттикнувањето на програмите за менторство може да ги инспирира дури и идните генерации кои можат да ја идентификуваат и решат родовата нееднквост во фазите на развој и имплементација на вештачката интелегенција што доста би имало влијание. Идните генерации треба да се научат на правилно користење на алатките за генерирање на содржина поткрепени од вештачката интелегенција. Правилно и совесно да ги користат тие алатки за да може полека генерација со генерација да се искоренува проблемот на родовата нееднаквост и дискриминација, како и креирање на свет поубав и побезбеден за живеење.
Начини на кои може да ја намалиме родовата нееднаквост користејќи ја Вештачката Интелегенција
Колку Вештачката Интелегенција и алатките за генерирање на содржина и да се штетни, толку пак истите можат да бидат програмирани, или пак на некој начин истренирани за да се прошири и добрата страна на нивното користење. Доколку истите правилно се користат и тренираат истите може навистина да бидат една алатка која ќе помогне во процесот на намалување на проблемите поврзани со родовата нееднаквост. Со превземање на најразлични чекори може да се подобри сегашната состојба која е под влијание на дискриминација.
Користењето на разновидни репрезентативни збирки (бази) на податоци за обука на системи за вештачка интелегенција. Со тоа што се зголемува разновидноста на информациите и податоците со кои што располага алгоритамот на Вештачата Интелегенција. Тоа доведува до еднаквост помеѓу двата пола. Изедначувањето на информациите како и губењето на одредените асоциации кога се во прашање жените. Тие треба да се идентификувани според тоа што го имаат постигнато за себе , а не само како објект. Треба да се осигураме дека тимовите за развој и истражување ќе бидат максимално инклузивни се со цел да се избегнат слепите точки . Со усвојување на силни етички рамки за системи за Вештачката Интелегенција исто така помага при носењето на инклузивност кога се во прашање алгоритмите. Додека веќе како што напоменав насилството врз жените и девојчињата преку Интернетот како и офлајн е доста олеснето со подемот на технологијата, загриженоста расте. Со порастот на Вештачката Интелегенција како и алатките кои самата ги нуди може да се дојде до иновативни решенија за справувањето со дигиталната злоушотреба и заштите на оние кои веќе биле изложени на истото. На пример мобилните апликации како bSafe (биди заштитен) обезбедуваат безбедносни предупредувања за заштита на жените. Додека пак Botler.ai им помага на оние кои веќе поминале низ такво насилство да разберат дали инцидентите со сексуалното цознемирување што го доживеале го прекршуваат законот. Постојат и други ботови како и апликации кои нудат поддршка и ги поврзуваат оние кои поминале низ било каква форма на насилство со правни услуги и други ресурси што би биле од доста голема помош. [6]
Вештачката интелегенција и конкретно ботовите можат да бидат и доста корисна работа како што образложив. Но истите алгоритмки можат да се користат и за да се направи овој дигитален простор безбеден за секого со откривање и отстранување на штетни или пак дискриминаторни содржини. Исто така запирањето на ширење најразлични неконсензуални интимни слики, видеа или пак лажни разговори кои лесно може да се изгенерираат преку ботовите за генерирање на содржина. [6] Ова се само мал дел од работите кои можат да се спроведат се со цел да го направиме ова дигитално место полесно и побезбедно место за користење. Активното избирање на податоци кои рефлектираат и различни социјални потекла, култури истовремено отстранувајќи ги историските предрасуди како што се оние со поврзување на одредени работни места или особини како што напоменав веќе со еден пол. Битен елемент би додала дека е всушност самиот алгоритам и системите кои ги користиме да бидат создадени од различни развојни тимови. Под тоа мислам тимови составени од луѓе кои потекнуваат од различни полови, раси и културни потекла. Подигнувањето на јавната свест како и овозможувањето на луѓето да разберат како функцинира вештачката интлегенција и потенцијалот за пристрасност може да ги поттикне да препознаат и спречат пристрасни системи и да го задржат човечкиот надзор врз процесите на донесување на одлуки .
Заклучот
Со анализирањето на сите тези во кои беа јасно објаснети проблемите со кои жените се соочуваат особено од Вештачката Интелегенција, како и нејзините алгоритми. Работењето заедно кон креирање на една здрава работна средина каде користењето на алатките за Вештачката Интелегенција ќе бидат само наша помош , а не злоупотреба треба да биде наша главна цел. Да имаме едно место каде сите ќе можеме заедно да растеме и да осознаваме. Да не се плашиме од потенцијална злоупотреба секогаш кога нова технологија ќе се појави пред нашите екрани, но истата да ја прифатиме со отворени раце и разумни мисли. Со самиот нејзин развој се развиваме и ние како индивидуи кои осознаваат и учат заедно со помош на алатките кои сами ги создаваме, само едно нешто не смееме да заборавиме. Етичките правила на користење на истите треба да се нашиот приоритет. Да ја намалиме дискриминацијата и да го направиме овој свет поубаво место за живеење, а само заедно тоа го можеме !
КОРИСТЕНИ ИЗВОРИ
[4] https://policyreview.info/articles/news/ai-acts-gender-gap-when-algorithms-get-it-wrong/1743
[5] https://www.brookings.edu/articles/ai-poses-disproportionate-risks-to-women/