Етички дилеми во користење на вештачката интелегенција поврзана со родови студии

Published by

on

Елена Попоска

Вовед

Како и самите што може да забележиме вештачката интелигенција очигледно станува се позначајна во денешното модерно општество, менувајќи голем број индустрии, како што се дигиталната комуникација, здравството, образованието и вработувањето. Сепак, значајни етички прашања се појавуваат и со зголемената употреба на вештачката интелегенција, особено кога станува збор за родови студии. Дали сегашната родова нееднаквост се рефлектира или зајакнува со алгоритми и вештачка интелигенција? Дали дизајнот на системите гарантира дека половите се третираат еднакво? Овој семинарски труд ги разгледува подетално овие прашања и нуди потеницијално решение  за намалување на родовата пристрасност.

Што е вештачка интелегенција?

 Една револуционерна технологија која го менува начинот на функционирање на современите цивилизации е вештачката интелигенција. Областа на компјутерската наука позната како вештачка интелигенција се фокусира на создавање машини кои се способни да извршуваат задачи кои бараат интелект споредлив со оној на човекот. Кој е механизмот на вештачката интелигенција,како работи? За да ги научи и подобри своите перформанси, така познатата вештачката интелегенција користи алгоритми и огромни количини на податоци. Вештачката интелигенција најчесто ги користи следниве техники:

 Машинското учење е технологија која користи податоци за да ги обучи алгоритмите да идентификуваат шеми и да донесуваат одлуки без потреба од експлицитно програмирање.

 Подгранка на машинско учење е позната како „длабоко учење“ или deep learning која користи вештачки невронски мрежи за справување со комплицирани податоци, вклучувајќи текст, аудио и идентификација на слики. Дури и во секојдневните активности и области од секојдневниот живот се среќаваме со безброј апликации кои работат со вештачка интелегенција. Еве и неколку примери:

Некои примери од медицината се: автоматска дијагноза, анализи на медицински слики,персонализирана терапија и IBM Watson Health (дијагностика на рак).

Исто така се користи во индустријата за финансиски услуги за управување со ризик, тргување и спречување измами. Два примери кои можат да се издвојат се Bloomberg Terminal за трендови на пазарот и PayPal за финансиска измама.

Автомобилската индустрија, системите за помош на возачот односно “autopilot” и автономните возила кои возат без физички возач се примери за  примената на вештачката интелегенција во автомобилскиот сектор. Најпознати примери за ова кои претпоставувам дека секој слушнал се  самовозечките такси на Waymo и Тесла автопилот за автономно возење.

Вештачката интелегенција присутна е и во образованието, за адаптивно учење, автоматско бодирање на тестови и апликации за виртуелни инструктори. Примери за ова се Coursera (автоматизирано оценување) и Duolingo (персонализирано учење јазик).

Во безбедноста се користат за сајбер-заштита, препознавање лица, следење на сомнителни активности , примери за тоа се Clearview AI (препознавање лица), Darktrace (сајбер-безбедност).

 Секако вештачката интелегенција се користи и е присутна за забава, филтрирање на содржина, прпораки за музика и филмови, реалистични видеоигри, примери за тоа се Netflix (препорачување филмови), OpenAI DALL·E (генерирање слики).

 Во администрација се косристи ChatGPT (автоматска обработка на податоци), UiPath (автоматизација на работни процеси) за дигитални асистенти, обработка на докумнти,автоматизација на процеси.

Секако ова се само мал дел на примери кои можев да ги издвојам каде се  користи вештачката интелегенција во денешното општество, сигурна сум дека постојат мал број милион примери каде се среќаваме со вештачката интелегенција во секојдневниот живот.

Родова пристрасност во вештачката интелегенција

 Една форма на пристрасност која ја прави вештачката интелигенција е проширувањето на родовиот стереотип со алгоритми базирани на историски податоци без нивно знаење. Некои од главните причини за пристрасност вклучуваат: 

 Квантитативна нееднаквост – Ако податоците што се користат за градење на моделите се побогати односно имаат многу повеќе информации и податоци  за мажи отколку за жени, алгоритмот може да развие пристрасност за нефер одлуки во различни контексти. 

 Пристрасни алгоритми – Сите алгоритми се напишани од луѓе, а некои алгоритми се инхерентно пристрасни да се стремат кон одредени групи, што резултира со нефер исходи при регрутирање, заеми и некои одредени медицински дијагнози. Недостаток на различност во тимовите за развој: ако системите за вештачка интелигенција се создадени од монолитни развојни тимови, без нивна разновидност во перспективата, важните аспекти на родовата еднаквост може да се изостават или да се занемарат, што резултира со систематски пристрасни решенија.

Примери на родова дискриминација во Вештачката интелегенција

Поради брзиот развој на вештачката интелигенција, технологијата сега има сè поголемо влијание врз различните аспекти на општеството. Се разбира, имаме многу придобивки од тоа и на некој начин ни го олеснува животот и работата, но, по правило, вештачката интелигенција има несвесни предрасуди, меѓу кои е и родовата дискриминација. Може да се најдат некои типични примери за да се покаже како системите за вештачка интелигенција може да доведат до родова дискриминација, како што е споменато во параграфот погоре:

Автоматски системи за регрутирање

 Некои компании користат алгоритми за да идентификуваат кои луѓе сакаат да ги вработат односно кои луѓе би биле потенцијални вработени во нивната компанија . Моделот беше обучен за историски податоци, и доволно изненадувачки, ги дискриминираше жените во процесот на селекција. Ова значи дека системот бил програмиран на начин што ги претпочитал машките апликанти бидејќи податоците користени за обука на моделот биле главно од машки апликанти. Затоа, многу очигледно поради пристрасност на моделот соодветните женски кандидатки  се спречени да продолжат со процесот на вработување во таа компанија.

Гласовни асистенти

Поголемиот дел од популарните гласовни асистенти, како што се Siri за Apple и Alexa за Amazon, имаат женски гласови. Ова само служи за  на идејата дека жените треба да бидат потчинети и да имаат услужна улога, бидејќи гласовите на помошниците се направени да бидат добри и послушни. Свесни сме и јасно е дека гласовите на помошниците се направени да бидат потчинети и послушни 

Финансиски алгоритми и кредитни системи

Во САД таканаречениот кредитен рејтинг е доста важен и со него добивате одредени придобивки. Утврдено е дека одредени алгоритми за позајмување заеми или обезбедување финансиски услуги се пристрасни против жените. На пример, постојат околности кога жените добиваат пониски кредитни оценки од мажите со иста финансиска состојба. Тоа е затоа што историските податоци покажуваат нееднаквост во приходите или растот на кариерата меѓу мажите и жените.

Влијание врз општеството

Родовата пристрасност во вештачката интелигенција може да има сериозни импликации и последици за општеството и да ја зголеми нееднаквоста на многу начини во животот на луѓето.

Одржување на економската нееднаквост

Доколку жените и другите малцински групи имаат ограничен пристап до вработување, ќе бидат засегнати нивните работни и финансиски права. Ова може да го зголеми економскиот јаз меѓу половите и да го попречи движењето на луѓето по скалилата во нивната кариерата, како и да ги зголеми разликите во приходите, пристапот до подобри финансиски услуги и деловни можности.

Негативни ефекти врз самодовербата

Ако системите за вештачка интелигенција покажуваат родови стереотипи и го претпочитаат машкиот пол односно мажите за некои професии или позиции, тоа може да има негативни импликации за самодовербата на жените и другите маргинализирани луѓе. Тоа не само што може да ги демотивира жените и другите маргинализирани лица за одредени професии, туку и да резултира со долгорочни психолошки проблеми како што се ниска самодоверба, стрес и немоќ.

Ако пристрасноста и неправедноста во вештачката интелигенција продолжат, јавноста може да стане скептична кон технологијата и нејзината неутралност. Ова може да доведе до противење на имплементацијата на нови системи за вештачка интелигенција, како и барања за построги регулативи и поголема транспарентност во технологијата. Исто така, може да ги одврати луѓето од ангажирање со дигиталните платформи и автоматизираните системи, што би поставило темпо за технолошки развој.

Решенија за намалување на родовата пристрасност во Вештачката интелегенција

 Како што споменувам скоро во цела моја семинарска работа мора да бидеме свесни ние луѓето дека вештачката интелегенција од ден за ден е се поприсутна во нашиот секојдневен живот, во различни сектори на општеството, вклучувајќи вработување и банкарство, услуги на социјалните мрежи и здравствена заштита. Сепак, едно од главните прашања на оваа технологија е тоа дали родовата дискриминација може да се намали. Родовата дискриминација може да кажеме дека се должи на пристрасни податоци, исчезнати или недоволно застапени групи или алгоритми кои не се целосно разбирливи.

        За да потенцијално се спречи и избегне таквата дискриминација, треба да се преземат        следниве мерки:

 Гаранција за разновидни и инклузивни податоци

 Ова значи дека точноста и правичноста на алгоритмите зависат од квалитетот и разновидноста на податоците што се користат за обука на моделите. Доколку податоците се главно од една група луѓе, моделот ќе ја следи пристрасноста и ќе донесе погрешна или дискриминаторска одлука. Затоа потребно е при собирање и анализирање на податоци да се погрижиме да доловуваме различни демографски променливи како што се пол, раса, етничка припадност, возраст и економски статус.

Да не  користиме податоци што биле пристрасни во минатото и ќе продолжат да вршат пристрасност.

 Да примениме техники за откривање и намалување на пристрасноста во податоците, кои може да вклучуваат алатки кои помагаат да се идентификуваат проблемите со алгоритмите и да се променат моделите за да се добијат фер исходи.

Подобрување на отвореноста на алгоритмите

Многу системи за вештачка интелигенција се „црна кутија“ – корисникот и засегнатите страни немаат јасно разбирање за алгоритамскиот процес на донесување одлуки. Недостатокот на транспарентност може да продолжи да ненамерно врши дискриминаторски практики. 

       За областите на вработување, здравство и правда, организациите треба да откријат како   дошле до одлуката со нивните алгоритми за вештачка интелигенција.

Развојните тимови треба да генерираат евиденција за процесите и одлуките донесени од системот за вештачка интелигенција за да може да има надзор и ревизија на истиот.

Важно е да се продолжи со развивање на концептот на модели за „објаснива вештачка интелигенција“ што ќе им овозможи на корисниците и институциите да ги разберат причините и средствата за одредени систематски заклучоци.

 Различност во развојните тимови

Најдобар начин за справување со пристрасноста во вештачката интелигенција е да се осигураме дека различноста е претставена во тимовите што ги градат овие технологии. Ако тимовите се хомогени (главно составени од луѓе од ист пол, културно потекло или географски регион), поверојатно е дека ќе ја пропуштат перспективата на другите групи.

Постои потреба да се промовира учеството на жените и другите луѓе од културно и општествено различно потекло во развојот на системи за вештачка интелигенција.

Поддржете го образованието и обуката за кариера на жените и малцинствата во технологијата и вештачката интелигенција.

Промовирајте работни места кои ја прифаќаат различноста како придобивка, а не како пречка.

 Воведување регулативи и законски рамки

 Покрај техничките и етичките мерки, важно е и да се воспостави правна рамка која ќе гарантира правичност и ќе спречи дискриминација при користење на вештачката интелигенција.  Предложете конкретни законски одредби кои ќе ги принудат алгоритмите за вештачка интелигенција да се проверат за можни предрасуди пред да бидат имплементирани.

Основање независни ентитети кои ќе можат да ги испитуваат и сертифицираат системите за вештачка интелигенција со цел да се осигура дека тие нема да дискриминираат врз основа на пол, раса или која било друга карактеристика.

Воспоставување стандарди за етичка употреба на вештачката интелигенција, кои ќе бидат задолжителни за компаниите и организациите кои ги развиваат овие технологии.

Заклучок

Вештачката интелигенција има огромен потенцијал да придонесе за напредок, но истовремено може и да ги засили постоечките општествени нееднаквости. Етичките дилеми поврзани со родовите студии се клучни за создавање фер и праведни алгоритми. Со правилни мерки, внимателен дизајн и соработка меѓу истражувачи, законодавци и општеството, ВИ може да стане алатка што ќе промовира еднаквост наместо да ја загрозува.

 Вештачката интелегенција има големо ветување дека ќе придонесе за напредок, но исто така може да ги зајакне социјалните нееднаквости доколку тие не се земат предвид. Етичките дилеми поврзани со родовите студии се многу важни за градење праведни алгоритми. Ако се преземат вистинските чекори, дизајнот се прави правилно, а истражувањето е во соработка помеѓу креаторите на политики, општеството и истражувачите, тогаш вештачката интелигенција може да стане алатка која ја подобрува правичноста односно ќе промовира еднаквост наместо да ја загрозува и да претставува закана.

Користена литература

https://it.mk/veshtachka-inteligentsija-razliki-pomegu-generativna-i-opshta

http://periodica.fzf.ukim.edu.mk/godzb/GZ76(2023)/GZ76.56%20Bobi%20Badarevski%20mk-793-804.pdf

https://www.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender-equality

https://www.consilium.europa.eu/en/documents-publications/library/library-blog/posts/gender-bias-in-artificial-intelligence