Родовата пристрасност во професионалната средина и  нејзино елиминирање со помош на вештачката интелегенција

Published by

on

 

Вики Симонова 

Вовед  

Иако многу компании денес имаат формални политики за еднаквост, родовата нееднаквост  сe уште се чувствува на секој чекор во професионалната средина. Жените честопати се  соочуваат со скриени препреки – од селекција на работно место, преку напредувања, па се до различен третман во тимови и при оценување на нивните способности. Тоа не секогаш  се случува свесно – многу често станува збор за несвесна пристрасност, која е длабоко  вградена во организациската култура. 

Во вакви услови, вештачката интелигенција може да понуди свежа перспектива. Ако се  користи правилно, AI може да помогне во откривање на обрасци на дискриминација што  луѓето не ги забележуваат. Може, на пример, да препознае дали жените системски  добиваат пониски оценки од мажите, или дали има разлики во платите на исти позиции.  Со тоа, AI не само што помага да се лоцира проблемот – туку и нуди начин тој да се реши,  преку транспарентни и податоци-базирани препораки. Но мора да бидеме внимателни – AI  не е автоматски правичен. Ако го тренираме со пристрасни податоци, и тој ќе биде  пристрасен. Затоа е важно уште од почеток технологијата да се развива со родова  чувствителност и инклузивен пристап. 

Како што истакнува д-р Јасмина Јаневска во својата книга „Родови аспекти на  организациската култура“: „Технологијата не е неутрална; таа ги рефлектира вредностите  и пристрасностите на општеството кое ја создава.“ 

Во овој труд ќе истражам како вештачката интелигенција може да придонесе за  поправедно работно опкружување и да стане алатка за вистинска родова еднаквост.

AI при регрутирање и селекција на кадар 

Процесот на регрутирање е една од клучните точки каде што се јавува родова  пристрасност и тоа често без намера. Работодавачот можеби мисли дека е објективен, но  предрасудите се вкоренети во општеството и лесно се прелеваат и во изборот на  кандидати. На пример, жените може да бидат потценети само затоа што имаат „женско  име“ на биографијата или затоа што во CV-то стои дека имаат мали деца. 

Тука вештачката интелигенција може да направи сериозна разлика. Со AI систем за  првична селекција, биографиите може да се анализираат без информации за пол, етничка  припадност, возраст или семеен статус. Алгоритмот се фокусира само на релевантни  фактори како искуство, вештини и компетенции. Со тоа се намалува ризикот од несвесна  дискриминација во првата фаза – што е најкритичниот филтер за влез на жените во многу  професии. Постојат компании што веќе користат вакви алатки – некои дури и одат чекор  понатаму и користат „blind interviews“ со AI што ја анализира содржината на одговорите, а  не тонот, изгледот или гласот на кандидатот. Секако, алгоритмите мора да бидат  внимателно конфигурирани и редовно проверувани – бидејќи ако се тренираат со  историски пристрасни податоци, и тие ќе научат да бидат пристрасни. 

По зборовите на д-р Наташа Лаковска во публикацијата за родова еднаквост на пазарот на  труд: „Неспособноста да се препознае пристрасноста не ја прави неутрална – напротив, ја  прави невидлива и потешка за отстранување.“ Затоа, AI не треба да биде замена за човечка  

етика, туку сојузник кој ќе ни помогне да направиме пофер и порамноправен процес на  вработување за сите.

Автоматизирана анализа на плати и бонуси 

„Препознавањето на структурата на нееднаквоста е прв чекор кон нејзино надминување – дури и кога е ‘прикриена’ во бројки и извештаи.“ (Ѓорѓиева, Жени и менаџмент:  Искуства и предизвици, 2019) 

Родовата нееднаквост не завршува со вработување, наместо тоа таа често продолжува и во  платата. Иако жените може да работат иста работа како мажите, со иста позиција и  одговорности, платите често се пониски. Истото важи и за бонусите, повисоките додатоци  или можностите за наградување на трудот. Во многу компании, оваа нееднаквост се  префрла од една година во друга – тивко и системски. 

Слика 1. Родовиот јаз во платите во земјите од ЕУ: колку заработува жена во споредба  со маж (2023) 

Извор: Eurostat (SDG_05_20), Европски парламент

Тука AI може да помогне на многу практичен начин. Алгоритми за анализа на податоци  може да ја разгледаат структурата на платите во една организација и да покажат дали има  шаблони кои се проблематични.  

На пример, AI може да открие дека жените во ИТ-секторот редовно добиваат помали  бонуси и пократки договори, дури и кога имаат подобри перформанси од своите машки  колеги. Уште покорисно е тоа што AI може да предложи решенија, на пример,  пресметување на таканаречен „фер опсег“ за секоја позиција и препораки за корекции кај  разликите. Некои компании веќе користат вакви системи во интерните алатки при човечки  ресурси за да осигураат фер политики, особено во големи тимови каде менаџерите не  можат секогаш да ги видат сите детали. Но тука повторно важи правилото – ако AI е  трениран врз податоци каде нееднаквоста е „нормализирана“, и тој ќе ја прифати како  стандард. Затоа е клучно податоците да се проверуваат, а препораките да се разгледуваат  критички.

Следење на еднаквост во напредување и оценки 

Напредувањето исто така спаѓа во категорија што AI може да ја подобри. Во многу  компании, жените поретко добиваат шанса за унапредување, дури и кога имаат одлични  резултати. Често се забележува и разлика во годишните оценки – кај жените тие знаат да  бидат пониски, без објективно објаснување. AI тука може да внесе транспарентност. Со  анализа на податоци за оценување на вработените, алгоритмите можат да препознаат  обрасци: дали жените поретко добиваат највисоки оценки, дали има одредени сектори каде  машките менаџери даваат поостри проценки за женски членови на тимот, или пак дали  има разлика во брзината со која жените напредуваат во споредба со мажите. 

Овие информации можат да ѝ помогнат на компанијата навремено да интервенира. На  пример, ако AI открие дека одреден менаџер редовно оценува женски вработени пониско  од машки со исти перформанси, тоа може да биде сигнал за несвесна пристрасност.  Истовремено, со алатки за следење на кариерен развој, може да се мапираат шемите на  напредување и да се постават фер критериуми што важат за сите. 

Секако, само бројките не се доволни. Потребно е податоците да се анализираат во контекст  и да се комбинираат со квалитативна проценка од HR, менаџмент и самите вработени. AI  може да ги открие тие „невидливи бариери“, но останува на луѓето да ги отстранат

Препознавање на пристрасност во говорот и интерните  комуникации 

Во секојдневната комуникација на работното место, често се кријат мали, но многу  влијателни родови пристрасности. Начинот на кој зборуваме за колешки, како ги  опишуваме нивните квалитети, или пак кому ги слушаме повеќе на состаноци.. сето тоа  влијае врз перцепцијата и можностите на жените во професионалната средина. AI, и  посебно алатките за обработка на природен јазик (NLP – Natural Language Processing),  можат да анализираат голем број мејлови, извештаи, препораки, па дури и преписки на  состаноци. Преку тоа може да се открие, на пример, дали жените почесто добиваат описни  термини како „пријатна“ или „фина“, додека мажите се карактеризираат како „природни лидери“. Овие суптилни разлики во јазикот можат да имаат реален ефект, како што на  сликата за личноста така и на одлуките за унапредување или распределба на задачи.  Анализата со AI може да го направи ова видливо и да понуди конкретни точки каде е  потребна промена во комуникацијата. 

Исто така, AI може да помогне и во изработка на неутрални и инклузивни огласи за  работа. Често, формулацијата на текстот несвесно таргетира еден пол. На пример:  користење на зборови како „амбициозен“, „доминира“, или „силен карактер“ може да ги  одврати женските кандидати. Со алатки за автоматска анализа на огласи, можат да се  предложат балансирани термини кои ќе ги охрабрат сите да аплицираат. 

Преку вакви анализи, организациите можат да го подобрат тонот на комуникација, да  создадат порамноправна атмосфера и да испратат порака дека секој е слушнат, вреднуван и  третиран еднакво.

Промовирање на транспарентност и одговорност во одлуките 

Во многу компании, голем дел од одлуките од доделување на задачи до унапредувања и  отпуштања се носат во позадина, без јасна трага. Тоа создава чувство на неправда, особено  кога жените чувствуваат дека се заобиколени или помалку вреднувани. Токму тука  вештачката интелигенција може да помогне не само како алатка за анализа, туку и како  чувар на транспарентноста. AI системите можат да ја документираат секоја одлука: кој  предложил, врз основа на какви податоци, и каква била логиката зад тоа. Тоа овозможува  подоцнежна проверка – дали некој бил фаворизиран, дали некој бил исклучен без основа  или дали имало системска пристрасност. Со тоа, организациите можат да ја зајакнат  довербата меѓу вработените и да ја подобрат културата на одговорност. 

Транспарентноста не е само фер – таа ја зголемува мотивацијата. Кога луѓето знаат дека  одлуките се носат врз база на податоци, имаат повеќе доверба во системот. Тоа особено  важи за жените и другите групи кои често се исклучувани од „затворени кругови“ во  организацијата.

Заклучок  

Вештачката интелигенција не е само технолошка алатка – таа може да биде и општествена  алатка, ако се користи мудро. Како што претставив низ целиот труд, AI има реален  потенцијал да помогне во елиминирање на родовата пристрасност во професионалната  средина. Од вработување и анализа на плати, до проценка на перформанси и  комуникација, AI може да внесе објективност таму каде што несвесните предрасуди често  имаат најголемо влијание. 

Но, за да го постигнеме тоа, важно е да разбереме дека самата технологија не е неутрална.  Ако ја „нахраниме“ со пристрасни податоци, таа ќе ги репродуцира истите проблеми што  се обидуваме да ги решиме. Затоа мора да се развива со свесност, одговорност и  инклузивност – вклучувајќи различни гласови при нејзиното дизајнирање, особено жени и  маргинализирани групи. Во иднината, оние организации што ќе знаат како да ја користат  AI фер и транспарентно, ќе бидат чекор пред останатите, и тоа не само технолошки, туку и  општествено.

10 

Користена литература 

• Еубенкс, Вирџинија. Автоматизирање на нееднаквоста: Како високата технологија  ги профилира, контролира и казнува сиромашните. Табернакул, 2021. (превод според  оригиналот: Eubanks, Virginia. Automating Inequality. St. Martin’s Press, 2018). 

• Јаневска, Јасмина. Родови аспекти на организациската култура. Скопје: Институт за  социолошки и политичко-правни истражувања, 2020. 

• Criado Perez, Caroline. Invisible Women: Data Bias in a World Designed for Men.  Abrams Press, 2019. 

• Topol, Eric. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human  Again. Basic Books, 2019.

11