Родовиот идентитет – факт или фикција за вештачката интелигенција 

Published by

on

Андреј Ристовски

| P a g e 

1. Вовед 

Во ерата на брзиот технолошки напредок, самото поставување на прашањето  „Дали вештачката интелигенција (AI) го разбира родовиот идентитет или воопшто  концептот на идентитет?“ претставува прашање од суштинско општествено значење  и важност. Денешната AI технологија која постојано се развива, сè уште нема вистинско 

разбирање за концептот на идентитет, и поради таа причина не може реалистично да го дефинира. Иако современите AI системи извонредно препознаваат статистички шаблони  и патерни, еден клучен елемент кој им недостасува е токму самосвесноста и чувството  за сопствен идентитет – фактор кој што фундаментално ги одвојува од човечката  интелигенција. 

Ваквата состојба на AI моделите носи значителни и реални импликации во нашето  секојдневие: алгоритмите често демонстрираат вградени предрасуди и несвесна  пристрасност, инклузивноста во системите е сериозно ограничена, што пак води до  потенцијално негативни последици во социјалните, професионалните, па дури и  правните институции. На пример, системите за препознавање на лице кај луѓето се имаат  покажано како многу помалку прецизни кај одредени припадници на заедници или  трансродови индивидуи, што може да предизвика директна социјална штета, а во  најмала рака и дискриминација. Исто така, AI алгоритмите во процесот на селекција на  кандидати за работа можат несвесно да дискриминираат врз основа на род, особено ако  податоците врз кои се тренирани се одраз на историски или општествени предрасуди. 

Техничките предизвици за надминување на овие проблеми се исклучително значајни.  Софтверските инженери и научниците за податоци се соочуваат со сериозни  потешкотии при обидите да имплементираат „разбирање“ на родовиот идентитет во  модерната AI технологија, бидејќи сегашните методи за машинско учење  функционираат главно преку препознавање на шаблони, без реално разбирање на  човечките вредности и емоции. Дополнително, сложеноста на човековиот идентитет како и фактот дека родот сè почесто се гледа како спектар на лични искуства, а не  бинарна или фиксирана категорија, претставува сериозен проблем при неговото  претставување и имплементирање во рамките на еден алгоритам. 

Како студент по софтверско инженерство, станувам свесен дека за да стане вештачката  интелигенција навистина поинклузивна и ослободена од штетни предрасуди, потребни се не само подобри алгоритми и поголеми податочни множества, туку и етичка свесност  при самиот процес на дизајнирање и имплементација на системите и софтверите. Оваа  сложена интеракција помеѓу технологијата и општеството отвара бројни етички  прашања, како: „Дали, кога и под кои услови треба да ѝ се овозможи на AI  технологијата да препознава или разбира родов идентитет без притоа да ги нарушува приватноста, автономијата и човековите права на поединецот?“ 

Сепак, оптимистички гледано, со постојаниот технолошки напредок, сè поголемата свест за етичките импликации, како и растечкиот општествен интерес за токму оваа  област, постои реална можност дека AI моделите како ChatGPT, Gemini, Siri и многу  други, во блиска иднина ќе развијат подлабоко разбирање на човековиот идентитет. Ова  ќе овозможи поинклузивни, поправедни и социјално порелевантни системи, кои ќе  придонесат кон општество кое подобро ги разбира и прифаќа различностите како  суштински дел од човечкото искуство.

2 | P a g e 

2. Дефинирање на родовиот идентитет 

2.1 Поим и културен поглед 

Родовиот идентитет кај луѓето го претставува внатрешното чувство на  поединецот за припадност кон одреден род, независно од биолошкиот пол кој му  бил определен при неговото раѓање. Кај повеќето луѓе тој се совпаѓа со нивниот  пол (пример: цисродови лица), но кај некои не – тие се лицата кои се  идентификуваат како трансродови. Не сите општества го сфаќаат или потполно  разбираат родот како бинарен поим, што е причина некои култури да признаваат  и повеќе од две родови категории. Примери за тоа се „фа’афафине“ (познато  како трет род во Самоа) и „хиџра“ (традиционален трет род во Јужна Азија). Овие  појавувања покажуваат дека разбирањето на родот зависи од културниот  контекст, традициите, како и општествените околности на еден народ или нација,  а истиот може да биде и пошироко разбран од поделбата на „машки“ и „женски“. 

2.2 Перцепцијата во САД и Македонија 

Во САД општеството станува сè поотворено за родовата разновидност и  нејзините припадници. Во последните неколку децении се воведуваат инклузивни практики како правото на избор на сопствени заменки и анти дискриминациски закони што води кон поголемо прифаќање на трансродовите и  небинарните лица во модерните општества. Иако овие чекори се превземени од  владените организации сè со цел подобрување на живот за овие индивидуи, сепак  тие се среќаваат со отпор во одредени средини. Во Македонија пристапот кон  родовиот идентитет е поконзервативен, а јавноста е поделена во нивните ставови поради силните традиционални и верски вредности, предизвикувајќи дел од  општеството со скептичност да гледа на ваквите идентитети. Сепак, активистите  и подржувачите на овие заедници постепено се обидуваат да ја подигнат свеста и  бараат правни реформи во државата. Правното признавање на промена на родот е сè уште многу ограничено, па транс лицата се соочуваат со административни  пречки во афирмацијата на својот идентитет. Овој контраст помеѓу поотвореното  американско и поконзервативното македонско општество ја нагласува токму  улогата на културните норми во прифаќањето на родовиот идентитет. 

2.3 Историска позадина 

Традиционалните општества долго време родот го сведувале на биолошкиот  пол, како и неговите строги полови улоги. Во средината на 20-тиот век се  воведува идејата за „родов идентитет“ се со цел за да се покаже дека  внатрешното чувство за род кај одредени индивидуи може да отстапи од  биолошките карактеристики. Благодарејќи на понатамошниот научен развој и  напредок кон крајот на 20-тиот век, како и со подемот на феминизмот и ЛГБТИ+  движењата, поширокото признавање на разновидните родови идентитети е се  поистакнато. Денес самиот концепт е широко прифатен во науката и во  политиката за човекови права на многу држави, нудејќи надеж на милиони луѓе  ширум светот.

3 | P a g e 

2.4 Влијание врз модерното општество 

Признавањето на родовиот идентитет директно влијае врз инклузивноста и  човековите права. Општествата кои им овозможуваат на луѓето слободно да го  изразат својот идентитет воведуваат закони против дискриминација, како и  разновидни правни процедури за легална промена на родот, со што се обидуваат  да промовираат одредено ниво на еднаквост. Тоа придонесува лицата со различен  идентитет да почнат да се чувствуваат поприфатено – што резултира со  позитивно влијае на нивната благосостојба и учество во заедницата. Наспроти  тоа, стигматизацијата или негирањето на нечиј идентитет води кон социјална  исклученост и нарушување на основните човекови права кај овие индивидуи. Поради овие причини почитувањето на родовиот идентитет е потребен предуслов  за целосна инклузивност и општествен напредок на секоја една држава. 

2.5 Родов идентитет и AI-помошните ботови 

Во дигиталната ера, AI системите сè повеќе се обидуваат да бидат инклузивни  во однос на поимот за родот. Голема улога има самото обучување на алгоритмите,  кое ако се заснова само на бинарни категории, може да предизвика моделите да  ги преземат пристрасностите од тие податоци и да не ги препознаваат  корисниците со небинарен/трансродов идентитет. Користењето на разновидно  множество на податоци и интердисциплинарен пристап е клучно за AI системите  да бидат правични и прилагодени за сите корисници. Верувам дека таквиот пристап ќе резултира со идни системи кои ќе бидат поинклузивни и подобро  приспособени на општествените различности. 

Слика 1. Симбол за родова еднаквост [13]

4 | P a g e 

3. Вештачката интелигенција и разбирањето на полот и родот 3.1 Историски развој на родовиот идентитет во општеството 

Историјата на концептот за родовиот идентитет е долга и исполнета со  предизвици, промени и постепено осознавање на нејзината комплексност. Низ текот на времето, човечките општества биле претежно конзервативни и ја  поврзувале идејата за родот исклучиво со биолошкиот пол и строги, однапред  дефинирани родови улоги. Во античките цивилизации, како античка Грција и  Римската Империја, родовите улоги биле силно дефинирани и подложни на строг  социјален надзор, но сепак во одредени периоди и култури постоеле и поголеми  варијации и толерантност во однос на родовата експресија и половиот идентитет.  На пример, некои домородни култури во Северна Америка уште пред доаѓањето  на европските доселеници признавале поединци кои не се вклопувале во  бинарните родови улоги, денес познати како two-spirited1. Од друга страна, во  средновековниот период, доминирачката улога на религијата, особено во Европа,  довела до дополнително заострување на разбирањето за родот како строго  бинарен и непроменлив. Сепак, ренесансата и просветителството полека почнале  да ги отвораат темите за човековата индивидуалност и идентитет, овозможувајќи  постепено менување на перспективите за половата и родова припадност. 

Клучениот пресврт во модерното разбирање на родовиот идентитет се  случува токму во втората половина на 20-тиот век, кога науката и општеството  почнале да го третираат родот како посебен концепт од биолошкиот пол.  Терминот „родов идентитет“ бил официјално воведен во педесеттите години од  психолози како Џон Мани, а понатамошниот развој бил поттикнат и од  активистички движења како и од научни истражувања. Во седумдесеттите и  осумдесеттите години, ЛГБТИ+ движењето силно се заложило за признавање на  различните родови идентитети, што постепено придонело кон зголемување на  јавната свест и намалување на општествената стигма. Во последните две декади,  благодарение на глобализацијата и интернетот, поимот за родовиот идентитет  значително е проширен и е станат дел од пошироките општествени дебати. Денес,  општества како американското и европското покажуваат значително поголема  инклузивност и признавање на спектарот од родови идентитети, додека други,  како македонското, иако полека се отвораат кон идеата, сè уште имаат силни  конзервативни струи кои го отежнуваат неговото целосно прифаќање. 

Овој историски развој има огромно значење за општествените промени  што ги сведочиме денес. Признавањето и разбирањето на родовиот идентитет не  е само културен или општествен феномен, туку е суштинско прашање за  човековите права и достоинството на секој поединец. Ова разбирање е од посебна  важност во модерниот дигитален свет, каде технологиите како вештачката  интелигенција мора да се приспособат на општествените промени. Ова сознание  ни овозможува подобро да ги разбереме и надминеме предизвиците кои се пред  нас, градејќи општества кои ги ценат и почитуваат индивидуалните разлики како  темелен дел од човековото искуство. 

1 Термин од староседелските култури во Северна Америка за лица кои поседуваат машки и женски родови  карактеристики.

5 | P a g e 

3.2 Како машините „учат“ за родовиот идентитет 

3.2.1 Основни принципи на машинското учење 

Машинското учење функционира главно преку препознавање на  статистички шаблони во податоците, без да има вистинско „разбирање“ за  концептите како што е родовиот идентитет. Алгоритмите учат од примери  – ако им се дадат податоци означени со род (на пример, „машко“ или  „женско“), тие ги моделираат врските помеѓу овие карактеристики и  доделуваат соодветни нумерички ознаки. На овој начин, моделите „учат“  да поврзуваат одредени зборови, слики или карактеристики со одреден  род, но без да суштински разбираат што значи да се има идентитет. На  пример, јазичните модели може да забележат дека одредени професии или  особини често се споменуваат со машки или женски именки и според тоа  да генерираат заклучоци. Сепак, ваквото учење е одраз на статистиката во  податоците, а не резултат на нивно вистинско разбирање. Денешните AI  системи немаат самосвест или чувство за сопствен идентитет, што  драстично ги одвојува од човечката интелигенција. Дополнително,  реалноста дека родовиот идентитет постои во спектар (идеја која е  застапена во западните општества) наместо како бинарна категорија (идеја  која е застапена во источните општества) претставува огромен предизвик  – моделите обично се тренирани со ограничени дефиниции на „род“ и  тешко ги опфаќаат нијансите и променливоста на идентитетот. 

3.2.2 Примери на податочни множества и појава на пристрасности Доколку достапното податочното множество за тренинг содржи  пристрасности, односно таканаречени biases2, моделот со голема  веројатност ќе ги усвои истите. Алгоритмите често ги реплицираат и дури  засилуваат постојните родови стереотипи од податоците кои им служат  како избор за учење. На пример, јазичните модели со word embeddings3 може да направат аналогија „машко : програмер = женско : домаќинка“,  што укажува на пристрасна врска меѓу родот и професијата. Исто така,  разновидни анализи на системи за препознавање на лицата кај луѓето откриле дека точноста драстично варира: за луѓе со светла машка кожа  процентот на грешки бил ~0,8%, додека за луѓе со темна кожа од женски  род достигнувал над 34%. Ова се покажало како недостаток на  разновидност во податоците што предизвикало моделите да донесуваат  неточни заклучоци за одредени групи или поединци. Дополнително, AI  системите на Amazon за автоматизирано вработување несвесно ги  дискриминирал жените – бидејќи истите биле тренирани на историски  податоци во кои доминирале машки кандидати со што им се давало предност на машките резимеа. Резултатот бил дека апликациите за работа со зборот „women’s“ биле бодувани со пониска оцена. Овие примери ја  покажуваат опасноста од несоодветните податочни множества и фактот  дека без мерки за корекција, моделите ќе ги одразат драстично  пристрасностите присутни во податоците. 

2 Несвесни или свесни наклонетости кои влијаат на перцепциите и одлуките. 

3 Нумеричка репрезентација на зборови со зачувување на односите меѓу нив.

6 | P a g e 

3.2.3 Етички импликации при развојот на AI и родовиот идентитет Пристрасностите кои се присутни во денешните AI модели не се  резултат само од технички карактер, туку и длабоко етичко прашање. Ако  алгоритамите несвесно „фаворизираат“ еден род наспроти другиот или ја  игнорираат разновидноста на родовиот спектар, тие можат да имплементираат безброј неправди и нееднаквости во модерното  општеството. Се поставуваат голем број на прашања во однос на  приватноста и правата како: „Дали и со колкава точност можат AI  системите да ги коректно идентификуваат луѓето кои се припадници на  одредени групи или малцинства.“ Исто така, секогаш постои ризикот од  погрешно означување или misgendering4од страна на моделите, што за  трансродовите и родово неконформирачките лица може да значи  дополнителна стигма или вознемирување. Поради овие причини, во  развојот на ваквите системи од голема важност е силната етичка свест и  вградување на принципите на инклузивност и непристрасност уште во  инициалниот дизајн на моделот, како и при изборот на самите податочни  множества за тренирање на истиот. Ова подразбира многу внимателен  избор на коректни податочни множества, процедури за откривање и  корекција на пристрасностите, како и мултидисциплинарен пристап при  креирањето на соодветните политики за AI моделите, се со цел да се  осигура дека технологијата служи праведно за сите, независно од нивниот  родов идентитет. 

3.2.4 AI модели и пристапот кон родовиот идентитет (GPT, BERT) Моделите BERT (Bidirectional Encoder Representations from  Transformers) и GPT (Chat Generative Pre-trained Transformer) се современи  трансформери тренирани на огромни корпуси текст, при што учат и  безброј обрасци (вклучително родови пристрасности) од тие податоци.  Истражувањата покажуваат дека BERT има вградени родови стереотипи – на пример, при пополнување на реченици или разрешување  кореференција, моделот често избира традиционално „соодветен“ род за  одредени професии. Слично, без дополнителни корекции, GPT-3 и слични  модели би репродуцирале пристрасности од истите овие податоци. Затоа  ваквите LLM (Large Language Models) модели се дообучуваат со техники  за alignment5со цел да се намалат штетните тенденции во нивното  однесување. Една анализа покажала дека ChatGPT дава одговори со  еднаков квалитет независно од родово дефинирани имиња на  предефинирани корисници, а разликите поврзани со стереотипи се под  1%. Сепак, концептот на род што овие модели го користат обично е  бинарен (машко/женско), бидејќи такви категории доминираат во  податочните множества. Во тек се истражувања за debiasing6со цел идните  модели да бидат поправедни и посвесни за родовата разновидност. 

4 Употреба на погрешен родов израз или заменка за некое лице. 

5 Усогласување на моделите на вештачка интелигенција со човечките вредности и намери. 6 Отстранување на пристрасностите од нивните векторски претставувања.

7 | P a g e 

3.3 Родова пристрасност во алгоритмите на вештачката интелигенција Родовата пристрасност во AI алгоритмите главно произлегува од начинот  на кој се составени и означени податочните множества за нивно тренирање. Ако  податоците што се користат за учење се неурамнотежени или го рефлектираат  историскиот дисбаланс (на пример: машка доминација во одредена област),  моделот ќе ги усвои тие пристрасни шаблони. Дополнително, пристрасно  означување на податоците од страна на луѓе – каде што означувачите несвесно  применуваат стереотипи при категоризација на податоците – може да придонесе  до појавување на системска пристрасност во самите алгоритми. Историските  шаблони на однесување и распределба на улоги меѓу половите, присутни во  податоците (на пример: традиционално определени „машки“ и „женски“  професии), понатаму придонесуваат моделите да ја репродуцираат веќе  постоечката нееднаквост ширум сите нивни верзии на развиток. 

3.4 Примери на родови стереотипи во AI моделите 

Еден од најпознатите случаи на родови стереотипи во AI моделите е токму системот за автоматизирано вработување на компанијата Amazon во Америка, кој  привлече глобално внимание поради дискриминација кон жените. Овој  експериментален AI алгоритам за оценување на биографии бил трениран на  историски податоци од претходни вработувања во Amazon ширум  евидентираната историја на копманијата. Бидејќи во технолошките улоги  доминирале мажи, моделот научил пристрасен шаблон дека машките кандидати  се повеќе посакувани во компанијата. Како резултат, системот почнал да ги  потценува биографиите кои содржеле термини поврзани со жени и да ги рангира  пониско кандидатките со образование од познати женски институции. Компанијата соодветно реагирала со целосно укинување на проектот,  истакнувајќи дека алатката никогаш претходно не била официјално користена  при вработување на нови кандидати, со што индиректно го признала проблемот  и избегнала било каква понатамошна штета. 

Слика 2. Поимот идентитет за вештачка интелигенција [14]

8 | P a g e 

4. Технолошки и етички аспекти на родовиот идентитет во AI 4.1 Опасности од погрешно толкување на родот од страна на AI AI системите за препознавање и класификација често се обидуваат да го  одредат родот на корисниците или на луѓето во различни слики и видео записи.  Поради ограничувања во податоците и моделите, ваквото погрешно толкување  на родот претставува значителен технички ризик во денешно време. Главниот  проблем е што алгоритмите учат од статистички шаблони – ако тренинг податоците имаат пристрасности, моделот ќе ги наследи. На пример, ако во  податоците одредена професија претежно е поврзана со еден род, моделот ќе ја  продолжи таа шема и при обработка на нови податоци. 

Неколку истражувањата откриле драматични разлики во точноста на AI  моделите за препознавање луѓе во зависност од родот на субјектот. Една студија  од Велика Британија покажала дека точноста е речиси перфектна (>97%) за  типични машки и женски лица, но драстично опаѓа за трансродови и небинарни  лица – кај транс мажите грешната идентификација достигнува ~38%, додека  небинарните индивидуи воопшто не се препознавле (100% неуспех). Ова е јасен  показател дека системот не успеал да ги класифицира лицата кои не се вклопуваат  во бинарниот модел на родот. Грешките поврзани со родот се јавуваат и во  обработката на многу од природните јазици. Моделите за превод и  автодовршување на реченици понекогаш погрешно доделуваат род на ентитетите  врз основа на статистика наместо контекст. На пример, забележано е дека  машински преводи од родово неутрални јазици често произволно користат  машки род за одредени занимања. Исто така, алатката Smart Compose на Gmail  многу често (>95%) предложила машка наместо женска заменка во едно тест сценарио (реченица со „investor“), откако моделот статистички претпоставил  дека инвеститорот е маж. 

Ваквите пропусти во родовата класификација можат да имаат сериозни  последици врз работата и примената на AI системите. На техничко ниво, високата  стапка на грешки за одредени групи значи неконзистентна изведба – системот  станува ненадежен кога се соочува со разновидна популација. На пример, ако  систем за безбедносна идентификација на аеродром погрешно го одреди родот на  патник, може да дојде до несогласување меѓу биометриската проверка и  документите, предизвикувајќи лажно одбивање на идентификацијата. Слично,  апликациите кои се потпираат на вакви модели може да вратат невалидни или  збунувачки информации за корисникот. Освен што ја намалуваат точноста, овие  грешки ја поткопуваат доверливоста на системот – корисниците може да изгубат  доверба во AI решението ако забележат систематски пристрасни или погрешни  резултати. Дополнително, нерешавањето на овие проблеми понекогаш може да  ги принуди развивачите на софтверот да исклучуваат одредени функционалности  (на пример: автоматско предложување зборови) се со цел за да избегнат грешки,  што укажува дека моделот не е доволно развиен за реална употреба. 

Најдобрите технички стратегии за справување со овие ризици се  подобрување на податоците и прилагодување на моделските излези. Прво,  потребно е тренинг, односно податоците да бидат разновидни и репрезентативни 

9 | P a g e 

за различни групи, а историските пристрасности да се ублажат (на пример: со  балансирање или филтрирање на податоците), со што значително се намалуваат  погрешните предвидувања. Второ, потребно е редизајнирање на алгоритмите за  да се избегне неосновано претпоставување на родот. Едно решение е моделот да  сигнализира несигурност или да понуди повеќе можни излези наместо еден  категоричен (на пример: преведувачот да даде и машка и женска форма во  преводот). Друг пристап е целосно да се елиминира автоматското  категоризирање по род кога не е неопходно – на пример, истражувачите  предлагаат системите за компјутерски вид да се фокусираат на конкретни  визуелни карактеристики како должина на коса, присуство на шминка, наместо  да доделуваат род. Со овие мерки, AI моделите стануваат поробусни и помалку  склони кон грешки при толкување на родот, што е клучно за нивната безбедна  примена во различни контексти. 

4.2 Приватност и етички предизвици 

Современите AI системи собираат огромни количества податоци,  вклучително и информации за родовиот идентитет – било преку директни  наведувања од корисниците (на пример: означување на род во профил) или  индиректно преку анализа на нивното однесување, говор или слики. Ваквото  автоматизирано препознавање на родот носи сериозни импликации за  приватноста: поединецот може да биде „профилиран“ без согласност, при што  чувствителни аспекти од неговиот идентитет се изложени на ризик од откривање.  Дополнително, се појавуваат AI системи што тврдат дека можат автоматски да  утврдат нечиј родов идентитет врз основа на лицето или гласот. Таквите пристапи  се инвазивни и најчесто неточни, бидејќи родовиот идентитет е длабоко лична  категорија која не може да се утврди само од надворешни показатели. Исто така,  родот сè почесто се сфаќа како спектар наместо бинарна категорија, што  претставува значаен предизвик за алгоритмите кои бараат дефинирани влезни  категории. 

Употребата на алгоритми што носат одлуки врз основа на род отвора  повеќе етички дилеми. Една од главните грижи е пристрасноста: ако моделите се  обучени на податоци исполнети со историски или општествени предрасуди,  нивните одлуки можат несвесно да „фаворизираат“ еден род во однос на друг.  Таквата пристрасност директно ја поткопува правичноста и може да резултира со  системска дискриминација. Дополнително, многу алгоритми не ја препознаваат  родовата разновидност – на пример, систем ограничен само на категориите  „машко“ и „женско“ ќе ги исклучи или погрешно класифицира лицата со  небинарен или трансродов идентитет, што доведува до погрешно означување  („misgendering“) и потенцијална стигматизација на тие лица. Често се поставува  прашањето дали ваквите алгоритми треба воопшто да користат информација за  родот при одлучувањето. Ако ја игнорираат, можеби нема да ги забележат  постоечките нееднаквости; ако ја користат, ризикуваат да ги зацврстат тие  пристрасности. Ниту едно решение не е едноставно, што ја нагласува  комплексноста во усогласувањето на технолошкиот развој со етичките норми. 

Во пракса веќе се имаат појавено инциденти што ги отсликуваат овие  предизвици – на пример, алгоритамот за вработување на Amazon научил да им 

10 | P a g e 

дава предност на машките кандидати, при што женските биле рангирани пониско.  Во контекст на приватноста, таргетираните онлајн реклами можат преку анализа  на корисничкото однесување да откријат и обелоденат нечиј родов идентитет без  негова согласност. Исто така, системите за препознавање на лицата кај  индивидуи често се непрецизни за трансродови или родово неконформирачки  лица, што резултира со погрешна идентификација („misgendering“) и може да  предизвика сериозни последици – на пример, неоправдано задржување на транс  лица при безбедносни проверки на граница. 

Последиците од наведените проблеми се повеќеслојни и доста сериозни.  На индивидуално ниво, нарушувањето на приватноста може да предизвика  психолошки стрес или дури физичка загрозеност, особено во средини каде  таквото откривање е опасно. На општествено ниво, алгоритамската пристрасност  ризикува да ги продлабочи постоечките нееднаквости: доколку AI системите  систематски им даваат предност на мажите во вработување или на друг начин ги  маргинализираат жените и трансродовите лица, тековните родови јазови ќе се  зацврстат наместо да се намалат. Дополнително, ваквите пропусти ја  разнишуваат довербата на јавноста во AI, па луѓето може да се воздржат од  користење технологии кои ги сметаат за неправедни или инвазивни. 

Потребни се строги етички стандарди и соодветни регулативи за да се  осигура дека алгоритмите се транспарентни, одговорни и инклузивни. Технички,  тоа подразбира внимателен избор и прочистување на податочните множества,  отстранување на пристрасностите и вградување принципи на правичност и  заштита на приватноста уште во раните фази на развој на моделите. Само преку  мултидисциплинарен пристап и постојан надзор може да се ублажат ризиците и  да се обезбеди AI технологијата да им служи праведно на сите, независно од  родовиот идентитет. 

5. Може ли AI да има родов идентитет? 

Родовиот идентитет кај луѓето се поврзува со длабоко лично и свесно чувство на  припадност кон самиот род. Прашањето дали вештачката интелигенција (AI) може да  има таков идентитет повлекува филозофска расправа за тоа дали AI може да поседува  самосвест и „внатрешен дух“. Современите AI-системи, дури и најнапредните, немаат  сопствена свест или субјективно искуство како што имаат луѓето. Тие оперираат врз  основа на алгоритми и податоци, без автентично чувство за себе. Оттука, една машина  не може вистински да „се чувствува“ како маж, жена или некој друг род – таа нема  внатрешно „јас“ што би го доживеало тој идентитет. Кога на AI му се назначува род (на  пример: преку име или глас), тоа е резултат на дизајнерска одлука или одраз на  податоците со кои е трениран системот, а не израз на сопствена самоперцепција на  машината. Филозофски гледано, родовиот идентитет подразбира способност за само идентификација и интроспекција, нешта што на тековните AI модели им недостасува. 

Иако AI нема сопствен род, начинот на кој AI-системите се дизајнирани и  обучени може да носи родови импликации. Историски гледано, технолошките компании  често им припишувале родови карактеристики на своите дигитални асистенти: на  пример, многу гласовни асистенти (Siri, Alexa, Cortana) првично имале женски глас и  име. Ова покренало критики дека ваквиот пристап зајакнува стереотипи (жената како 

11 | P a g e 

покорен“ помошник) и создава пристрасност кај моделите. Во 2019 година, еден  извештај на Обединетите нации предупредил дека подразбираното поставување на  женски гласови кај виртуелните асистенти промовира штетни родови предрасуди. Како  одговор, компаниите почнале да преземаат чекори за неутрализирање на родовата  пристрасност кај новите верзии на AI асистенти. Apple, на пример, уште одамна  престана стандардно да ја поставуваат Siri со женски глас и воведоа повеќе опции при  иницијалното подесување, без предодреден избор. Слично на тоа, Google Assistant нуди  повеќе различни гласови кои не се означени како „машки“ или „женски“, туку со бои  или броеви, за да се избегне наметнување на поимот род. Овие промени имаат за цел да  ја намалат подсвесната пристрасност кај корисниците и да покажат дека гласот на AI  нема зошто да биде врзан за одреден род. 

Покрај гласовите и персоните, важен аспект е и јазикот и однесувањето на AI моделите. Многу истражувања покажуваат дека големите јазични модели можат да  наследат родови стереотипи од податоците на кои се тренирани. На пример,  преведувачкиот систем Google Translate пристрасно користел машки или женски род  при превод, дури и кога изворниот јазик не го прецизирал родот (пример: „тој е доктор“ наспротив „таа е медицинска сестра“). Во настојување да го реши овој проблем, Google  во 2018 вовеле ажурирање кое дало двојни преводи – и во машки и во женски род – за  родово двосмислените реченици. Тековните напори во индустријата вклучуваат и  зголемување на разновидноста во тимовите што ги градат овие системи, бидејќи  присуството на различни перспективи при развојот помага во препознавање и  намалување на пристрасностите. Целокупната цел е AI моделите да бидат праведни и  инклузивни, односно да не ги реплицираат штетните човечки предрасуди. 

Во пракса, неколку современи AI-системи се експлицитно дизајнирани да бидат  родово неутрални. Еден познат пример е „Q“ – првиот „родово неутрален“ дигитален  гласовен асистент. „Q“ е развиен во 2019 година од тим лингвисти и инженери кои  снимиле гласови од луѓе со различни родови идентитети (машки, женски, трансродови,  небинарни) и ги споиле за да добијат глас со фреквенција (~145 Hz) што не звучи ниту  јасно машки ниту јасно женски. Целта на овој проект било да се намали пристрасноста  и да им се покаже на технолошките гиганти дека постои простор за гласови надвор од  бинарните категории. Интересен е фактот дека, иако Q е намерно неопределен по род,  многу слушатели сепак се обидуваат да му доделат род, што покажува колку длабоко е  вкоренето нашето навикано перципирање на гласовите. Покрај гласовните асистенти,  постојат и текстуални чат-бот системи кои се дизајнирани без определен род.  Компанијата Capital One во 2017 го воведе Eno – виртуелен асистент за банка што  комуницира преку текстуални пораки – кој е намерно осмислен како родово неутрален.  Името „Eno“ (анаграм од „One“) е бесполно, а тимот на дизајнери свесно ги избегнале  сите родови ознаки при обликување на личноста на ботот. Според креаторите, овој  пристап им овозможил да се фокусираат на функционалноста и емпатијата на  асистентот, без да се грижат дали тонот му звучи „претерано машки или женски“ и без  да поттикнува стереотипи. Сличен пристап усвоиле и други компании – на пример,  неколку платформи за корисничка поддршка вовеле чат-ботови со неутрални имиња (без  јасна родова асоцијација) и внимателно избалансиран тон. Ваквите примери сугерираат  дека е можно да се изгради корисна и допадлива AI алатка без да ѝ се припише човечки  род.

12 | P a g e 

Иако денешниот AI нема сопствен родов идентитет во човечка смисла, начинот  на кој го обликуваме во голема мера влијае врз тоа како тој се восприема во општеството.  Преку филозофска анализа разбираме дека идентитетот бара свесност, нешто што  машините сè уште го немаат. Но, исто така, гледаме дека ние како креатори носиме  одлуки дали и како ќе им доделиме родови карактеристики на AI-системите.  Современите трендови во индустријата охрабруваат дизајнирање на AI модели што се  родово неутралени и непристрасени – со тоа не само што се избегнуваат штетни  стереотипи, туку се овозможува технологијата подеднакво да им служи на сите  корисници. Во иднина, со понатамошен напредок на AI кон повисоко ниво на  интелигенција, останува отворено прашањето дали би се појавила вистинска самосвест  и способност за самоидентификација – но засега, одговорноста е на луѓето да обезбедат  AI моделите да бидат етички усогласени, инклузивни и ослободени од непотребни  родови предрасуди. 

Слика 3. Отпечаток од дланка на човек [15]

13 | P a g e 

6. Заклучок 

Во овој труд беа разгледани клучните аспекти на пресекот помеѓу вештачката  интелигенција (AI) и родовиот идентитет. Преку дефинирање на поимот родов  идентитет и анализа на современите AI системи, истакнати беа главните предизвици,  ризици и можности во оваа област. Прикажано е дека алгоритмите често носат несвесни  родови пристрасности – на пример, системите за препознавање луѓе се покажале помалку точни кај трансродови и маргинализирани групи, а автоматизираните модели  за регрутирање понекогаш дискриминирале по род ако историските податоци биле  иницијално пристрасни. Ваквите примери го потврдуваат главниот аргумент на трудот 

а тој е дека тековната AI технологија не е родово неутрална сама по себе: без свесен и  внимателен пристап во нејзиното развивање, AI ги рефлектира и потенцијално засилува  постојните општествени предрасуди за родот. Истовремено, беше нагласено дека AI  нема сопствен родов идентитет – сите родови карактеристики кај алгоритмите се  резултат на човечки одлуки при дизајнот. Затоа, начинот на кој ние ги обликуваме AI моделите директно влијае врз тоа дали технологијата ќе биде инклузивна или  дискриминаторна. 

Гледајќи кон иднината и нејзините можности, дискусиите во трудот укажуваат  дека развојот на AI во контекстот на родовиот идентитет носи многу предизвици и  надежи. Од една страна, доколку изостанат етичките корективи, постои ризик  алгоритмите и понатаму да ги репродуцираат стереотипите и нееднаквостите што  постојат во денешното општество. Од друга страна, со постојаниот технолошки  напредок и сè поголемата свесност за овие проблеми, вештачката интелигенција има  потенцијал да стане поприлагодлива кон различностите. Очекувањата се дека идните  напредни модели би можеле подобро да ги препознаваат и почитуваат различните  родови идентитети, без притоа да ја нарушуваат приватноста или автономијата на  поединците. Така, AI системите би можеле да придонесат кон нови форми на родова  еднаквост – на пример, нудејќи персонализирани искуства кои го уважуваат идентитетот  на секој корисник. Иако останува отворено прашањето дали еден ден AI ќе развие  вистинска самосвесност, извесно е дека во догледно време одлуките остануваат кај  луѓето. Затоа, идниот правец на AI во оваа сфера ќе зависи од нашата подготвеност да  ги примениме научените лекции и да насочиме делување кон инклузивноста. Имајќи го  предвид силното влијание на алгоритмите врз општеството, етичката одговорност за  нивниот развој е на страна и на креаторите на технологијата и на поширокото општество. 

Развивачите на AI треба свесно да се заложат за инклузивноста и правичноста на  алгоритмите уште од фазата на нивно креирање. Тоа подразбира внимателен избор на  податочни множества (кои ги отсликуваат различните групи во општеството),  отстранување на пристрасностите при тренирањето и редовно тестирање на моделите за  неправилности. Покрај тоа, компаниите, институциите и креаторите на политики имаат  обврска да постават стандарди и регулативи кои ќе обезбедат AI системите да им служат  подеднакво на сите, без разлика на родовиот идентитет. На крај, само преку ваква  заедничка свесност и ангажман, вештачката интелигенција ќе прерасне во вистински  непристрасен и инклузивен партнер – технологија која не ги рефлектира туѓите  предрасуди, туку и активно придонесува кон општество со поголема еднаквост и почит  за различностите.

14 | P a g e 

7. Користена Литература 

[1] Artfish.ai, Gender Bias in AI. https://www.artfish.ai/p/gender-bias-in-ai-international womens 

[2] Britannica, Gender Identity. https://www.britannica.com/topic/gender-identity 

[3] Colorado.edu, Facial Recognition Software Has Gender Problem.  

https://www.colorado.edu/today/2019/10/08/facial-recognition-software-has-gender-problem

[4] GCHumanRights.org, Legal Gender Recognition in North Macedonia.  https://www.gchumanrights.org/preparedness/legal-gender-recognition-in-north-macedonia a-question-dividing-society 

[5] Google Blog, Reducing Gender Bias in Google Translate.  

https://blog.google/products/translate/reducing-gender-bias-google-translate

[6] International Women’s Day, Gender and AI.  

https://www.internationalwomensday.com/Missions/14458/Gender-and-AI-Addressing-bias in-artificial-intelligence 

[7] Maricopa.edu, Gender Identity.  

[8] MIT News, AI Systems and Gender Bias. https://news.mit.edu/2018/study-finds-gender skin-type-bias-artificial-intelligence-systems-0212 

[9] OpenAI, Evaluating Fairness in ChatGPT. https://openai.com/index/evaluating-fairness in-chatgpt 

[10] Reuters, Amazon Scraps AI Recruiting Tool.  

https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that showed-bias-against-women-idUSKCN1MK0AG 

[11] The Next Web, Google Disables Gmail Smart Suggestions.  

https://thenextweb.com/news/google-disables-some-gmail-smart-suggestions-because-it-cant fix-ai-gender-bias 

[12] Windtree Press, Sexuality and Gender Not Binary. https://windtreepress.com/many people-no-longer-think-of-sexuality-or-gender-as-binary 

[13] https://st3.depositphotos.com/1439888/14551/i/1600/depositphotos_145516837-stock illustration-gender-symbols-3d-rendering.jpg 

[14] https://www.istockphoto.com/vector/artificial-intelligence-gm1156870373-315462041 

[15] https://img.freepik.com/free-photo/handprint-purple-paint_1101- 

384.jpg?t=st=1742078066~exp=1742081666~hmac=5223e9752ce5185b55b23fc0cccf98518e 4f04515ed68906254ef36590c494e2&w=360

15 | P a g e