Дејан Симоновски
1. Вовед
Родовата еднаквост е основно право, но во реалноста сè уште постојат значителни нееднаквости, особено во дигиталниот свет и социјалните медиуми. Односно, многу често може да се сретнеме со родова пристрасност или разни типови на стереотипи, посебно на социјалните медиуми како фејсбук, инстаграм и др. Родовата пристрасност претставува сакање на еден род повеќе од друг. Третирање на едниот како подобар, а другиот како инфериорен, полош. Овие пристрасности може да се во форма на текст или коментари, каде може да се пишуваат секакви лаги, дури и во форма на фотографии и видеа, каде може да се сликаат/евидентираат секакви акти каде се злоупотребуваат правата на еден род. Проблемот во денешницата е тоа што премалку се става акцент на родовата еднаквост, медиумите, особено социјалните мрежи се преполни со секаков вид на говор на омраза, од сексистички коментари на инстаграм па се до нацистички групи на фејсбук. Вештачката интелигенција може да игра значајна улога во решавањето на овој проблем. Односно, вештачката интелигенција ќе може да ги идентификува и да ги спречува овие коментари, со што ќе може да се санкционираат тие корисници, па со тоа би се намалиле коментарите што шират сексистички коментари, омраза и каков било вид на стереотипи.
2. Вештачка интелигенција и нејзината врска со родовата еднаквост
Вештачката интелигенција им овозможува на машините да учат од разни искуства, да се приспособат на новите влезови на податоци и да извршуваат задачи слични на луѓето. Повеќето примери за вештачка интелигенција за кои слушате денес – од компјутери кои играат шах до самоуправувачки автомобили – во голема мера се потпираат на длабоко учење и обработка на природен јазик. Користејќи ги овие технологии, компјутерите може да се обучат да извршуваат специфични задачи со обработка на големи количини на податоци и препознавање на различни шеми во податоците. [1]
Има различни начини на кои може да се искористи моќта на вештачката интелигенција, од кои во моментов најбитен е цензурата на непријатните, дискриминаторни содржини и секако родовите стереотипи. Но, со тоа се појавуват многубројни проблеми во врска со слободата на говорот.
3. Родова нееднаквост во медиумите
Родовата пристрасност во медиумите се однесува на начинот на кој медиумите ги прикажуваат различните родови, често одбирајќи еден над друг или претставувајќи еден пол на негативен или стереотипен начин. Жените често доживуваат поголеми неправди на социјалните медиуми. Има почести случаи на онлајн вознемирување и сајбер малтретирање врз жени отколку против мажи. Сексистички коментари, закани и други насилни методи се вообичаени примери на онлајн вознемирување. [2]
Ова е особено голем проблем бидејќи сите имаат пристап до овие медиуми, вклучувајќи ги и малите деца, од каде тие на мала возраст ги гледаат овие стереотипи, па тие лесно стануваат секојдневие. Сексизмот во медиумите има длабоки последици, на овој начин лесно се прави репродукција на родовите стереотипи, дискриминација, и поткопување на родовата еднаквост. Поради тоа, потребна е идентификација на овие проблеми за да се осигури фер и еднакво претставување на сите. Во текот на еден ден, на социјалните медиуми се објавуваат неколку милиони објави, неколку милиони коментари, а бројот на прегледани објави е неколки милијарди. За жал, во многу од овие објави има сексистички содржини, некој дури и навредливи, особено во делот коментари. Поради обемниот број на објави, нема начин на кој тие може да се прегледуваат, па затоа има одреден систем што спречува дадени зборови да се пишуваат. Но, тоа е далеку од доволно. Тоа лесно се надминува со користење на знак на местото од некоја од буквите на навредливиот збор (на пример. sh!t). [3]
Поради овие трикови, модерните начини на кои социјалните медиуми вршат прегледување на објавените содржини е со помош на вештачка интелигенција. На овој начин, дури и зборовите како „sh!t“ ќе биде препознаен и означен како навредлив, бидејќи вештачката интелигенција како луѓето, гледа и учи. Но, дали овој систем ќе биде доволно прецизен? Односно, дали ќе биде во можност да препознае во рамки на целата порака, дали тука навистина станува збор за навреда или едноставно некаков пример, пријателска шега, или можеби текст на сосем друг јазик.
4. Алгоритми за препознавање на родова пристрастност
Еден од начините за користење на вештачка интелигенција во оваа област е преку анализата на текстуални податоци, фотографии и видеа. Со употреба на алгоритми за обработка на природен јазик(NLP), системите може да анализираат новинарски текстови, коментари и објави на социјалните медиуми за да препознаат родови стереотипи, во ова секако спаѓаат и содржините како слики и видеа, каде сите ќе бидат обработувани и оценувани. Пример на ова е алгоритмот кој може да го идентификува и класификува говорот што содржи родова пристрасност, како што се користењето на родови термини во погрешен контекст или селективно претставување на одредени родови. Како алгоритми за препознавање на говор на омраза во пишана форма може да се искористи машинското учење, тоа создава модели кои ќе можат да препознаат сексистички изрази во текстови, коментари и форуми. Овие системи можат да бидат обезбедени со вистински податоци од корисници кои ја идентификуваат неприфатливата содржина, како што се сексистички фрази и навредливи изрази, кои потоа се филтрираат автоматски, а корисниците би можеле да бидат санкционирани, со цел ваков инцидент да не се повтори. Ова ќе ги спречи оние корисници кои се обидуваат да ги нарушат правилата на платформата со користење на дискриминирачки јазик. За спречување на дискриминација во форма на слика или видео, може да се искористи компјутерски вид (computer vision) како една техника која овозможува автоматска анализа и препознавање на визуелни елементи во слика/видео. Алгоритмите за компјутерски вид користат длабоко учење (deep learning) за да идентификуваат објекти, лица и сцени на сликите и видеата, како и контексти кои се специфични за родовите стереотипи. [4] На пример, системите за компјутерски вид можат да препознаат сценарија каде еден род е прикажан на потценувачки начин, како што се слики со стереотипни представи за жените (на пример, прикажување на жените во позиција на слабост, безмоќност или сексуализираност) или слики во кој еден пол се третира како предмет. Овие системи можат да бидат обучени да препознаат знаци на сексистички изрази преку анализирање на визуелниот контекст, како што се начинот на кој се прикажани луѓето, нивните изрази, облека или нивната интеракција со другите.
5. Проблеми со прецизноста и прекршување на правата на корисниците
Алгоритмите понекогаш можат да го забележат контекстот на речениците погрешно, што може да доведе до прекумерно цензурирање или блокирање на легитимни коментари. Важно е да се изнајде баланс помеѓу заштита од говор на омраза и слободата на изразување. Секако, со ова се поставува друго прашање, дали ова е правилен пристап? Многу платформи веќе почнуваат да вршат цензурирање со помош на вештачка интелигенција. Сепак, оваа метода е во својте рани фази, но некои платформи како Редит (Reddit) веќе ја имаат имплементирано. Тука се среќаваме со нова дилема, дали со ова се попречуваат основните човекови права, односно, правото на секоја индивидуа за слобода на говор? [5]
Секако, со самото користење на вештачката интелигенција, не можеме да бидеме сигурни дека податоците од неа се точни како такви. На пример, кинеската влада има цензура на кинескиот модел „DeepSeek“, преку што кинеските политики се прикажани во подобро светло, или воопшто не се споменуваат одредени историски настани. Оваа цензура е резултат на процесот на обука, што го прави моделот подложен на политички наративи што ги поставува владеачкиот режим.
Сепак, откако DeepSeek стана отворен код, теоретски, моделот може да се прилагоди за да се отстрани цензурата и пристрасноста во неговото тренирање.
Ова има значајни импликации за DeepSeek и кинеските ВИ компании воопшто. Ако филтрите на цензурата лесно може да се отстранат, тоа веројатно ќе ги направи отворените LLM (големи јазични модели) од Кина уште попопуларни, бидејќи истражувачите ќе можат да ги прилагодат моделите по нивна желба. [6]
После овие настани, владите ширум светот пополека почнуваат да го признаваат ова како вистински проблем, и во некои региони, како на пример, Европската Унија, започнува да воведува закони и регулативи кои се обидуваат да ја ограничат моќта на вештачката интелигенција во контекст на цензурата. Од Европската комисија има напори за развивање на етички насоки и регулативи кои ќе гарантираат дека технологијата не се користи за неоправдано спречување на слободата на говор. Во иднина, овие напори ќе треба да бидат
засновани на јасни принципи кои обезбедуваат рамнотежа помеѓу заштитата на правото на
приватност и правото на слобода на изразување, како и создавање транспарентни механизми за надзор и одговорност на ВИ системите. [7]
6. Улогата на владините органи
Со сè поголемото влијание на вештачката интелигенција врз онлајн содржините, владите ширум светот почнуваат да воведуваат закони за нејзиното влијание врз слободата на говор. Главниот предизвик лежи во наоѓањето на рамнотежа помеѓу заштитата на слободата на изразување и спречувањето на штетната содржина. За таа цел, сè повеќе земји воведуваат закони кои бараат транспарентност во ВИ системите и ја зголемуваат одговорноста на платформите за содржината што ја содржат.
На пример, Актот за дигитални услуги (DSA) на Европската Унија поставува построги барања за тоа како платформите користат вештачка интелигенција за проверка на содржината, обврзувајќи ги компаниите да објаснат како функционираат нивните алгоритми и да им овозможат на корисниците да ги оспорат автоматизираните одлуки. Паралелно со Актот за дигитални услуги, Европската Унија го донесе и Актот за вештачка интелигенција (AI Act), кој поставува правна рамка за користење на вештачката интелигенција во сите земји-членки. Овој акт има за цел да обезбеди безбедна и етичка употреба на ВИ, поставувајќи барања за оценка на ризици и обврски за развивачите и корисниците на ВИ технологии. Иако „AI Act“ се фокусира на управување со ризиците поврзани со ВИ, неговото спроведување може да влијае на слободата на изразување, особено ако не се балансираат правилно безбедносните мерки и правото на слободно изразување. Затоа, е важно да се осигури дека регулативите за ВИ не водат до прекумерна цензура или ограничување на слободата на говор.[8] Слично на тоа, во САД и други земји активно се дебатираат закони кои ќе бараат поголема транспарентност околу тоа која содржина се отстранува и зошто.
Иако овие регулативи се добронамерни, тие носат и ризик од негативни последици. Од една страна, тие ги принудуваат компаниите да бидат повнимателни и потранспарентни, намалувајќи го ризикот од неправедна цензура. Од друга страна, претераната регулација може да ги натера платформите да станат премногу рестриктивни, од страв за казни или тужби. Ова би можело да доведе до поголемо ограничување на слободата на говор, наместо
нејзино заштитување. Дополнително, стандардите за тоа што се смета за штетна содржина значително се разликуваат меѓу различни региони, што го отежнува создавањето на еден, унифициран регулаторен пристап што ќе ги почитува и локалните закони и меѓународните принципи за слободно изразување.
Во суштина, решението лежи во создавање политики што ќе ги заштитат корисниците од навистина штетна содржина, без да доведат до прекумерна цензура. Ова бара вклучување на повеќе засегнати страни –влади, технолошки компании и граѓани во создавањето на правилата. Само со ваков пристап, може да сме сигурни дека вештачката интелигенција ќе се користи на одговорен начин, без да се жртвува основното човеково право за слободен говор.
7. Заклучок
Вештачката интелигенција има огромен потенцијал да помогне во намалувањето на родовата пристрасност и дискриминацијата на интернет, но истовремено носи и предизвици поврзани со точноста, етиката и слободата на говор. Иако алгоритмите за обработка на природен јазик и компјутерски вид можат да препознаат говор на омраза и штетни содржини, тие сè уште не се совршени и понекогаш можат да направат непотребна цензура.
За да се постигне вистински напредок, неопходно е да се инвестира во подобри алгоритми, поголема транспарентност при обработката на податоците и човечки надзор при одлуките кои ги носи вештачката интелигенција. Дополнително, важно е образованието и свеста за родовата еднаквост да бидат дел од пошироките општествени напори, бидејќи технологијата сама по себе не може да ги реши овие длабоко вкоренети проблеми.
Иднината на вештачката интелигенција во борбата против родовата пристрасност зависи од тоа како ќе се развиваат етичките стандарди и како ќе се користат овие технологии за создавање на поправеден и инклузивен дигитален простор.
8. Користена Литература
1. Wikipedia – Artificial Intelligence
2. GeeksForGeeks – Gender Inequality in Social Media 3. Chekee – Tricks to avoid censorship
4. GeekForGeeks – Hate Speech Detection using Deep Learning 5. Medium – Protecting Free Speech in the AI Era 6. Wired – DeepSeek Censorship
7. The conversation – How AI threatens free spech 8. European Commision Digital Strategy – AI Act