Развој на AI модели за автоматско идентификување на говор на  омраза на социјалните мрежи 

Published by

on

Download (5)

Кристина Каранфилова 

Вовед  

Во денешно време, социјалните мрежи станаа неизоставен дел од секојдневната  комуникација, поврзувајќи милијарди луѓе ширум светот. И покрај многубројните  предности, овие платформи честопати претставуваат плодна почва за негативни феномени,  меѓу кои посебно се истакнува говорот на омраза. Говорот на омраза, во своите различни  форми и манифестации, претставува сериозна закана за поединечната благосостојба и  кохезијата на општеството во целина. Тој може да биде насочен кон индивидуи или групи  врз основа на нивната раса, етничка припадност, религија, пол, сексуална ориентација,  попреченост или други лични карактеристики, создавајќи атмосфера на страв,  непријателство и дискриминација. Негативните последици од говорот на омраза се  многубројни, вклучувајќи психолошки трауми за жртвите, ескалација на насилство во  реалниот свет и поткопување на демократските вредности на толеранција и почитување на  различностите. 

Со експлозивниот раст на корисници и содржини на социјалните мрежи, рачната  модерација на говорот на омраза станува речиси невозможна задача. Огромниот обем на  податоци генерирани секојдневно ги надминува капацитетите на човечките ресурси за  ефикасно откривање и отстранување на штетната содржина. Во овој контекст, развојот на  автоматизирани системи за идентификација на говор на омраза се наметнува како  неопходно решение. Вештачката интелигенција (AI), со своите способности за анализа на  големи количини на текст и препознавање на сложени обрасци, нуди потенцијал за  значително подобрување на ефикасноста и брзината на откривањето и справувањето со  говорот на омраза на социјалните мрежи. 

Што е говор на омраза? 

Говорот на омраза се дефинира како „јавно изразување кое се заканува, навредува,  понижува, дискриминира или поттикнува насилство или нетрпеливост кон поединци или 

групи врз основа на нивната раса, боја на кожа, етничка припадност, национално потекло,  религија, пол, сексуална ориентација, родов идентитет, попреченост или која било друга  лична карактеристика“. Оваа дефиниција ги нагласува клучните елементи на говорот на  омраза, вклучувајќи го јавниот карактер на изразувањето и основата на која се врши  дискриминацијата или поттикнувањето на нетрпеливост. 

Елементите кои го конституираат говорот на омраза честопати вклучуваат: 

Намера: Иако не секогаш лесно докажлива, намерата на авторот да промовира  омраза или дискриминација е важен аспект. Сепак, дури и без директна намера,  изразите можат да имаат штетни последици и да се квалификуваат како говор на  омраза поради нивното влијание. 

Целна група: Говорот на омраза е насочен кон специфични поединци или групи  идентификувани според нивните заштитени карактеристики. 

Потенцијал за штета: Изразите кои претставуваат говор на омраза имаат  потенцијал да предизвикаат психолошка штета, да го поттикнат насилството и  дискриминацијата и да ја нарушат социјалната кохезија. 

На интернет, говорот на омраза може да се манифестира во различни форми, вклучувајќи: 

Директни навреди: Употреба на погрдни зборови, етикети и навреди насочени кон  одредени групи. 

Закани: Изразување на намери за причинување штета или насилство врз основа на  припадност на одредена група. 

Стереотипизирање: Претставување на цели групи на луѓе со негативни и  генерализирани карактеристики, честопати водејќи кон предрасуди и  дискриминација. 

Дехуманизација: Третирање на членовите на одредена група како помалку вредни  или нечовечки, што може да го оправда насилството и угнетувањето. • Поттикнување на насилство: Јавно повикување или оправдување на насилство врз  основа на припадност на одредена група.

Ширење на лажни информации и теории на заговор: Конструирање и  дистрибуирање на невистинити тврдења кои ги демонизираат или оцрнуваат  одредени групи. 

Улогата на AI и ML во детекција на говор на омраза  

Со енормниот пораст на генерираниот текстуален контент на социјалните мрежи,  традиционалните методи за модерација на содржина, кои се потпираат на човечки  оператори, се соочуваат со сериозни ограничувања. Огромниот обем на податоци го прави  речиси невозможно ефикасно и навремено да се идентификува и отстрани говорот на  омраза. Вештачката интелигенција (AI) се појавува како клучна технологија која нуди  решение за овој предизвик преку нејзината способност за автоматизирана анализа на големи  количини на текстуални податоци во реално време. 

Основната предност на AI во контекст на детекција на говор на омраза лежи во нејзината  скалабилност и брзина. AI системите можат да процесираат илјадници, па дури и милиони  објави и коментари многу побрзо и поефикасно од човечките модератори. Ова овозможува  побрзо идентификување и потенцијално отстранување на штетната содржина,  минимизирајќи го нејзиното влијание врз корисниците и општеството. 

Развојот на AI модели кои се користат за детекција на говор на омраза е тесно поврзан со  полето на машинското учење (ML). ML алгоритмите претставуваат основата на овие  модели, овозможувајќи им да учат од претходно видени податоци и да донесуваат  интелигентни одлуки за нови, непознати податоци. Во случајот со говорот на омраза, ML  моделите се тренираат на големи збирки на текстови кои се рачно означени од експерти  како „говор на омраза“ или „не е говор на омраза“. За време на овој процес на тренирање,  моделот ги анализира лингвистичките карактеристики на текстовите, идентификувајќи  обрасци, клучни зборови, фрази и синтаксички структури кои се поврзани со говорот на  омраза.

Откако моделот ќе заврши со тренирањето и ќе постигне задоволителна точност, тој може  да се користи за автоматска анализа на нови, невидени текстови од социјалните мрежи. Врз  основа на научените обрасци, моделот може да предвиди дали дадениот текст содржи говор  на омраза и да го класифицира соодветно. Оваа автоматизација значително ја намалува  потребата од континуиран човечки надзор и овозможува поконзистентно спроведување на  правилата за содржина на платформите. 

Понатаму, напредокот во областа на обработката на природен јазик (NLP) и длабокото  учење (Deep Learning) овозможи развој на уште пософистицирани AI модели за детекција  на говор на омраза. Овие понапредни модели се способни да ги разберат посложените  аспекти на човечкиот јазик, вклучувајќи го контекстот, семантиката, па дури и  имплицитното значење. Говорот на омраза честопати не е директен и може да користи  суптилни форми на изразување, како што се сарказам, иронија, алузии или стереотипи кои  бараат пошироко разбирање на контекстот за да бидат точно идентификувани. Моделите за  длабоко учење, особено трансформаторските архитектури како BERT, покажуваат  значително подобри перформанси во справувањето со овие лингвистички нијанси, што  резултира со попрецизна и поефикасна детекција на говор на омраза на социјалните мрежи. 

Предизвици во развојот на AI модели за детекција на говор на  омраза 

Развојот на AI модели за автоматско идентификување на говор на омраза на социјалните  мрежи се соочува со неколку клучни предизвици: 

Лингвистичка сложеност: Нијансите на јазикот, вклучувајќи сленг, иронија и  контекст, го отежнуваат прецизното толкување од страна на AI. Спецификите на  македонскиот јазик претставуваат дополнителна компликација. 

Ограничени и небалансирани податоци: Собирањето на големи и  репрезентативни корпуси на означени податоци за тренирање е тешко, а нивниот  недостаток на баланс може да ги наруши перформансите на моделите.

Субјективност на дефиницијата: Концептот на говор на омраза е субјективен и  варира, што влијае на конзистентноста при означувањето и евалуацијата на  моделите. 

Динамична природа на говорот: Говорот на омраза е еволутивен, барајќи  континуирано ажурирање и прилагодување на AI моделите. 

Потреба за контекстуално разбирање: AI моделите честопати имаат потешкотии  во интерпретацијата на значењето зависно од контекстот на комуникацијата. 

Познати AI модели за детекција на говор на омраза 

Во борбата против говорот на омраза на социјалните мрежи, вклучително и оној насочен  кон родовите и ЛГБТКИ+ прашања, се користат различни AI модели. Еден од позначајните  е BERT (Bidirectional Encoder Representations from Transformers). Клучната предност на  BERT е неговата способност да го разбере контекстот на зборовите во реченицата. Ова му  овозможува да препознае навредливи или дискринирачки изрази кон одредени родови  групи, дури и кога тие не се експлицитно такви, туку се базираат на суптилни стереотипи  или дехуманизација. На пример, BERT може да научи да идентификува кога одредени  зборови се користат за омаловажување на жени во одреден контекст. 

Сличен, но често и понапреден модел е RoBERTa (A Robustly Optimized BERT Pretraining Approach). RoBERTa е подобрена верзија на BERT која е тренирана на  поголеми количини на податоци, што му помага уште подобро да ги разбере нијансите на  јазикот кои се користат во говорот на омраза насочен кон родовите и сексуалните  малцинства. 

Други AI пристапи вклучуваат модели базирани на LSTM и GRU (Long Short-Term Memory и Gated Recurrent Units). Овие модели се добри во анализа на низа зборови и  можат да го следат развојот на мислата во подолг текст, што е корисно за идентификување  на говор на омраза кој се протега низ повеќе коментари или објави. Тие можат да научат да  препознаваат повторувачки навредливи обрасци или теми поврзани со родова  нетолеранција.

Исто така, се користат и поедноставни модели за машинско учење како Naive Bayes или  SVM (Support Vector Machines). Иако можеби немаат толку софистицирано разбирање на  контекстот како BERT и RoBERTa, тие можат да бидат ефикасни во идентификување на  клучни зборови и фрази кои често се поврзуваат со говор на омраза кон одредени родови  или сексуални групи. На пример, тие можат брзо да детектираат присуство на хомофобични  или сексистички термини. 

Важно е да се нагласи дека успешноста на сите овие AI модели во детекција на говор на  омраза поврзан со родовите прашања зависи од квалитетот и разновидноста на податоците  на кои се тренирани. Моделите треба да бидат изложени на широк спектар на примери на  говор на омраза специфични за родовите и ЛГБТКИ+ темите за да научат ефикасно да ги  препознаваат. Континуираното истражување и подобрување на овие AI системи се клучни  за создавање на побезбедни онлајн простори за сите. 

Етички и општествени дилеми при употреба на AI за детекција на говор на омраза 

Употребата на вештачка интелигенција (AI) за автоматско идентификување на говор на  омраза на социјалните мрежи носи со себе значајни етички и општествени импликации кои  бараат внимателно разгледување. 

Еден од клучните аспекти е балансот помеѓу борбата против говорот на омраза и заштитата на приватноста и слободата на говор. Додека целта на AI моделите е да го  намалат присуството на штетна содржина и да создадат побезбеден онлајн простор, постои  ризик од прекумерно филтрирање или погрешно идентификување на легитимни изрази како  говор на омраза. Ова може да доведе до ограничување на слободата на говор на корисниците  и потенцијално да ја задуши критиката или несогласувањето, особено во чувствителни  области како што се родовите прашања и ЛГБТКИ+ правата, каде што дискурсот честопати  е емотивен и може да биде погрешно протолкуван. Дополнително, собирањето и анализата 

на големи количини на кориснички податоци за тренирање и имплементација на овие  модели може да навлезе во приватноста на корисниците. 

Друга значајна грижа е пристрасноста на моделите (Bias). AI моделите учат од податоците  на кои се тренирани, и доколку овие податоци содржат историски или општествени  пристрасности кон одредени групи (на пример, жени, ЛГБТКИ+ лица, етнички малцинства),  моделот може да ги интернализира овие пристрасности. Ова може да резултира со  неправедни резултати, каде што коментари од или за одредени групи се почесто означуваат  како говор на омраза, дури и кога не се. Ова може да доведе до цензура на маргинализирани  гласови и да ја засили постоечката нееднаквост во онлајн просторот. 

Транспарентноста и објаснивоста на моделите (Explainability) се исто така клучни  етички прашања, особено кај комплексните модели за длабоко учење како BERT и  RoBERTa. Честопати е тешко да се разбере зошто овие модели донеле одредена одлука – кои специфични зборови или фрази довеле до класификација на текстот како говор на  омраза. Недостатокот на транспарентност го отежнува идентификувањето и коригирањето  на потенцијалните пристрасности или грешки во моделот. Разбирањето на процесот на  донесување одлуки е важно за градење доверба во AI системите и за обезбедување на  нивната одговорност. 

Постои потенцијал за злоупотреба на AI алатките. Технологиите развиени за детекција  на говор на омраза потенцијално можат да бидат искористени за цензура на легитимни  политички или социјални дискусии, за манипулација на јавното мислење или за  таргетирање на одредени групи со пропаганда или дезинформации. Затоа, од клучно  значење е да се воспостават јасни етички насоки и регулаторни рамки за развој и  имплементација на овие технологии, со цел да се минимизираат ризиците и да се обезбеди  нивна одговорна употреба во служба на општествената правда и родовата еднаквост. 

Заклучок 

Говорот на омраза претставува сериозен општествен проблем со негативни последици врз  поединци и групи, а автоматизираното откривање преку AI нуди потенцијал за справување  со неговиот голем обем на онлајн платформите.

Анализата на постоечките AI модели, како што се BERT, RoBERTa, LSTM, GRU и  традиционалните методи за машинско учење, покажа дека напредокот во областа на  обработката на природен јазик (NLP) овозможува сѐ пософистицирано разбирање на  контекстот и нијансите на човечкиот јазик, што е клучно за прецизна детекција на говор на  омраза, вклучително и оние форми кои се насочени кон родовите и ЛГБТКИ+ прашањата. 

Исто така ги нагласи значајните предизвици кои го придружуваат развојот и  имплементацијата на овие технологии. Лингвистичката сложеност, недостатокот на  квалитетни и балансирани податоци за тренирање, субјективноста на дефиницијата за говор  на омраза, неговата еволутивна природа и потребата за контекстуално разбирање  остануваат значајни пречки за постигнување на совршена автоматизирана детекција. 

Понатаму, беше дискутирано за клучните етички и општествени дилеми поврзани со  употребата на AI во оваа област. Балансот помеѓу борбата против говорот на омраза и  заштитата на слободата на говор и приватноста на корисниците, потенцијалната  пристрасност на моделите, потребата за транспарентност и објаснивост, како и ризикот од  злоупотреба на овие технологии, бараат внимателно разгледување и воспоставување на  етички насоки и регулаторни рамки. 

Во контекст на родовите студии, ефективната детекција на говор на омраза насочен кон  жени, мажи и ЛГБТКИ+ лица е од особена важност за создавање на поинклузивен и  побезбеден онлајн простор. Континуираниот развој на AI модели кои се чувствителни на  специфичните форми и контексти на родово базиран говор на омраза е неопходен чекор кон  постигнување на родова еднаквост и социјална правда во дигиталната сфера.

10 

Референци : 

https://iks.edu.mk/attach/Govor-na-omraza-vo-mediumite-vo-Makedonija.pdf

https://www.researchgate.net/publication/349296725_Challenges_of_Hate_Speech_Detection_in _Social_Media 

https://www.researchgate.net/publication/376368760_Review_of_Recent_Trends_in_the_Detect ion_of_Hate_Speech_and_Offensive_Language_on_Social_Media 

https://www.sciencedirect.com/science/article/pii/S0925231223003557

https://www.researchgate.net/publication/352081061_A_systematic_review_of_Hate_Speech_au tomatic_detection_using_Natural_Language_Processing 

https://blog.mdpi.com/2024/08/14/hate-speech-detection

11