Дамјан Сандев
Вовед
Говорот на омраза опфаќа нечовечки и дискриминаторски изјави насочени кон одредени групи луѓе. Овие напади најчесто се поврзани со карактеристики како што се бојата на кожата, потеклото, сексуалната ориентација, родот, возраста, попреченоста или религијата. Најчесто погодени групи се жените, луѓето со мигрантско потекло и ЛГБТК+ заедницата. Истражувањето „Гласна омраза – тивко повлекување“ на Компетентната мрежа против омраза на интернет покажува дека луѓето кои имаат повеќе од овие карактеристики почесто се изложени на говор на омраза.
Дополнително, ваквите напади создаваат токсична и враждебна средина која ја нарушува индивидуалната слобода и го отежнува општествениот дијалог. Оваа појава не само што предизвикува чувство на страв и изолација кај засегнатите, туку може да има и долгорочни негативни последици врз нивното ментално здравје и социјална интеграција. За да се справиме со оваа сериозна проблема, неопходно е да се зголеми јавната свест за значењето и последиците од говорот на омраза, како и да се воспостават ефективни мерки за заштита на сите заедници. Превентивните мерки и промоцијата на толеранција се од суштинско значење за создавање општество каде што се почитуваат различностите и се поттикнуваат позитивни меѓучовечки односи.
Омраза на интернет: Повеќе од само навредливи коментари
Терминот „онлајн омраза“ опфаќа многу повеќе од говорот на омраза и вклучува различни штетни дигитални практики, како што се расистички мемиња, несакани експлицитни слики или доксинг (објавување на лични податоци). Други форми на онлајн омраза вклучуваат споделување (голи) фотографии без согласност, следење, вознемирување, закани со насилство и длабоки фалсификати (deepfakes). Вештачката интелигенција (ВИ) има двојна улога – и во создавањето и во борбата против овие феномени. Технологиите базирани на ВИ овозможуваат креирање лажни видеа и слики кои се користат за манипулација и клевета.
Еден од познатите примери за употреба на deepfake технологијата е ширењето на лажно видео од 2019 година со Ненси Пелоси, претседателка на Претставничкиот дом на САД. Во ова видео, нејзиниот глас и изразите на лицето беа изменети за да
изгледа како да зборува несвесно и нејасно, со што се создаде негативен впечаток за неа. Вакви манипулации можат сериозно да го нарушат јавното мислење и да поттикнат дезинформации, особено во политички контекст.
Иако YouTube го отстрани видеото, Facebook само ја намали неговата видливост, а на платформата X (поранешен Twitter) остана достапно бидејќи тогаш немаше политика за отстранување на манипулирана содржина. Овој пример покажува колку длабоките фалсификати можат да бидат опасни во ширењето на омраза и лажни информации.
Со зголемената употреба на вештачка интелигенција, предизвикот за спречување на дезинформации станува сè поголем. Потребни се поефикасни механизми за проверка на фактите, како и подобри регулативи кои ќе обезбедат заштита од ваквите злоупотреби. Само со комбиниран ангажман на платформите,
истражувачите и јавноста може да се намали влијанието на онлајн омразата и дигиталните манипулации.
Вештачка интелегенција за откривање и борба против говорот на омраза
Вештачката интелигенција (ВИ) игра клучна улога во борбата против говорот на омраза на онлајн платформите. Системите базирани на обработка на природен јазик (NLP) можат автоматски да препознаат навредлива или нечовечка содржина и да преземат соодветни мерки. Еден од најголемите предизвици е правилното разликување меѓу слободата на изразување и говорот на омраза, особено кога коментарите содржат суптилни или прикриени елементи на дискриминација.
Еден конкретен пример за примена на NLP во детектирањето на говор на омраза е алатката „Perspective“, развиена од Jigsaw, подружница на Alphabet, во соработка со Google. „Perspective“ користи машинско учење и NLP за анализа на „токсичноста“ на коментари во онлајн дискусии. Алатката проценува колку е навредлив или штетен еден текст, овозможувајќи им на платформите подобра модерација на потенцијално штетни коментари.
Иако ВИ значително придонесува во откривањето и спречувањето на говорот на омраза, постојат и предизвици – како на пример погрешна класификација на саркастични или двосмислени коментари. Затоа, потребно е континуирано унапредување на овие системи, комбинирање на алгоритмите со човечка интервенција и создавање транспарентни модерациски политики. Само така ќе се обезбеди ефикасна заштита од омраза без да се загрози правото на слободен говор.
ВИ-контролираните ботови играат значајна улога во ширењето на омраза на интернет. Тие можат автоматски да дистрибуираат голем број пораки со говор на омраза и да влијаат на јавните дебати. Истовремено, сè понапредни алгоритми се развиваат со цел да ги идентификуваат и неутрализираат овие автоматизирани профили.
Еден познат пример за користење на ботови за ширење дезинформации и омраза е поврзан со претседателските избори во САД во 2016 година. На платформи како X (поранешен Twitter) и Facebook, ботови масовно објавуваа лажни вести, поларизирачка содржина и коментари со омраза. Истражувањата покажаа дека многу од овие ботови биле создадени со цел да манипулираат со јавното мислење и да ги продлабочат општествените поделби.
За да се спротивстават на ваквите „ботови на омраза“, компании како Facebook започнаа со развој на ВИ-алгоритми за нивно откривање. Овие алгоритми ги анализираат сомнителните обрасци на однесување, како што се зачестеноста на објавите, начинот на интеракција и потеклото на профилите.
И покрај напредокот во борбата против автоматизираните напади со говор на омраза, ботовите постојано стануваат пософистицирани, користејќи техники како што се имитирање на човечко однесување или вклучување во автентични дискусии. Ова укажува на потребата од континуирано унапредување на механизмите за детекција и комбинирање на ВИ-технологиите со стручна човечка интервенција за подобра заштита на дигиталниот простор.
Од зборови до дела: Радикализација преку интернетот
Онлајн омразата може да доведе до насилство во реалниот свет, како што беше случајот со убиствата на Валтера Либке и нападите во Хале и Ханау. Интернетот игра централна улога, служи како платформа за радикализација.
На 2 јуни 2019 година, претседателот на округот Касел, Валтера Либке, беше убиен со куршум во глава на терасата на својот дом. Убиството беше претходено со кампањи на омраза од крајната десница, откако политичарот од Христијанско-демократската унија (ЦДУ) силно се залагаше за демократски вредности, прифаќање на бегалци и
против екстремизмот на десницата. Омразата ескалирала до точка каде што беше објавена неговата приватна адреса на блог на екстремистите од крајната десница, со повик некој да ја “средува ситуацијата”. Извршителот беше екстремист од крајната десница.
На 9 октомври 2019 година, екстремист од десницата во Хале се обиде да влезе во синагога, тешко вооружен. Откако не успеа да влезе, тој уби две лица. На 19 февруари 2020 година, расист во Ханау застрела девет лица, наводно насочени кон луѓе со мигрантско потекло. Сите сторители се радикализирале онлајн.
Вештачката интелигенција може да игра важна улога во спречувањето на ваквите развојни настани, преку рано препознавање на опасни обрасци во онлајн дискусиите и комуникациите.
Еден успешен пример за превентивна употреба на ВИ е откривањето на измами во финансискиот сектор. Банки и финансиски институции веќе години користат ВИ за откривање на сомнителни трансакции и спречување на измами или перење пари. Овие технологии се покажале како многу ефективни, бидејќи можат да анализираат големи количини податоци во реално време и да преземат итни мерки. Посебно, моделите за машинско учење што се користат за откривање на измами со кредитни картички постигнале висока точност и обезбедиле поголема сигурност во финансискиот сектор.
Овие успеси во финансискиот сектор покажуваат дека ВИ може да игра клучна улога и во борбата против ширењето на омраза и радикализација на интернет. Преку рано идентификување на заканувачки обрасци на однесување, системите на ВИ можат да помогнат да се направат дигиталните простори побезбедни и да се спречи ширењето
на пораки на омраза. Со развојот на овие технологии, постои можност за навремено интервенирање и спречување на радикализацијата на интернет, што е од клучна важност за заштита на општеството од насилни екстремистички акти.
Како технологијата и иницијативите можат да помогнат: Поддршка во борбата против говорот на омраза
Говорот на омраза не треба едноставно да се прифати или трпи од оние што се погодени или од странаци. Постојат различни стратегии за справување со или реагирање на говорот на омраза. Секоја од овие контрaстратиги има свои предности и недостатоци, и индивидуите треба да одлучат која е најпомошна за нив. Покрај опциите како што се игнорирање, бришење или пријавување на коментари со омраза, објективно одговарање на нив или блокирање на омразни коментатори, важна стратегија е користењето на поддршки услуги.
Еден познат пример е HateAid, германска непрофитна организација која се бори против онлајн омразата и дигиталното насилство. Покрај правната поддршка, HateAid нуди и едукација за дигиталното насилство и обезбедува алатки што им помагаат на погодените да се заштитат од омразни коментари. Особено во дигиталниот простор, каде што омразната содржина често останува постојано достапна, многу е важно да се има пристап до вакви поддршки услуги.
Технологијата исто така може да даде значаен придонес во ограничувањето на говорот на омраза. Вештачката интелигенција веќе успешно се користи на социјалните мрежи за откривање на штетна содржина и преземање превентивни мерки. Системите засновани на ВИ за откривање говор на омраза се користат веќе долго време и веќе постигнале високи стапки на успех во други области, како што е откривањето на измами во финансискиот сектор. Овие технологии не само што помагаат да се идентификуваат потенцијално штетни содржини, туку нудат и можност за преземање превентивни мерки пред зборовите да прераснат во дела.
Проектот X-Fem, кој го води нашата партнерска организација Fraunhofer IAIS, исто така помага во зголемувањето на свеста. Проектот е специфично насочен кон жени кои се обукираат во професионални вештини и има за цел да ги зајакне нивните
дигитални вештини. Скоро ќе биде објавен е-учењето кое ќе опфати теми како што се лажни вести, говор на омраза и одговорна употреба на Вештачката интелигенција. Ова помага во зголемување на свеста за овие проблеми и им обезбедува на учесниците алатки кои им се потребни за активно да се борат против дигиталното насилство.
Заклучок
Говорот на омраза и родовата дискриминација на социјалните мрежи претставуваат сериозни предизвици кои имаат далекосежни последици врз индивидуалната слобода, менталното здравје и општествената кохезија. Технологијата, особено вештачката интелигенција, игра важна улога во идентификувањето и борбата против овие појави преку автоматизирани системи за детекција и превентивни мерки. Иницијативи како HateAid и образовни проекти како X-Fem, исто така, нудат поддршка на жртвите и работат на зголемување на свеста за опасностите од онлајн омразата. За да се создаде безбеден дигитален простор, важно е континуирано унапредување на технологијата и инволвирање на различни актери како платформи, невладини организации и јавноста. Борбата против говорот на омраза е процес кој бара интегриран пристап, кој вклучува едукација, правна заштита и технолошки решенија.
Користена литература
https://lamarr-institute.org/blog/ai-against-hate-speech-digital-violence/
саадса