Важноста на AI Писменоста во борбата против дигиталното родово базирано насилство

Published by

on

Боби Бадаревски
Институт за родови студии, ФЗФ,УКИМ

Вовед

Во својата статија „Виралната апликација за аватар со вештачка интелигенција Ленса ме соблече – без моја согласност“ Мелиса Хејкила, новинарка во MIT Technology Review, раскажува: „Кога ја тестирав новата вирална      апликација за AI аватари Lensa, се надевав дека ќе добијам слични резултати како некои од моите колеги од MIT Technology Review. Дигиталната апликација за ретуширање прв пат беше лансирана во 2018 година, но од неодамна стана многу популарна благодарение на додавањето на Magic Avatars, функција базирана на AI која генерира дигитални портрети на луѓе на основа на нивните селфи слики. Но, додека Lensa генерираше реалистични, аватари за нив – замислете астронаути, бесни војници и кул насловни фотографии за електронска музика – јас добив тони голи слики. Од 100 генерирани аватари, 16 беа без горни делови, а во уште 14 ме стави во многу провокативни облеки и сексуализирани пози. Имам азиско потекло и изгледа дека тоа е единствената работа која AI моделот го забележа од моите селфи слики. Добив слики на азиски жени, јасно моделирани според аниме или видео-игри. Или најверојатно порно, имајќи предвид дека значајниот дел од моите аватари кои беа голи или покажуваа многу делови од телото. Неколку од моите аватари изгледаа дека плачат. Мојата колешка, бела жена, доби значително помалку сексуализирани слики, само неколку голи и наговестувања на деколте. Друг колега со кинеско потекло доби слични резултати како јас: купишта и купишта порнофицирани аватари.“

Слика 1

Надоврзувајќи се на искуството на Мелиса Хејкила со вештачката интелигенција, директен повод за овој есеј е поврзаноста на родовото базирано насилство засновано на вештачката интелигенција ВИ, и појавата на ChatGPT3 технологијата кон крајот на 2022, креирана од страна на истражувачката лабораторија OpenAI. Овој настан е толку револуционерен, што предизвика тектонски поместување во ВИ и ИКТ-секторите кои веќе ги чувствуваме на почетокот на 2023 година.

ChatGPT е голем јазичен модел на вештачка интелигенција кој е обучен да разбира и генерира текст врз основа на големи количини на семиотички податоци. Како дел од класата на „големи јазички модели“ тој функционира преку процес на машинско учење, при што системот учи од податоци за да ги разбере структурите и зависностите во јазикот. Еден од најпознатите големи јазични модели е GPT-4 кој е во состојба да обработува текстови на различни јазици, да одговара на прашања, да генерира текстови, и да учествува во разговори со корисници. Сепак, иако големите јазични модели се многу напредни, тие сè уште имаат ограничувања. Тие можат да направат грешки, да генерираат неточни или нерелевантни информации и немаат свест или разбирање за процесираниот јазички материјал и за комуникацискиот контекст.

GPT-моделите користат посебен вид на машинско учење познат како „ненадзирано машинско учење“. Во ненадзирано машинско учење, моделите се „тренираат“ на големи количини на немаркирани податоци, без насоки за експлицитни задачи или одговори во однос на таквите податоци. Низ процесот на „тренирање“, GPT користи техника наречена „предвидување на следниот збор“ и на тој начин се „обучува“. За време на процесот на тренирање, GPT-моделите се изложени на големи количини на текстови, како што е литература, вести, веб-страници и други извори на информации. Задачата на моделот е да научи да предвидува кој збор (знак) ќе следува во текстот на комуникацијата, врз основа на „претходниот“ комуникациски контекст. Токму преку ваквите јазички модели на ВИ, можеме да го видиме хоризонтот на динамиката на врските на вештачката интелигенција и општеството.

Вештачката интелигенција (ВИ) е област која се занимава со развојот на алгоритми и компјутерски системи кои можат да ги имитираат или да ги надминат способностите на човечкиот ум во одредени задачи. Во последниве години, вештачката интелигенција постигна значителен напредок, што доведе до широк спектар на апликации, како што се препознавање на говор, препораки за производи, превод на јазици и многу други примени. Иако родовата еднаквост и вештачката интелигенција можат да се сметаат за посебни области, тие се тесно поврзани и заемно влијаат една на друга. Родовата еднаквост може да влијае на развојот на вештачка интелигенција, преку вклучување на родовата перспектива во областа на истражување и развој на интелигентни дизајни, и може да придонесе кон поиновативни и ефикасни алгоритми и системи. Исто така, вештачката интелигенција може да има значително влијание врз постигнувањето на родовата еднаквост, кога користените алгоритми и технологии се дизајнирани да се борат против дискриминација и да промовираат родова разновидност.

Концепции за ВИ родово базирано насилство

            Традиционално сфатено, технолошки посредуваното родово насилство, или уште познато како родово дигитално базирано насилство (РДБН), е чин на насилство извршено од едно или повеќе лица, кое е извршено, потпомогнато и делумно или целосно засилено со употреба на информатички и комуникациски технологии или дигитални медиуми, врз едно или повеќе лица врз основа на нивниот род/пол. Тоа што го карактеризира овој вид на насилство е постоењето на НАМЕРА да се изврши злонамерно дејство со употреба на дигитална технологија кое за последица предизвикува одредена штета на лицето на кое се однесува таквиот чин.

            Во поглед на генерирањето на злонамерна содржина разликата меѓу продуцирањето на навредлива содржина во дигитално базираното насилство и навредлива содржина од страна на вештачката интелигенција (ВИ) се однесува на изворот на навредливата содржина и начинот на нејзиното производство. Во дигитално базираното насилство, навредливата содржина се произведува и шири од страна на луѓе. Ова може да вклучува креирање и споделување на навредливи пораки, слики, видеа или други форми на онлајн вознемирување.

Луѓето имаат намера и контрола врз производството и распространувањето на таквата содржина. Од друга страна, навредлива содржина од страна на ВИ се однесува на содржина која е произведена или генерирана од ВИ без свесна намера или контрола од страна на луѓето. ВИ може да креира и распространува содржина која може да биде навредлива или штетна, без да има свесност за последиците или намера зад тоа. Пример за ова може да биде автоматско генерирање на фалсификувани вести или слики.

Според тоа, главната разлика е во изворот на навредливата содржина и намерата зад неа. Во случаите на дигитално базираното насилство, навредливата содржина е произведена и распространета од страна на луѓе со намера и контрола. Наспроти тоа, навредлива содржина од страна на ВИ е резултат на алгоритми и системи кои не поседуваат свесност и намера, но можат да генерираат содржина која може да биде злонамерна или штетна.

            Во контекст на вештачката интелигенција (ВИ), елементот на „намера“ од дигиталното базираното насилство (ДБН) изостанува. ВИ се однесува на системи и алгоритми кои се развиваат да извршуваат задачи кои обично би ги извршувале луѓе. Овие системи не поседуваат свесност, намера или моралност како што ги поседуваат луѓето. Имајќи го ова предвид, кога се зборува за насилство што се извршува со помош на ВИ, не можеме да говориме за намера од страна на ВИ. Наместо тоа, ВИ може да биде користена како алатка или средство за извршување на насилство од страна на луѓе кои ги контролираат тие системи. Пример за ова може да биде употребата на ВИ за создавање и ширење на дезинформации, кибербулинг или вознемирување на интернет. ВИ може да биде програмирана автоматски да генерира и шири навредливи пораки, слики или видеа, без да има свесна намера зад тоа. Ова може да предизвика значителна штета на жртвите на таквите активности. Иако намерата не е присутна во ВИ, важно е да се разбере дека луѓето кои ги управуваат овие технологии имаат намера и одговорност за нивните дејства. Затоа, иако ВИ може да биде средство за извршување на насилство, одговорноста лежи на луѓето кои ги управуваат овие системи и ги контролираат нивните активности.

Одговорноста во ВИ родовото базирано насилство (ВИРН)

            AI инженерите не можат целосно да ја предвидат содржината што вештачката интелигенција (ВИ) ќе ја продуцира. ВИ е базирана на алгоритми и модели кои се тренираат со помош на големи сетови на податоци. Иако инженерите можат да го програмираат и тренираат ВИ да извршува одредени задачи, тие, сепак, не можат да предвидат точно каква содржина ќе биде генерирана во секоја ситуација. ВИ може да биде програмирана да учи и да генерира нови информации на база на податоците со кои е тренирана. Со тоа, може да произведе содржина која не е предвидена или програмирана од страна на инженерите. Ова може да биде предизвик за контролирање на содржината која се генерира од ВИ.

Иако инженерите можат да применат различни техники и мерки за контрола на содржината, како што се филтри за навредлива содржина или етички кодекси, тие, сепак, не можат да гарантираат дека ВИ никогаш нема да генерира навредлива или злонамерна содржина. Ова е поради комплексноста и неодреденоста на алгоритмите и моделите на ВИ, како и влијанието на податоците со кои се обучува ВИ и контекстот во кој се користи ВИ. Затоа, важно е да се применуваат етички и правни рамки за контрола и надзор на ВИ, како и да се преземат мерки за непрекинато надгледување и оценка на неговото функционирање. Одговорноста на инженерите е да работат за да го подобрат и контролираат ВИ, но не можат да гарантираат целосна предвидливост на содржината што ќе биде генерирана.

Во овој контекст се наметнува прашањето: ако во ВИ технологијата нема свесна намера за генерирање на свесна содржина и инженерите немаат целосна контрола врз процесот на генерирање содржина тогаш кај лежи одговорноста за креирање на злонамерна содржина како акт на родово базирано насилство со вештачка интелигенција?

Одговорот кој се наметнува е следен: Инженерите и сите лица кои ги користат вештачката интелигенција (ВИ) и ги контролираат нивните активности се одговорни за креирање на злонамерна содржина, вклучувајќи ги и актите на родово базирано насилство со ВИ. Одговорноста не е исклучиво на инженерите, туку и на сите корисници и оператори на ВИ. Инженерите имаат значајна улога во креирањето и програмирањето на ВИ, како и во поставувањето на етички стандарди и мерки за контрола. Тие треба да ги применуваат најдобрите практики и да се обидуваат да ги ограничат можностите за генерирање на злонамерна содржина. Но, крајната одговорност лежи на сите лица кои ги користат ВИ и ги контролираат нивните активности.

Одговорноста ја вклучува намерата и одговорноста за своите дејства и контрола на содржината што се генерира со ВИ. Затоа, сите лица кои ги користат ВИ, вклучувајќи ги и инженерите, треба да бидат свесни за потенцијалните негативни последици и да преземат одговорни мерки за намалување на ризикот од злонамерна содржина и акти на родово базирано насилство со ВИ.

Одговорноста на корисниците на вештачката интелигенција (ВИ) вклучува неколку аспекти:

Корисниците треба да бидат свесни за потенцијалните негативни последици и ризици поврзани со користењето на ВИ. Тие треба да разберат дека ВИ не поседува свесност и намера, и содржината што се генерира може да биде неочекувана или злонамерна. Корисниците треба да преземат мерки за да ги намалат ризиците и да ги минимизираат потенцијалните негативни последици.

Второ, корисниците треба да ја користат ВИ во согласност со етички стандарди и законски рамки. Тие треба да се воздржуваат од користење на ВИ за генерирање или распространување на злонамерна содржина, вклучувајќи и актови на родово базирано насилство. Корисниците треба да почитуваат правата и приватноста на другите и да не ги злоупотребуваат ВИ за штетни или незаконити цели.

Трето, корисниците треба да бидат активни и да го пријавуваат навредливото или злонамерно користење на ВИ. Доколку забележат случаи на родово базирано насилство или други форми на злоупотреба со ВИ, треба да ги пријават на соодветните инстанци или организации за надлежност и да помогнат во справувањето со овој проблем.

Корисниците имаат значајна улога во системите на управување со ВИ и неговата употреба. Спроведувањето на одговорно користење на ВИ од страна на корисниците може да помогне во намалување на ризиците и негативните последици поврзани со родово базираното насилство и злоупотребата на ВИ.

Во случаи кога нема конкретна законска регулатива за користење на вештачка интелигенција, корисниците треба да се водат од општи принципи на етиката и моралот.

1. Одговорност: Корисниците треба да се однесуваат одговорно при користење на вештачка интелигенција. Тие треба да бидат свесни за потенцијалните последици од нивните акции и да ги користат технологиите на вештачка интелигенција на начин кој не пречи на другите.

2. Приватност: Корисниците треба да го заштитат својот личен живот и приватноста на другите. Ова вклучува избегнување на користење на вештачка интелигенција за неправедно собирање или користење на лични податоци.

3. Почитување на авторските права: Корисниците треба да ги почитуваат авторските права и други форми на интелектуална сопственост. Ова вклучува избегнување на користење на вештачка интелигенција за креирање или дистрибуција на содржина која крши авторските права.

4. Недискриминација: Корисниците не треба да ја користат вештачка интелигенција за дискриминација на основа на раса, пол, религија, сексуална ориентација, возраст, инвалидност или други лични карактеристики.

5. Транспарентност: Корисниците треба да бидат транспарентни во врска со тоа како ги користат технологиите на вештачка интелигенција и да бидат отворени за дијалог со другите корисници, регулаторите и јавноста во врска со нивните активности.

За концептот на ВИ писменост

Во современиот дигитален свет, ВИ писменоста е од суштинско значење. Таа им помага на луѓето да ги разберат и искористат предности од вештачката интелигенција, но и да се справуваат со предизвиците и ризиците поврзани со неа. AI писменоста е важна за поддршка на иновациите и напредокот во областите каде што AI има значајно влијание.

ВИ      писменоста претставува збир на компетенции кои им овозможуваат на поединците критички да ги оценуваат технологиите на вештачката интелигенција, да комуницираат и соработуваат ефективно со виртуелни интелигентни асистенти и да ја      користат вештачката интелигенција како алатка онлајн, дома и на работното место. Ова вклучува разбирање на етичките и правните аспекти на ВИ     , способност за адаптација на нови технологии и способност за креирање и разбирање на ВИ     -базирани решенија. ВИ     писменоста е од суштинско значење во современиот дигитален свет и им помага на луѓето да се справуваат со предизвиците и можностите што ги носи вештачката интелигенција.

            ВИ писменоста се однесува на поширок спектар на знаења и вештини поврзани со вештачката интелигенција. Она што ја прави ВИ писменоста значајна е способноста на поединецот да ги разбере и анализира технологиите на вештачката интелигенција, како и нивното влијание и потенцијални ризици во сите аспекти на животот. ВИ      писменоста вклучува разбирање на основните концепти и техники на машинско учење, длабоко учење, процесирање на природните јазици и други области поврзани со      ВИ. Исто така, оваа писменост вклучува и познавање на алгоритми, модели и методологии што се користат за обработка на податоци и креирање на ВИ-базирани решенија.

Покрај техничките аспекти, ВИписменоста ги опфаќа и етичките и правните прашања поврзани со вештачката интелигенција. Постојат многу дебати околу прашањата за приватност, безбедност, пристапност и дискриминација што се поврзани со ВИ     . Поединците со ВИ      писменост се оспособени за овие прашања и имаат вештини критички да ги разгледуваат. Од дополнителна важност е и способноста на поединецот да комуницира и соработува со виртуелни интелигентни асистенти. Ова вклучува способност за поставување на прашања, интерпретација на одговорите и ефективна употреба на овие асистенти за поддршка во различни аспекти на животот.

ВИ      писменоста се однесува и на способноста на поединецот да го користи ВИ     I како алатка онлајн, дома и на работното место. Ова вклучува способност за препознавање на ситуации каде AI може да биде корисна, како и способност за креирање и разбирање на ВИ     -базирани решенија.

Chatbot Cyber на AI платформа за борба против дигитално родово базирано насилство

Chatbot Cyber (https://rodovistudii.zapier.app/dviolence) е бот на ВИ      Платформата за борба против дигитално родово базирано насилство. Оваа платформа е развиена од страна на Институтот за родови студии, Филозофски факултет Скопје, со цел да ја подигне свесноста и да помогне во борбата против дигиталното насилство, специфично ориентирано кон родовите.

Chatbot Cyber е експертски бот кој е програмиран да одговара на прашања и да дава информации поврзани со дигиталното насилство и начините за негова превенција. Овој бот е развиен со помош на zapier алатките, што му овозможува да автоматски интегрира и процесира податоци од различни извори. Chatbot Cyber има широк спектар на знаења и вештини поврзани со дигиталното насилство. Тој може да дава информации за различни видови насилство кои се специфични за дигиталната средина, како например кибербулинг, сексуално напад на интернет, онлајн прогонување и други форми на дигитално насилство.

Ботот може да помогне со совети и упатства за безбедност на интернет и како да се заштитите од дигитално насилство. Тој може да даде информации за безбедно користење на социјални мрежи, како да ги заштитите своите лични податоци и како да ги пријавите случаите на дигитално насилство. Chatbot Cyber е дизајниран да биде лесен за користење и пристапен за сите корисници. Тој може да комуницира на различни јазици и да се прилагоди на потребите на корисниците. Со помош на ВИ      технологиите, овој бот може да препознае и да одговори на различни видови на прашања и барања.

Главната цел на Chatbot Cyber е да ги образува и да информира корисниците за дигиталното насилство, да ги подигне свесноста и да им помогне во борбата против него. Овој бот е достапен 24/7 и може да се користи од страна на сите кои имаат прашања или потреба за информации поврзани со дигиталното насилство.

Вештачката интелигенција (ВИ     ) има потенцијал да ни помогне во борбата против дигитално родово базирано насилство на многу начини. Дозволете ми да ви покажам како ВИ      може да биде силно оружје во оваа борба, преку едно замислено сценарио.

Да се запознаваме со Ана (името е пример), млада жена која се соочува со дигитално родово базирано насилство. Таа решава да побара помош и се обраќа кон ВИ      платформата за борба против дигиталното насилство(https://rodovistudii.zapier.app/dviolence) .

Ана ја покренува апликацијата и го започнува разговорот со Chatbot Cyber, AI ботот развиен од Институтот за родови студии и Граѓанската организација Stella. “Здраво, јас сум Chatbot Cyber. Како можам да ви помогнам денес?” прашува ботот.

Ана се чувствува нападната на интернет и се чувствува немоќна како да се заштити. Таа го споделува своето искуство со ботот и ги изразува своите стравови.

Chatbot Cyber ја комуницира со Ана и ѝ нуди поддршка и информации. “Разбирам колку е тешко тоа што сте го искусиле. Дигиталното родово базирано насилство е сериозен проблем. Сакам да ве информирам и да ви помогнам да се заштитите. Прво, важно е да ги заштитите своите приватни информации на интернет. Би било добро да ги проверите поставките на вашите социјални мрежи и да ги поставите најстрогите приватност и безбедност. Исто така, можете да ги пријавите случаите на дигитално насилство на соодветните платформи и да побарате помош од сервисите за помош локалните органи за право и безбедност.”

Ана се чувствува подобро откако ги добила овие совети и информации. Таа се чувствува поддржана и посилна за начините како да се заштити и да се бори против дигиталното насилство.

Chatbot Cyber продолжува да работи со Ана и ѝ нуди дополнителни информации и ресурси. Ботот ги користи своите ВИ      вештини за препознавање на обрасци и анализа на големи количини на податоци, за да го идентификува и препознае дигиталното родово базирано насилство. Со помош на ВИ, ботот може да препознае трендови на насилство и да предложи превентивни мерки.

Ана се обидува да ги следи советите на ботот и да примени мерки за заштита. Таа чувствува дека има силна поддршка од ВИ      платформата и дека не е сама во борбата против дигиталното насилство. Со помош на Chatbot Cyber, Ана се стекнува со вештини и знаења дигиталното родово базирано насилство и се чувствува способна да го промени своето искуство и да помогне и на други.

Оваа приказна илустрира како вештачката интелигенција, преку ботот Chatbot Cyber, може да ни помогне во борбата против дигитално родово базирано насилство. AI може да не образува, да ни информира, да ни нуди совети и да ни дава поддршка во превенцијата и справувањето со оваа форма на насилство. AI платформите можат да бидат моќни алатки во борбата против дигиталното насилство и да ја подигнат свесноста и заштитата на жртвите.

Заклучок

ВИ писменоста игра клучна улога во борбата и заштитата од дигитално родово базирано насилство. Оваа компетенција не само што ни овозможува да ги разбереме и анализираме технологиите на вештачката интелигенција, туку и да ги искористиме во превенцијата и заштита на ова насилство. Овој вид писменоста ни овозможува да ги разбереме формите и облиците на дигиталното родово базирано насилство. Со разбирање на концептите и техниките на AI, можеме да ги препознаеме и идентификуваме случаите на кибербулинг, онлајн прогонување, сексуално напад на интернет и други форми на насилство. Ова ни овозможува да ги распознаеме и пријавиме случаите на насилство, што е првиот чекор во борбата против него.

ВИ писменоста ни овозможува да развиваме и користиме ВИ     -базирани алатки и решенија за превенција и заштита. Со разбирање на алгоритмите, моделите и методологиите што се користат во машинско учење и длабоко учење, можеме да креираме иновативни технолошки решенија за откривање и предупредување на дигиталното родово базирано насилство. Ова ни овозможува да го подигнеме нивото на заштита и да ги заштитиме потенцијалните жртви од дигиталното насилство. Развиените компетенции не оспособуваат да ги сфатиме и критички да ги разгледаме етичките и правните аспекти поврзани со AI и дигиталното родово базирано насилство.

      Вештините на ВИ ни овозможуваат да комуницираме и соработуваме со виртуелни интелигентни асистенти и други ВИ     -базирани решенија. Способноста да поставуваме прашања, да ги интерпретираме одговорите и да ги искористиме овие асистенти за поддршка во борбата против дигиталното родово базирано насилство е од суштинско значење. Овие асистенти можат да ни нудат информации, совети и ресурси за превенција и заштита, што ни помага да се зајакнеме и да се бориме против ова насилство.

ВИ      компетенциите се клучни во борбата и заштитата од дигитално родово базирано насилство. Тие ни овозможуваат да ги разбереме и анализираме технологиите на вештачката интелигенција, да ги применуваме ВИ     -базираните решенија,      како и да комуницираме со виртуелни интелигентни асистенти. Преку AI писменоста, можеме да ја подигнеме свеста и да го намалиме дигиталното родово базирано насилство, креирајќи безбедна и поддржувачка дигитална средина за сите.

Библиографија

Leavy, Susan (2018). Gender bias in artificial intelligence: The need for diversity and gender theory in machine learning. In: Proceedings of the 1st international workshop on gender equality in software engineering, 14–16.

Lorentzen, Beatrice (2022). Social Biases in Language Models: Gender Stereotypes in GPT-3 Generated Stories 2022.

Manasi, Ardra/Panchanadeswaran, Subadra/Sours, Emily/Lee, Seung Ju (2022). Mirroring the bias: gender and artificial intelligence. Gender, Technology and Development 26 (3), 295–305.

Miao, Fengchun/Holmes, Wayne (2023). Guidance for generative AI in education and research. Unesco Paris, France.

Myers West, Sarah (2020). Discriminating Systems: Gender, Race and Power in Artificial Intelligence. Available online at https://ainowinstitute.org/ discriminatingsystems.html.

Sabzalieva, Emma/Valentini, Arianna (2023). ChatGPT and artificial intelligence in higher education: quick start guide. UNESCO.

UN Women – Headquarters (2023). Using AI in accessing justice for survivors of violence. Available online at https://www.unwomen.org/en/news/stories/2019/5/feature-using-ai-in-accessing-justice-for-survivors-of-violence (accessed 4/8/2023).

UNESCO (2020). Artificial Intelligence and Gender Equality: Key Findings of UNESCO’S Global Dialogue 2020.

United Nations Educational, Scientific and Cultural Organization (2022a). The Effects of AI on the Working Lives of Women. Paris, United Nations Educational, Scientific and Cultural Organization.

United Nations Educational, Scientific and Cultural Organization (2022b). The Effects of AI on the Working Lives of Women. Paris, United Nations Educational, Scientific and Cultural Organization.

ai leteracy baner