Алејна Ајдари
Апстракт
Напредокот во регулирањето на развојот, имплементацијата и употребата на вештачката интелигенција бара експлицитно вклучување на мерки кои, од една страна, го избегнуваат и спречуваат продолжувањето на дискриминацијата врз жените; и од друга страна, дека тие промовираат вистинска и ефективна еднаквост, придонесувајќи за подобар развој на човековите права. За да го направиме ова, спроведуваме синтетичка анализа на состојбата на најновите регулаторни иницијативи, со посебен фокус на предлогот за Европска регулатива за вештачка интелигенција, од перспектива на еднаквоста меѓу жените и мажите. И покрај напредокот кон еднаквоста што е одразен во некои од горенаведените стандарди, формулираме серија препораки кои несомнено би придонеле значително за елиминирање на родовите предрасуди во вештачката интелигенција и постигнување вистинска и ефективна еднаквост.
Вовед
Вештачката интелигенција (ВИ) стана моќна алатка што го трансформира начинот на кој работиме, комуницираме и донесуваме одлуки. Сепак, неговата употреба претставува значителни етички и социјални предизвици, особено во однос на еднаквоста меѓу жените и мажите. Бидејќи алгоритмите донесуваат одлуки кои претходно биле единствен домен на луѓето, постои итна потреба да се воспостават механизми за надзор за да се осигура дека овие технологии нема да ги репродуцираат или влошат постојните родови нееднаквости.
Најпрво, вештачката интелигенција не е неутрална. Алгоритмите учат од историски податоци, кои честопати одразуваат модели на родова дискриминација. Ова може да доведе до автоматизирани системи кои ги продолжуваат стереотипите или ги исклучуваат жените од вработување, образование или финансиски можности. Затоа, од суштинско значење е да се воспостават законски рамки што го регулираат дизајнот, употребата и надзорот на вештачката интелигенција со родова перспектива. Ова вклучува барање транспарентност во алгоритмиските процеси, обезбедување надворешни ревизии што ја потврдуваат праведноста на резултатите и промовирање на учеството на жените во технолошкиот развој.
Понатаму, системите за вештачка интелигенција мора да поминат низ проценки на етичкиот и социјалниот импакт пред имплементацијата, особено во чувствителните сектори како што се образованието, вработувањето, здравствената заштита и правдата.
Заедно со регулативата, мора да се имплементираат ефикасни механизми за следење на усогласеноста. Јавните органи, како што се агенциите за заштита на податоци и омбудсманите за човекови права, мора да бидат овластени да вршат инспекции, санкционирање и корекција на системи што го кршат принципот на еднаквост. Технолошките компании, исто така, мора да превземат активна одговорност за идентификување и елиминирање на пристрасноста, како и за надоместување на штетите во случај на непочитување.
Конечно, од суштинско значење е да се утврдат јасни правни последици за оние кои ги прекршуваат прописите. Ова вклучува финансиски казни, поништување на одлуките донесени од дискриминаторска вештачка интелигенција и правото на засегнатите лица на фер надомест. Само преку силна и проактивна регулатива можеме да обезбедиме вештачката интелигенција да служи како сојузник, а не како закана, за родовата еднаквост.
Предлози за правно регулирање на Вештачката Интелигенција во меѓународно поле
Во свет кој сè повеќе се обликува според потребите на вештачката интелигенција, потребата од глобална правна регулатива повеќе не е луксуз, туку потреба. Ветувањата за ефикасност, иновации и напредок што ги нуди вештачката интелигенција мора да бидат придружени со силни заштитни мерки за заштита на човековите права, еднаквоста и социјалната правда. Не е доволно само да се создадат технички норми или доброволни стандарди туку од суштинско значење е да се изгради правна рамка што ќе се справи со реалните ризици со кои се соочуваме како луѓе. Меѓународната регулатива за вештачката интелигенција не само што мора да ги координира напорите меѓу земјите, туку и да обезбеди технологијата да го почитува човечкото достоинство во сите негови форми, да се бори против предрасудите и да не ги влошува нееднаквостите, особено родовите нееднаквости. Денес, регулирањето на вештачката интелигенција значи одлучување какво општество сакаме да изградиме за сегашните и за идните генерации.
Совет на Европа: Обврзувачки договор за вештачка интелигенција
На 5 септември 2024 година, Советот на Европа ја усвои Рамковната конвенција за вештачка интелигенција, човекови права, демократија и владеење на правото, првиот обврзувачки меѓународен договор за вештачка интелигенција. Овој договор го потпишаа земји и унии како: САД, Обединетото Кралство, Европската Унија, Израел, Норвешка, Молдавија, Андора, Сан Марино и Исланд. Договорот ги утврдува основните принципи за развој и употреба на вештачката интелигенција, вклучувајќи ја заштитата на човековите права, транспарентноста, одговорноста и недискриминацијата. Се очекува да стапи на сила три месеци откако пет земји ќе го ратификуваат договорот, од кои најмалку три мора да бидат членки на Советот на Европа.
Европска Унија: Кодекс на добри практики за вештачка интелигенција
Европската комисија планира да го објави Кодексот за пракса за вештачка интелигенција за општа намена на 2 мај 2025 година. Сепак, објавувањето е одложено до 2 август 2025 година, поради притисок од САД и големите технолошки корпорации како што се „Мета“ и „Гугл“, кои веруваат дека кодот би можел да ги попречи иновациите. Кодексот, иако е доброволен, има за цел да воспостави упатства за етички развој и употреба на вештачката интелигенција во Европа.
Обединети нации: Извештај за управување со вештачката интелигенција
Во септември 2024 година, Советодавното тело на Обединетите нации за вештачка интелигенција го објави својот последен извештај насловен како „Управување со вештачката интелигенција за човештвото“. Извештајот презентира седум клучни препораки за решавање на критичните празнини во управувањето со вештачката интелигенција, нагласувајќи ја потребата од инклузивна и дистрибуирана глобална архитектура заснована на меѓународна соработка. Сите влади и засегнати страни се повикани да работат заедно на управувањето со вештачката интелигенција, поттикнувајќи го развојот, почитувајќи ги, заштитувајќи и исполнувајќи ги сите човекови права.
Глобални иницијативи
Кина: Сајбер -администрацијата на Кина издаде упатства за градење национална индустрија за вештачка интелигенција во јули 2024 година, со цел да се создадат повеќе од 50 нови национални и индустриски стандарди до 2026 година. Овие упатства опфаќаат клучни технички стандарди за технологии поврзани со вештачката интелигенција, како што се машинско учење и биометриско препознавање.
Сингапур: На 30 мај 2024 година, владата на Сингапур ја објави Рамката за управување со вештачката интелигенција за генеративна вештачка интелигенција, во која се дадени препораки за водење на компаниите во развојот или распоредувањето на генеративна вештачка интелигенција, врз основа на клучни теми како што се безбедноста, транспарентноста и заштитата на податоците.
Хонг Конг: На 11 јуни 2024 година, Канцеларијата на комесарот за приватност на лични податоци на Хонг Конг ја објави Рамката за заштита на лични податоци за вештачка интелигенција, која е наменета за компании што стекнуваат, распоредуваат и користат системи за вештачка интелигенција што вклучуваат лични податоци, во која се утврдени препорачани практики во согласност со законот за заштита на податоци на ХК.
Африканска Унија: Континентална стратегија за вештачка интелигенција
Африканската унија работи на континентална политика за вештачка интелигенција што вклучува создавање правила специфични за Африка, воспоставување индустриски стандарди и создавање национални совети за вештачка интелигенција. Се очекува оваа стратегија да биде финализирана до февруари 2025 година. Некои африкански земји веќе развија свои национални стратегии за вештачка интелигенција, фокусирајќи се на образованието, компјутерската моќ и политиките поволни за индустријата.
Овие иницијативи одразуваат глобален напор за воспоставување регулаторни рамки што обезбедуваат етички развој и употреба на вештачка интелигенција, промовирајќи меѓународна соработка и почитување на човековите права.
Напредок во правната регулатива на Европско ниво
Нацрт-регулативата на Европскиот парламент и на Советот – Имплементација на Регулативата на ЕУ за вештачка интелигенција
На 2 февруари 2025 година, стапија во сила првите одредби од Регулативата за вештачка интелигенција (Закон за вештачка интелигенција) на Европската Унија, означувајќи пресвртница во глобалната регулатива за вештачката интелигенција. Имплементираните мерки вклучуваат:
- Забрана за неприфатливи практики на вештачка интелигенција – Употребата на системи со вештачка интелигенција кои користат потсвесни, манипулативни или измамнички техники кои го нарушуваат човековото однесување или донесување одлуки е забранета. Ова вклучува искористување на ранливостите врз основа на возраст, попреченост или социоекономски статус, како и оценување на поединци или групи врз основа на нивното социјално однесување или особини на личноста.
- Обврска за писменост за вештачка интелигенција – Овозможувателите и операторите на системи за вештачка интелигенција мора да обезбедат нивниот персонал да има соодветно ниво на разбирање на вештачката интелигенција, вклучувајќи ги нејзините можности и ризици, за ефикасно и одговорно користење на системите. Иако не се предвидени директни казни за непочитување, недостатокот на соодветна обука може да се смета за отежнувачки фактор при одредување казни за други прекршувања на прописите.
Иако Законот за вештачка интелигенција се однесува на родовата еднаквост во општи црти, постојат области на кои им е потребно дополнително внимание, како што се :
- Проценките на родовото влијание ( се препорачуваат во текот на целиот животен циклус на системите за вештачка интелигенција, особено за оние класифицирани како високоризични. Овие проценки треба периодично да се разгледуваат и ажурираат за да се идентификуваат и ублажат потенцијалните негативни влијанија врз родовата еднаквост) ;
- Разновидност во развојните тимови ( Од суштинско значење е да се поттикне вклучувањето на разновидни и инклузивни развојни тимови. Правичното учество на жените и другите недоволно застапени групи во дизајнирањето и развојот на системи за вештачка интелигенција може да придонесе за создавање поправедни и порамноправни технологии) ;
- Репрезентативни и непристрасни податоци ( осигурување дека множествата податоци што се користат за обука на системи за вештачка интелигенција се репрезентативни и не ги овековечуваат родовите стереотипи. Квалитетот на податоците е клучен за да се избегне репродукција на дискриминаторски предрасуди).
Создавањето на Европската канцеларија за вештачка интелигенција (Канцеларија за вештачка интелигенција) во јануари 2024 година го зајакнува капацитетот за надзор и спроведување на Законот за вештачка интелигенција. Мисијата на оваа канцеларија е да придонесе кон имплементацијата, следењето и надзорот на системите за вештачка интелигенција, моделите на вештачка интелигенција за општа намена и управувањето со вештачката интелигенција во рамките на Европската комисија. Иако не е целосно независно тело, игра клучна улога во надгледувањето на регулативата за вештачка интелигенција во ЕУ.
Нулта нацрт на Меѓународната конвенција за вештачка интелигенција на Советот на Европа
Првичниот процес на изработка на нацрт-документот започна во 2023 година под водство на Комитетот за вештачка интелигенција (CAI) на Советот на Европа. Првичниот нацрт, познат како „Ревидиран нулти нацрт“, беше објавен на почетокот на 2023 година и послужи како основа за последователните преговори. Овој нацрт вклучуваше фундаментални принципи како што се транспарентност, отчетност, недискриминација, приватност и безбедност во развојот и употребата на системи за вештачка интелигенција.
Во декември 2023 година беше објавена консолидирана верзија на нацрт-законот, во која беа вклучени резултатите од второто читање и дополнителни предлози од CAI. Оваа верзија послужи како основа за третото и последно читање на договорот.
🖋️ Усвојување и потпишување на Договорот
На 5 септември 2024 година, Советот на Европа официјално ја усвои Рамковната конвенција за вештачка интелигенција, човекови права, демократија и владеење на правото. Овој договор го потпишаа 10 држави, вклучувајќи ги САД и Израел, како и Европската комисија во име на Европската Унија. Конвенцијата воспоставува правна рамка што го опфаќа целиот животен циклус на системите за вештачка интелигенција и се справува со ризиците што тие можат да ги претставуваат, промовирајќи одговорни иновации.
⚖️ Главни одредби од Договорот
Договорот воведува низа принципи и обврски за државите-страни, како:
- Транспарентност и надзор – бара од државите да преземат мерки за идентификување, проценка, спречување и ублажување на потенцијалните ризици поврзани со употребата на системи со вештачка интелигенција, вклучително и обврска за идентификување на содржината генерирана од вештачка интелигенција;
- Недискриминација и еднаквост – утврдува дека системите за вештачка интелигенција мора да ја почитуваат еднаквоста, вклучително и родовата еднаквост, забраната за дискриминација и правата за приватност;
- Одговорност – државите треба да обезбедат постоење на механизми за поединците да ги оспорат одлуките донесени од системите за вештачка интелигенција и да добијат ефикасни правни одлуки;
- Заштита на демократијата – бара системите со вештачка интелигенција да не се користат за поткопување на демократските институции или судските процеси;
- Исклучоци од национална безбедност – државите не се обврзани да ги применуваат одредбите од договорот за активности поврзани со заштитата на интересите на националната безбедност, но мора да обезбедат да овие активности го почитуваат меѓународното право и демократските институции.
🛡️ Механизми за имплементација и следење
За да се обезбеди ефикасно спроведување на договорот, се воспоставува механизам за следење во форма на Конференција на страните. Покрај тоа, секоја држава-страна мора да воспостави независен механизам за надзор на следење на усогласеноста со договорот и поттикнување на информирана јавна дебата за употребата на вештачката интелигенција.
🔄 Следни чекори
Договорот ќе стапи во сила откако пет држави ќе дадат согласност да бидат обврзани со него, од кои најмалку три мора да бидат членки на Советот на Европа. Се очекува овој договор да послужи како модел за меѓународна регулатива за вештачката интелигенција, надополнувајќи ги другите иницијативи како што е Регулативата за вештачка интелигенција на Европската унија.
Предлози за законска регулација на ВИ која целосно и ефикасно ќе ја вклучи еднаквоста меѓу жените и мажите
По спроведувањето на сумарна анализа на главните регулаторни стандарди и предлози за системи за вештачка интелигенција што беа презентирани во последниве години, како на меѓународно така и на европско ниво, верувам дека можеме да заклучиме дека сè уште има долг пат пред да се донесат мерки за гарантирање на еднаквоста меѓу жените и мажите и за промовирање на јакнењето на жените во користењето на вештачката интелигенција. Врз основа на анализа на нацрт-законските прописи и постојните стандарди, имаме серија предлози што би можеле да помогнат во елиминирањето на моменталните родови предрасуди во вештачката интелигенција и да придонесат за ефективна еднаквост меѓу жените и мажите, како следниве :
- ЗАДОЛЖИТЕЛНА ОБУКА ЗА ЕДНАКВОСТ И НЕДИСКРИМИНАЦИЈА ВРЗ ОСНОВА НА ПОЛОТ
Веќе видовме дека има потреба од промовирање на „доволно ниво на писменост за вештачка интелигенција” и од страна на давателите на услуги и од страна на развивачите на системи за вештачка интелигенција и од страна на корисниците. Од наша страна, инсистираме дека европските и домашни стандарди и политики мора да бидат похрабри и бараме обуката за еднаквост и недискриминација ефикасно да се вклучи на сите нивоа на задолжително образование, со посебен акцент и развој на оние предмети и универзитетски дипломи насочени кон обука на оние кои ќе бидат вклучени во синџирот на креирање и имплементација на системи за вештачка интелигенција. Во спротивно, ќе биде тешко, ако не и невозможно, за програмерите и корисниците да бидат „способни да идентификуваат извори на пристрасност и да ги исправат“ или, барем, да ја промовираат нивната исправка.
За жал и денес, има малку студиски планови што имаат некоја тема поврзана со ова прашање и, и покрај ова, тие се одобрени и имплементирани, лишувајќи ги студентите од знаење за еднаквост и недискриминација врз основа на пол што им овозможува да го применат во развојот на нивната понатамошна професионална активност. Ова е особено загрижувачко во академската обука што овозможува дизајнирање на алгоритми и нивното значење во конечната одлука, што е дополнително влошено ако се земе предвид намаленото учество на жените во студиите во таканаречените STEM области и, оттука, во произлезената професионална пракса и во донесувањето одлуки поврзани со неа. Иако како поранешен студент на ПМФ ( биотехнологија ), за среќа, на овој смер, а и општо на камупус имаше многу повеќе студенти од женскиог пол, не би можела истото да го кажам за МФ, ФЕИТ, ФИНКИ и др. Феноменот, како што е познато, не е случаен. Во половата поделба на трудот во патријархалното општество, на жените им се доделуваат должности за нега, првенствено во приватната сфера, но и во јавната сфера. Тие се обесхрабрени, експлицитно или суптилно, да ја насочуваат својата обука и професионална активност кон технолошки сектори традиционално доделени на мажи, на кои хипотетички им се припишува поголема вродена способност за тоа. На тој начин жените се одвлекуваат од контролата на технолошката моќ. Затоа е потребно да се промени овој тренд со соодветни мерки за афирмативни акции и, пред сè, со задолжителни политики за обука и развој.
- БАЛАНСИРАНО ПРИСУСТВО НА ЖЕНИ И МАЖИ ВО ДОНЕСУВАЊЕТО ОДЛУКИ ЗА ВИ
Балансираниот состав на телата и структурите за донесување одлуки е еден од принципите што ги промовира Европската Унија, која ја вклучува во различни области и, пред сè, во истражувањето. Според тоа, истражувачките програми „Хоризонт 2020“ и „Хоризонт Европа 2021-2027“ бараат избалансиран состав на истражувачките и евалуациските тимови. Всушност, тоа стана меѓусекторски принцип за целиот истражувачки процес. Затоа, тимовите што развиваат алгоритми за вештачка интелигенција мора да го имаат овој состав. Ова би обезбедило мноштво визии што ги надополнуваат и комплетираат резултатите од истражувањето на вештачката интелигенција. Според мене, принципот на избалансирано присуство на жени и мажи мора да се прошири на сите области на донесување одлуки поврзани со вештачката интелигенција. Во овој поглед, при прегледот на претходните регулаторни предлози, се забележува одредена тенденција за вклучување на избалансирано присуство и во групите на корисници и/или потенцијално засегнати лица кои добиваат мерки за гарантирање на почитувањето на нивните права и во составот на телата кои мора да донесуваат одлуки во врска со системите за вештачка интелигенција. Сепак, како што видовме, PRIA вклучува само специфични предлози – не меѓусекторски – кои го опфаќаат целиот процес на вештачка интелигенција.
- СПЕЦИФИЧНА ОБУКА И МОНИТОРИНГ ЗА КОРИГИРАЊЕ НА СЕКОЈА РОДОВА ПРИРАЧНОСТ
Бидејќи европската регулатива усвојува „пристап базиран на ризик“, таа ги идентификува оние што се класифицирани како системи со вештачка интелигенција со „висок ризик“ и воспоставува низа барања за нив поврзани со „податоците и нивното управување, документацијата и регистрацијата, транспарентноста и комуникацијата на информациите до корисниците, човечкиот надзор, точноста и безбедноста“ што мора да се исполнат во текот на целиот процес на дизајнирање, имплементација и примена. Во овој поглед, ги сметаме точките поврзани со обуката, валидацијата и тестирањето на податоците за вештачка интелигенција на кои им е потребна (член 10 PRIA) и потребата од човечки надзор (член 14 PRIA) за особено чувствителни на еднаквоста и недискриминацијата. Двата аспекта треба да вклучуваат специфични референци и мерки за да се обезбеди еднаквост меѓу жените и мажите. Во врска со првото прашање, она за обука на системи за вештачка интелигенција, предлагаме да се оди подалеку од решавањето на „потенцијалните пристрасности“ и „откривањето на можни празнини или недостатоци во податоците и како да се отстранат“, и да се разгледа можноста за воспоставување обврска за специфична обука за еднаквост и недискриминација за вештачката интелигенција, а не само за персоналот за развој. Целта би била да се промовира воспоставување на еден вид „универзален закон за вештачка интелигенција“ во кој неговите системи за имплементација ги вклучуваат „како стандард“ критериумите за гарантирање на еднаквост и недискриминација. Во врска со човечкиот надзор врз дизајнот и развојот на високоризични системи со вештачка интелигенција, Амандманот 314 на чл. Член 14.1 од PRIA го вклучува барањето „физичките лица одговорни за обезбедување човечки надзор“ да имаат „доволно ниво на писменост за вештачка интелигенција“. Како што наведов погоре, верувам дека е потребно да се вклучи експлицитна референца за нивната обука за еднаквост и недискриминација, така што таквиот надзор ќе помогне да се избегнат потенцијални родови предрасуди.
Регулација на механизмите за контрола на усогласеноста со прописите и сите правни последници од неусогласеноста
Регулирањето на механизмите за контрола на усогласеноста во вештачката интелигенција се однесува на збир на правила, процеси и алатки што обезбедуваат системите за ВИ да работат во согласност со утврдените закони и етички принципи. Ова вклучува обезбедување заштита на личните податоци, транспарентност на алгоритмите, недискриминација и отчетност.
Со оглед на растечката употреба на вештачка интелигенција во критични сектори како што се здравството, правдата и безбедноста, од суштинско значење е да се имаат механизми за следење на нејзиното правилно функционирање. Овие контроли може да вклучуваат ревизии, проценки на влијанието, сертификати или обврска за објаснување на автоматизираните одлуки.
Кога овие правила се прекршени, мора да има јасни правни последици, како што се санкции, граѓанска одговорност, па дури и кривична одговорност. Ова не само што ги штити граѓаните, туку и промовира одговорен технолошки развој.
Регулирањето и следењето на усогласеноста во областа на вештачката интелигенција е од суштинско значење за спречување на злоупотреба, заштита на основните права и поттикнување на довербата во овие алатки кои се сè поприсутни во нашите животи.
Моментална состојба на вештачката интелигенција во Македонија
Во моментов, Македонија нема специфично законодавство за вештачка интелигенција, што ја остава зад некои соседни земји кои веќе имаат имплементирано упатства или закони во оваа област. И покрај напорите иницирани во 2021 година од страна на Фондот за иновации и технолошки развој и владата за креирање Национална стратегија за вештачка интелигенција, напредокот е бавен поради предизвици како што се недостаток на податоци, човечки ресурси и технички способности. Предложениот закон за родова еднаквост претставува значаен чекор кон унапредување на родовата еднаквост во Македонија. Сепак, неговата успешна имплементација ќе зависи од континуиран и конструктивен дијалог меѓу сите засегнати страни, вклучувајќи го граѓанското општество, владините институции и верските заедници, за да се обезбеди почитување на правата на сите граѓани и промовирање на порамноправно и инклузивно општество.
Недостатокот на национална стратегија за вештачка интелигенција ги изложува граѓаните на потенцијални ризици, како што се кршење на човековите права, ширење на нееднаквостите и зголемена сајбер безбедност. Агенцијата за заштита на лични податоци на Македонија изрази загриженост во врска со лошото ракување со приватни податоци и предизвиците за приватноста својствени за употребата на вештачката интелигенција. Иако националното законодавство за заштита на податоците е усогласено со Општата регулатива на ЕУ за заштита на податоците , нејзиниот опсег се чини недоволен за заштита на приватноста во контекст на развојот и употребата на вештачката интелигенција.
Заклучок
Иако е постигнат значителен напредок во регулирањето на вештачката интелигенција во Европската Унија, од суштинско значење е да се продолжи со зајакнување на специфичните мерки за справување со родовата еднаквост и спречување на алгоритамската дискриминација. Ефикасното спроведување на проценки на влијанието врз родот, промовирањето на различноста во тимовите за развој и користењето репрезентативни податоци се основни чекори за да се обезбеди дека вештачката интелигенција ќе им користи на сите луѓе подеднакво.
За да се осигура дека вештачката интелигенција нема да ги репродуцира или зајакне нееднаквостите, од суштинско значење е да се создаде робусна законска рамка што ја интегрира родовата еднаквост како водечки принцип. Регулативата не треба да се фокусира само на безбедноста или иновациите, туку и на социјалната правда и еднаквост.
Интеграцијата на вештачката интелигенција во нашите општества бара не само технолошки напредок, туку и етичка и правна посветеност на човековите права. Заштитата на еднаквоста меѓу жените и мажите во дигиталниот свет е колективна одговорност што мора да ја превземат државата, бизнисите и општеството како целина.
Библиографија
Референции од проф. Боби Бадаревски
The EU AI act
EU AI Act: Prohibited AI Ban and AI Literacy Rules Now in Force—Commission Unveils Key Guidelines
EU AI Act: First Rules Take Effect on Prohibited AI Systems and AI Literacy
Exploring Gender Dimensions in High-Risk AI Systems: Moving Towards a Gender Impact Assessment within the EU AI Act
Hoja de ruta de la UE sobre los derechos de la mujer: un nuevo impulso a la igualdad de género
Convention on AI and human rights
Council of Europe Convention on Artificial Intelligence
AI Action Summit 2025 – Gender and AI – a Council of Europe perspective – 10 February 2025
Council of Europe Convention on Artificial Intelligence
Convention on AI and human rightsж Global AI Regulatory
ПРЕДЛОГ ЗАКОН ЗА РОДОВА ЕДНАКВОСТ
РАБОТИЛНИЦA НА ТЕМА „ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА И ДИГИТАЛИЗАЦИЈА НА ПРАВОСУДСТВОТО“