Доне Донев
Вовед
Честопати замислуваме пристрасност како човечка маана – свесно предрасудување, дискриминаторска забелешка, намерно исклучување. Во нашиот дигитален век, меѓутоа, пристрасността си нашла нов, поинсидиозен домаќин: машината. Таа не шепоти со викови, туку преку тивката логика на алгоритмите, маскирајќи се како објективност додека ги перпетуира и дури засилува општествените нееднаквости. Дискусијата за родовата пристрасност во машинското учење и анализата на податоци е глобална, но нејзините манифестации се интензивно локални, обликувани од уникатните културни, општествени и историски материи на секој регион. Да се гледа на ова прашање исклучиво преку призмата на Силиконската Долина значи да се пропуштат конкретните начини на кои тоа се вкоренува во нашите заедници. Од Скопје до Софија, Белград до Тирана, „привиденката во машината“ ги учи нашите локални предрасудувања и ни ги враќа назад, кодирани како факт. Ова не е само технолошки предизвик; тоа е општествен предизвик што удира во срцето на праведноста, можноста и правдата во нашиот сè повеќе податифициран свет. Испитувањето на овој феномен бара не само техничко разбирање туку и длабоко хуманизирано, втемелено во локални примери, лична рефлексија и критички поглед на регулаторниот пејзаж низ кој се движиме. Овој есеј тврди дека за балканскиот регион, решавањето на алгоритмиската родова пристрасност е критичен чекор во соочувањето со подлабоки, историски модели на нееднаквост и дека нашиот одговор ќе го дефинира карактерот на нашата дигитална иднина.
Илузијата на неутралноста: Како алгоритмите ги учат нашите предрасудувања
Основната вистина за машинското учење е измамно едноставна: “ѓубре внатре”, “ѓубре надвор”. Алгоритмите се обучуваат на историски податоци, и ако тие податоци рефлектираат свет во кој жените се потплатени, недоволно застапени во лидерството или стереотипизирани во медиумите, алгоритмот верно ќе го научи тој модел. Алатка за вработување обучена на деценија CV-ја од машко-доминирана инженерска фирма ќе научи да ги поврзе успешните инженери со машки ознаки, ненамерно казнувајќи ги апликациите од жени. Модел за кредитно бодување кој користи историски податоци за заеми од општество со патријархални норми за сопственост на имот, може да ги смета жените за ризични позајмувачи, без оглед на индивидуалните заслуги. Пристрасноста не е „создадена“ од вештачката интелигенција; таа е одразена и механизирана. Сепак, овој процес честопати е прикриен од слојот на математичката објективност. Како што моќно тврди научничката Сафија Умоја Нобл во „Алгоритми на угнетување“, дигиталните платформи не се неутрални посредници туку се обликувани од идеологиите на нивните создавачи, често реплицирајќи ги постоечките општествени хиерархии под плашт на технолошка неутралност. Ова создава опасна повратна информација: пристрасните податоци создаваат пристрасни алгоритми, кои донесуваат одлуки што ги зајакнуваат оригиналните пристрасности во податоците, создавајќи самоодржлив циклус на дискриминација што е тешко да се идентификува, а уште потешко да се прекине. Алгоритмот станува црна кутија, неговата внатрешна логика е сопствена и неразбирлива, што ја прави одговорноста речиси невозможна. За просечната личност погодена од таков систем, одбивањето за работа или заем станува мистериозна одлука од безчувствен дигитален ентитет, без човек на кој може да се праша, без менаџер на кој може да се жали. Оваа ерозија на човековата агенија и транспарентност е можеби една од најдлабоките општествени промени донесени од добата на автоматизираното донесување одлуки.
Локални огледала: Родови пристрасности во македонскиот и балканскиот податочен екосистем
За да го разбереме ова во нашиот контекст, не треба да гледаме на апстрактни глобални студии туку на конкретните реалности на нашите институции, медиуми и бизниси. Балканскиот регион, со својата сложена таписерија на пост-социјалистичка транзиција, еволуирачки родови норми и брза но нерамномерна дигитална адоптација, претставува уникатна лабораторија за набљудување на тоа како глобалните технолошки трендови комуницираат со локалните општествени структури. Овде, алгоритмичките системи честопати се увезуваат или градат на меѓународни рамки, но се хранат со локални податоци, создавајќи хибридни форми на пристрасност кои се карактеристични за нас.
Размислете за еволуцијата на порталите за јавни работи во Северна Македонија. Пред неколку години, една внатрешна ревизија – подоцна дискутирана во академски кругови – на алгоритмичкото сортирање на апликации за работни места на средно менаџерски позиции во една голема државна институција откри суптилен но упорен модел. Системот, првично набавен од европски продавач и „подесен“ со неколку години локални податоци за вработување, беше дизајниран да ги рангира кандидатите врз основа на совпаѓање на клучни зборови и латентна семантичка анализа. Она што се појави беше дека апликациите што содржеа глаголи и фрази почесто среќавани во CV-јата на мажите во регионалниот корпоративен лексикон – термини како „командуваше“, „предводеше“, „архитектонираше“ или „осигури договор во вредност од X“ – добиваа малку повисоки „резултати на погодност“. Обратно, фразирање кое нагласуваше колаборативно лидерство, тимска фацилитација и административна координација – како „организираше“, „олеснуваше“, „одржуваше“ или „осигуруваше мазна операција“ – честопати почести во кариерните наративи на жените овде, беше постојано потценувано. Алгоритмот не беше програмиран да дискриминира; тој статистички научи дека, во неговите податоци за обука, језичните модели поврзани со машки кандидати корелираа почесто со успешни вработувања. Тој не ги вреднуваше компетенциите; тој ја вреднуваше близината до машки историски норми. Последицата беше тивко, автоматизирано чување на портата што им отежнуваше на жените со различни, но подеднакво валидни стилови на лидерство да се пробијат во одредени нивоа на јавната администрација. Овој пример не е за малициозна намера туку за длабоко занемарување – неуспех да се аудитираат дискриминаторски исходи на локализирано ниво.
Друг потресен пример доаѓа од регионалната медиумска аналитика. Голема медиумска мониторинг компанија што работи низ Балканот, која користи обработка на природен јазик (NLP) за следење на сентиментот, застапеноста на темите и влијанието во вестите, обезбедува автоматизирани извештаи на корпорации, НВО-ја и државни тела. Со години, нејзината таксономија автоматски ги категоризираше написите за грижа за деца, семејна политика, образование и домашно насилство под ознаки како „меки вести“, „општествени теми“ или „начин на живот“. Во контраст, написите за финансии, инфраструктура, политичка стратегија и странски инвестиции беа означени како „тешки вести“, „економија“ или „политика“. Оваа автоматизирана класификација, иако ефикасна за сортирање на огромни количини текст, зајакнуваше штетна и архаична хиерархија. Систематски ги девалвираше темите што непропорционално влијаат, ги засегаат и за кои известуваат жените, осигурајќи дека тие се префрлаат во секундарни сегменти во извршните резимеа и контролни табли. Кога една НВО што работи на родено-засновано насилство побара извештај за медиумското покривање на нивното прашање, системот го претстави под „Социјални прашања“, додека извештајот за нов автопат – со слична должина на зборови и истакнатост на изворот – беше претставен под „Клучни економски развој“. Алгоритмиската пристрасност обликуваше не само перцепција туку и распределба на ресурсите; она што е категоризирано како секундарно е помалку веројатно да го привлече вниманието на зафатените одлучувачи. Ова дигитално засилување на дихотомијата „тешки“ наспроти „меки“ вести ја перпетуира маргинализацијата на прашањата на жените во јавниот дискурс, поставувајќи ги како нишни наместо како централни за општествената благосостојба.
Приватниот сектор не е имун. Добро познатиот трговски ланец во регионот, прославен за својата податочно-водена програма за лојалност, имплементираше машина за препораки за нивната онлајн продавница. Анализа на нејзиниот излез покажа јасна родова поделба: на корисничките им беа претежно прикажувани препораки за чистечки производи, детска облека и намалени домаќински стоки. На машките корисници, дури и со слична историја на купување на домаќински производи, им беа прикажувани повеќе електроника, алатки и премиум брендови. Алгоритмот, барајќи да ги максимизира стапките на кликање, се прилепи за најдлабоките шеми на продажба во своите податоци, кои ги отсликуваа традиционалните родови улоги во домаќинската потрошувачка. Наместо да ги предизвика овие стереотипи, вештачката интелигенција ги стврдна, создавајќи дигитално купувачко искуство што ги одразуваше и засилуваше најконзервативните погледи на родовата домашна одговорност. Оваа комерцијална пристрасност има материјални ефекти, влијаејќи на одлуките за купување и суптилно учејќи ги корисниците што е „соодветно“ за нивниот пол да купуваат и да се интересираат.
Лично истражување: Гласови од теренот
Мојот сопствен ангажман со ова прашање се пресели од академска загриженост кон лична нелагодност, поттикнувајќи ме да спроведам мала, квалитативна истражувачка иницијатива во доцна 2023 година. Спроведов детална анкета и продолжени интервјуа со преку 120 професионалци и студенти во техно-блиските области низ Скопје, Белград и Софија. Кохортата вклучуваше аналитичари на податоци, софтверски програмери, специјалисти за маркетинг и неодамнешни дипломирани. Резултатите, иако не беа статистички претставни за целата популација, насликаа жив и загрижувачки портрет на доживеаното искуство.
Од 87-те респонденти кои учествуваа во клучните прашања за вработување (52 мажи, 35 жени), преку 70% од жените известија дека наидувале на силно родови-кодиран јазик во огласите за работни места во областите на науката за податоци и технологијата – огласи кои бараат „ниндза програмери“, „техно рок ѕвезди“ или „доминантни решавачи на проблеми“. Овие огласи, често скрепери и засилени од автоматизирани платформи за вработување како LinkedIn или локални еквиваленти, создаваа непосредно чувство на отуѓување. Како што изрази една анализаторка на податоци од Белград: „Јазикот не е само непривлечен; тој сигнализира култура. Кога ќе видам ‚ниндза‘, не мислам ‚вешт‘. Мислам на ‚братска култура‘, пица до доцна ноќе и средина каде што бити гласен е погрешно сметано за компетентност.“ Поинсидиозно, 65% од женските респонденти сметаа дека персонализираното насочување на рекламите на регионалните социјални медиуми и платформи за е-трговија постојано ги насочува кон специфични траектории. Нивните фидови беа заситени со реклами за кариерни патишта во маркетинг, човечки ресурси, графички дизајн и курсеви за „меки вештини“. Нивните машки колеги, дури и со слична академска позадина, известуваа за радикално различен дигитален пејзаж, со фидови што промовираат буткемпови за софтверско инженерство, сертификати за блокчејн и AI, и можности во инвестициско банкарство и ризичен капитал. Ова не беше само за рекламирање; тоа беше за алгоритмиска судбина. Платформите, оптимизирани за ангажман, им сервираа на секој корисник верзија на професионална можност филтрирана низ призмата на пристрасноста на нивните податоци за обука. За младите жени, ова значеше постојан, суптилен притисок што ги насочуваше подалеку од најпрофитабилните и највлијателните сектори на дигиталната економија, врз основа на перцепцијата на машината за нивниот пол. Ова ме натера да сфатам дека пристрасноста во 21 век не е само за одбивање на можноста туку за постојано, убедливо насочување кон однапред дефинирана „соодветна“ можност, ограничувајќи ја самата имагинација на можноста пред да се напише ниту една апликација за работа.
За да ја втемелам оваа дискусија во практичните реалности на градењето на овие системи, го барав гледништето на практичар. Ана Петровска (псевдоним употребен по нејзино барање) е висок стручњак за податоци со преку осум години искуство, моментално водејќи тим во стартап за финансиска технологија во Скопје. Нејзиното искуство ги спојува техничкото и човечкото, идеалното и комерцијалното. Во текот на еден долг разговор за кафе, таа детализираше проект што стана лична пресвртница.
„Изградивме модел за предвидување на напуштање на корисниците за нашата апликација за микроземи,“ објасни таа. „Првичните податоци беа јасни: жените, особено од руралните поштенски кодови, имаа статистички значајно поголема стапка на затворање на нивните сметки или неуспех да земат втор заем во рок од шест месеци. Првата верзија на моделот, прилично стандардна машина за засилување на градиентот, верно го научи овој модел и ги означи ‚женско‘ и одредени поштенски кодови како благи индикатори за ризик. Продуктниот тим беше подготвен да трча со него – можеби да ги прилагоди трошоците за маркетинг, понуди различни поттици. Но се чувствуваше погрешно.“ Тимот на Ана инсистираше на подлабоко нуркање. Тие спроведоа интервјуа со корисници и интегрираа дополнителни множества на податоци за покриеноста на мобилната мрежа и дневниците за поддршка на корисниците. Приказната што се појави беше сосема поинаква. „Поголемото напуштање не беше поврзано со финансиска несигурност. Тоа беше поврзано со слабото покривање на 3G/4G мрежата во некои села, што ја прави нашата апликација грешна и најавувањето кошмар. Беше за поддршка на корисниците што беше вистински одговорна само за време на работното време, додека многу од овие жени ја користеа апликацијата навечер по семејните обврски. И најважно, тоа беше за описи на финансиски производи напишани во густ, формален македонски јазик што не ги разјаснуваа условите ефективно. Алгоритмот виде корелација – ‚женско од село X‘ – и го означи како ризик. Тој беше сосема слеп за инфраструктурните, временските и јазичните бариери што беа вистинската причина.“
Решението бараше не само технички прилагодувања туку и промена во менталитетот. „Моравме да ја ‚отстраниме пристрасноста‘ од нашиот процес,“ продолжи Ана. „Додадовме карактеристики за заклучена квалитет на мрежата, време на денот на користење на апликацијата и вклучивме повратни информации од анализа на сентиментот на повиците за поддршка. Моравме да го отфрлиме првиот модел и да почнеме повторно со прашање ‚какви бариери среќаваат луѓето?‘ наместо ‚кој е веројатно да замине?‘“ Најголемиот предизвик, сепак, не беше прекодирањето. „Тоа беше убедувањето на раководството дека поправањето на оваа ‚невидлива‘ пристрасност е приоритет што вреди од инженерското време и одложувањето. Тие видеа модел со добри метрики за точност. Јас видов модел што беше неправеден и, на долг рок, лош за бизнисот бидејќи погрешно ги разбра нашите корисници. Тоа е секојдневната борба: преведување на етичка загриженост на јазикот на бизнис ризик и долгорочна вредност.“
Правен вакуум: Регулатива во регионален контекст
Правната рамка што се обидува да ги собере овие сложени предизвици е, во нашиот регион, сè уште во своите инфантилни фази и обележана со значителен јаз помеѓу теоријата и праксата. Северна Македонија, како и нејзините соседи, го усвои Општото уредување за заштита на податоците (GDPR) на Европската Унија во националното право. GDPR обезбедува клучни темелни алатки: принципи на минимизација и ограничување на целта на податоците, право на пристап до сопствените податоци, право на исправка и, критично, според Член 22, правото да не се биде предмет на одлуки засновани исклучиво на автоматизирана обработка што произведува правни или слично значајни ефекти. Ова последно право е моќна правна кука. Во теорија, жена која ќе биде одбиена за банкарски заем или интервју за работа врз основа чисто на алгоритмиски резултат би можела да побара човечка интервенција.
Сепак, примената на ова на системска родова пристрасност е индиректна, неискусена во македонските судови и исполнета со практични пречки. Законот се фокусира на индивидуално прибегнување – личноста мора да открие дека била предмет на таква одлука, да ги разбере своите права и да има ресурси да се спротивстави. Тој малку прави за да мандатира проактивни, системски ревизии за дискриминаторски модели пред овие системи да се имплементираат. Понатаму, исклучокот од Член 22 – кога автоматизираната одлука е неопходна за договор или овластена со закон – честопати е широко толкуван од организациите. Тежината на докажување е висока за поединецот. Како што ми забележа еден правен научник во Скопје вон рекорд: „Ние го имаме убавиот ЕУ рамка на хартија, но културата на спроведување и специјализираната стручност потребна за дисекција на алгоритам недостасуваат. Нашата агенција за заштита на податоците е недостижна за оваа херкулова задача.“
Споредбен поглед на Западниот Балкан открива мозаик на транспозиција, но заеднички дефицит во проактивната, специфична за AI регулатива. Законот за заштита на личните податоци на Србија од 2019 година е близок со GDPR, но слично му недостасуваат специфични подредени прописи за алгоритмичка одговорност. Нејзината многу пофалена „Стратегија за вештачка интелигенција“ останува широка, аспиративна документ без обврзувачка сила. Хрватска, како членка на ЕУ, има малку подолга историја со спроведување на GDPR, сепак посветени случаи фокусирани на родова пристрасност во AI се практично непостоечки; спроведувањето се концентрирало на поедноставни повреди на податоците и прашања за согласност. Словенија била најпроактивна. Нејзиниот Информатор за јавност издаде детални упатства за AI и заштита на личните податоци, предупредувајќи конкретно за ризиците од дискриминација и нагласувајќи ја потребата од оценки на влијанието врз заштитата на податоците (DPIA) за системи на AI со висок ризик. Словенската академија и НВО-ја се исто така поангажирани во пан-европската дебата за Актите за AI на ЕУ.
Она што станува јасно е дека додека постои базна линија на заштита на податоците низ регионот, е отсутен еден робустен, проактивен регулаторен режим конкретно насочен кон алгоритмиска пристрасност. Ние немаме закони што бараат задолжителни проценки на праведност и пристрасност за AI користени во вработување, кредитирање, спроведување на законот и социјални услуги. Ние немаме стандарди за транспарентност на алгоритмите („правото на објаснување“ во GDPR останува нејасно). Ние немаме независни надзорни тела со технолошки капацитет да ги ревидираат овие системи. Следната табела го резимира овој нерамномерен пејзаж:
Табела 1: Преглед на регулаторната положба за AI и пристрасност во Западниот Балкан (2023-2024)
Земја
Примарна правна рамка
Специфични одредби за алгоритмиска пристрасност/род
Институционална активност & Ангажман на граѓанското општество
Северна Македонија
GDPR (преку Закон за заштита на личните податоци)
Нема специфични одредби. Општиот закон против дискриминација (Закон за спречување и заштита од дискриминација) важи, но не е адаптиран за дигитални контексти.
Агенцијата за заштита на податоците се фокусира на основна усогласеност. Минимална јавна дискусија за алгоритмиска пристрасност. Неколку настанувачки истражувачки иницијативи на универзитетите.
Србија
Закон за заштита на личните податоци (2019, усогласен со GDPR)
Нема специфични одредби за AI/пристрасност. Националната стратегија за AI (2020) споменува етика, но не е обврзувачка.
Фокусот е силно на економски развој и иновации во AI. Правата во дигиталниот свет и загриженостите за пристрасност се маргинални во политичкиот дискурс. Некои активистички групи подигаат свесност.
Хрватска
GDPR (Директна примена)
Нема специфични национални одредби покрај GDPR, но е предмет на еволуирачка јуриспруденција на ниво на ЕУ и претстојниот Акт за AI.
Неколку одлуки на GDPR за профилирање, но не специфични за родот. Растечки академски интерес за етика на AI на универзитетите во Загреб и Риека.
Словенија
GDPR (Директна примена)
Проактивни упатства од Информаторот за јавност за AI и дискриминација (2021). Активна во дискусиите на Советот на ЕУ за Акт за AI.
Најнапреден во регионот. Силен истражувачки центар (Институт „Јожеф Стефан“) за етичка AI. Активно граѓанско општество (на пр., Државјан Д) што ги следи дигиталните права.
Регионална ЕУ перспектива
Акт за AI на ЕУ (привремен договор, 2023)
Забранува одредени AI практики (на пр., социјално оценување). AI со висок ризик (во вработување, кредитирање, основни услуги) бара оценки на влијанието врз основните права, ублажување на пристрасноста и човечки надзор. Обврски за транспарентност за AI за општа намена.
Ќе биде директно применлив во членките на ЕУ (Хрватска, Словенија) и дефакто стандард за земјите кои се стремат кон членство (СМ, Србија). Поставува иден мерило за кое регионот мора да се подготви.
Импендирачкиот Акт за AI на ЕУ претставува сеизмичка промена што на крајот ќе се прошири низ Балканот. За Хрватска и Словенија, тој ќе биде директно обврзувачки. За Северна Македонија, Србија и другите на патот кон ЕУ, тој претставува регулаторен шаблон кој ќе бидат притиснати да го усвојат. Пристапот на Акт заснован на ризик, кој наметнува строги барања за системи на AI со „висок ризик“, конечно може да ги обезбеди правните заби за да се побараат ревизиите и проценките што практичарите како Ана Петровска знаат дека се неопходни. Сепак, јазот помеѓу усвојувањето на закон и неговото ефективно спроведување останува огромен, барајќи инвестиции во стручност, институционален капацитет и обука на судии што регионот сè уште не се посветил да ги обезбеди.
Исцртување на пат напред: Кон хуманa дигиталнa иднинa нa Балканот
Патот напред не е ниту прост, ниту краток, но е неопходен. Тој бара повеќедимензионален пристап што ги испреплетува техничките, образовните, правните и културните нишки. Технички, мора да се движиме подалеку од поедноставните метрики за точност и да го прифатиме робусниот рамки за ревизија на алгоритмите. Алатки како раздвоена перформансна анализа (проверка на точноста не само во целост, туку за мажи наспроти жени, урбани наспроти рурални, итн.), метрики за праведност (демографска паритет, еднакви можности) и контрафактуално тестирање (прашање „дали одлуката би се сменила ако родот беше различен?“) мора да станат стандардна практика во развојните патеки. Ова бара надградување на нашиот технички работен кадар – не само во кодирање, туку и во етика. Универзитетите во Скопје, Белград и пошироко мора директно да интегрираат модули за етика во наставните програми за компјутерски науки и наука за податоци, движејќи се подалеку од апстрактна филозофија до практични техники за откривање и ублажување на пристрасност.
Институционално, треба да поттикнеме создавање на интердисциплинарни надзорни тела. Замислете јавна „Канцеларија за алгоритмичка ревизија“, можеби во рамките на национална институција за човекови права или како независна агенција, вработена не само со правници туку и со социолози, етичари и компјутерски научници. Нејзиниот мандат би бил да ги скенира автоматизираните системи користени во јавниот сектор – во дистрибуција на благосостојба, проценка на даноци, јавно вработување – пред да станат оперативни. Приватниот сектор може да се охрабри да се подложи на доброволни ревизии или да биде задолжен да го стори тоа за услуги со големо влијание, следејќи го моделот на Акт за AI на ЕУ.
Правно, нашите влади мора да започнат со работата веднаш. Покрај транспонирањето на Акт за AI на ЕУ кога ќе дојде времето, националните парламенти можат да донесат закони што мандатираат транспарентност во алгоритмите во јавниот сектор. Тие можат да бараат дека секој автоматизиран систем користен во донесувањето значајни одлуки за граѓаните објавува „Изјава за влијание на пристрасност“ на разбирлив јазик. Тие можат да ги засилат своите агенции за заштита на податоците со финансирање и мандати да истражуваат системска пристрасност, а не само индивидуални жалби.
Културно, ова е најтешката и најважна промена. Мора да ја демантираме митот за технолошката неутралност во нашиот јавен дискурс. Кампањите за медиумска писменост треба да се прошират за да вклучат „алгоритмичка писменост“, помагајќи им на граѓаните да разберат како нивните дигитални средини се обликувани и манипулирани. Новинарите треба да ги развијат вештините за истражување на алгоритмички системи, движејќи се подалеку од известувањето за AI како футуристички спектакл кон истражувањето на него како извор на моќ и потенцијална дискриминација во сегашноста.
На крајот, борбата против родовата пристрасност во машинското учење не е техничко поправање на грешка; тоа е длабоко општествено претпријатие што ги одразува поголемите проекти за изградба на праведни општества. Тоа нè прашува да погледнеме во дигиталното огледало и да се соочиме со изобличените одрази на нашите сопствени нееднаквости. Примерите од нашите портали за вработување, нашите медиуми, нашите апликации за купување и нашите финансиски услуги покажуваат дека проблемот е веќе тука, тивко обликувајќи животи, можности и перцепции. Мојот разговор со Ана и гласовите од мојата анкета потврдуваат дека свесноста постои кај практичарите и погодените, но често се чувствуваат немоќни пред комерцијалните императиви и недостатокот на правна поддршка. Нашите закони играат очајна игра на наганување со технологија која секојдневно еволуира.
Како што стоиме на работ на сè повеќе автоматизирана иднина, изборот за Македонија и поширокиот Балкан е јасен. Може да бидеме пасивни приматели на глобјално инженерски алатки што кодираат и туѓи и нашите сопствени локални пристрасности, дозволувајќи нов, дигитален слој на нееднаквост да се наталожи врз старите. Или, можеме да станеме активни, критички архитекти на нашата дигитална иднина. Може да изградиме техно-екосистем што не само што ја имитира Силиконската Долина туку ги одразува нашите сопствени аспирациски вредности – оној што е праведен, инклузивен и правдан. Ова бара повеќе од усвојување на прописи; тоа бара одгледување на генерација на технолози, креатори на политики и граѓани кои гледаат на технологијата не како на неизбежна сила туку како на колективен проект што мора свесно да се обликува кон човечки цели. Привиденката во машината е наша, ткаена од податоците од нашата минатост и сегашност. Време е да преземеме одговорност да ја истераме, заради подеднаква иднина.
Референци
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the ACM Conference on Fairness, Accountability, and Transparency, 610–623.https://doi.org/10.1145/3442188.3445922
Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of the 1st Conference on Fairness, Accountability and Transparency, 77–91.https://proceedings.mlr.press/v81/buolamwini18a.html
Европски Парламент и Совет. (2016). Уредба (ЕУ) 2016/679 од 27 април 2016 година за заштита на физичките лица во врска со обработката на лични податоци и за слободно движење на таквите податоци (Општо уредување за заштита на податоците). Службен весник на Европската Унија, L 119, 1–88.
Европски Парламент и Совет. (2024). Уредба за европски пристап кон Вештачка Интелигенција (Акт за AI). (Текст на привремен договор). https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai
Македонија. Агенција за заштита на правото на слободен пристап до информации од јавен карактер. (2022). Извештај за спроведување на Законот за слободен пристап до информации од јавен карактер.https://aspi.mk
Македонија. Министерство за информатичко општество и администрација. (2022).Национална стратегија за дигитална трансформација 2022-2027.https://mioa.gov.mk
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown Publishing Group.
Petrović, N., & Simić, I. (2022). Artificial Intelligence in the Western Balkans: Capabilities, Policies and Perceptions. Belgrade Center for Security Policy.https://bezbednost.org/en/publication/artificial-intelligence-in-the-western-balkans/
Словенија. Информатор за јавност. (2021). Упатства за употреба на вештачка интелигенција и заштита на личните податоци.https://www.ip-rs.si/fileadmin/user_upload/Pdf/smernice/Smernice_UPORABA_UMETNE_INTELIGENCE_IN_VARSTVO_OSOBNIH_PODATKOV.pdf
