Автор Андреј Стојов
Вовед
Во современиот дигитален свет, каде технологијата сè повеќе се спојува во секојдневните аспекти на живеење и работа, јавната администрација не е исклучок. Од системи за електронска управа, преку автоматизирано донесување одлуки, до вештачка интелигенција што помага во распределба на ресурси, алгоритмите се основен елемент за функционирање на многу институции. Целта е да се подобри ефикасноста, брзината и транспарентноста на јавните услуги. Но, овие технологии, кои често се мислат за објективни и неутрални, можат да носат скриени предрасуди кои влијаат врз различни групи луѓе, особено врз жените и малцинствата.
Се поголем број на истражувања покажуваат дека алгоритмите во поседните години можат да ги продлабочат родовите нееднаквости во општеството. Ова се случува поради тоа што алгоритмите учат од историски податоци, кои често содржат пристрасности базирани на пол, социјален статус, етничка припадност и други фактори. Додека дигитализацијата во јавната администрација носи бројни придобивки, како што се побрза и поефикасна услуга, нејзината имплементација без длабока родова анализа може да резултира со незаслужено дискриминирање и исклучување на одредени групи.
Конечно, со оглед на тоа дека родовата еднаквост е основно човеково право, а дигитализацијата е дел од модерниот општествен развој, интеграцијата на овие две области претставува предизвик и можност за создавање фер и одржлив систем кој ќе ги почитува правата и достоинството на сите граѓани, без разлика на нивниот пол или род.
1. Алгоритмите во јавната администрација
1.1 Дигитализација на јавните услуги
Дигитализацијата на јавните услуги претставува една од клучните трансформации во современата јавна администрација. Преку воведување на информациски технологии и автоматизирани системи, институциите се обидуваат да ги направат услугите поефикасни, поедноставни и достапни за граѓаните. Ова вклучува електронско поднесување барања, автоматска обработка на документи, дигитални регистри и системи за управување со податоци.
Алгоритмите се основен дел од овие системи, бидејќи тие ја обработуваат големата количина на податоци и ја донесуваат одлуката или ја помагаат административната постапка. На пример, во системите за социјална помош, алгоритмите автоматски анализираат апликации, пресметуваат право на бенефиции и помагаат во приоретизирањето на апликантите. Во здравството, тие помагаат во тријажа на пациенти и препораки за третман. Во јавната безбедност, алгоритмите се користат за идентификување на потенцијални ризици или криминални активности.
Меѓутоа, дигитализацијата носи и предизвици, како што се заштитата на личните податоци, безбедноста на системите и прашањата за транспарентноста во процесот на донесување одлуки. Овие предизвици се уште позначајни кога се разгледува родовата еднаквост, бидејќи недостатокот на родова сензитивност во дизајнот во алгоритмите може да резултира во неповолни последици за жените и малцинствата.
1.2 Автоматско донесување одлуки
Автоматското донесување одлуки претставува процес кога одлуките се донесуваат целосно од алгоритамот или помагаат во донесување на одлуки на луѓето. Првиот пристап овозможува побрза и понекогаш пообјективна обработка на податоци, што е особено важно во јавниот сектор каде има голем обем на барања и информации.
Меѓутоа, додека овие системи можат да ја зголемат ефикасноста, тие исто така можат да доведат до ситуација каде засегнатите лица немаат увид во тоа како е донесена одлуката, што ја намалува можноста за жалба и правна заштита. Покрај тоа, системите за автоматско донесување одлуки често се развиваат без доволна транспарентност и соодветна етичка рамка, што овозможува појава на дискриминација.
2. Како алгоритмите можат да создадат родова дискриминација
2.1 Податоци со наклонетост
Еден од најголемите извори на родова дискриминација во алгоритмите е наклонетостта во податоците на кои тие се обучуваат. Алгоритмите функционираат врз база на историски податоци, кои често содржат системски предрасуди и нееднаквости. На пример, ако податоците покажуваат дека жените почесто се наоѓаат во неплатени или делумно платени улоги, или ако имаат повисока стапка на породилно отсуство, алгоритмите може да ги толкуваат овие факти како ризик за непредвидливо однесување или помала продуктивност.
Ова доведува до појава на „репродуцирана“ дискриминација каде алгоритмите, без намера, засилуваат постојните нееднаквости. Во пракса, ова може да значи дека жени ќе бидат пониско рангирани при селекција за работа, помалку ќе добиваат субвенции или ќе имаат потешкотии во пристапот до јавни услуги.
2.2 Неправедни критериуми за селекција
Често се случува критериуми кои на прв поглед изгледаат неутрални да имаат непропорционално влијание врз одредени родови групи. Пример за ова е користењето на континуитет во вработувањето како клучен фактор за доделување на субвенции или преференции. Жените, поради породилно отсуство или задолженостите поврзани со грижа за децата, често имаат прекини во кариерата, што ги дисквалификува од ваквите системи.
Исто така, системите што ги користат податоците за приходите на домаќинствата може индиректно да дискриминираат жени кои се економски зависни од партнерите, или кои работат во неформален сектор. Така, родовата динамика не се зема доволно предвид, што резултира со нефер третман.
2.3 Родови стереотипи вградени во алгоритмите
Алгоритмите често вградени несвесно ги пренесуваат родовите стереотипи кои се дел од општеството. Во безбедносните системи за предиктивна анализа, жените можат да бидат игнорирани како потенцијални жртви или закани, бидејќи тие системи најчесто се фокусираат на мажи во одредени демографски групи.
Ова може да доведе до ситуација каде насилството врз жените, сексуалното вознемирување и други родово базирани кривични дела не се препознаваат доволно или не се третираат со приоритет. Во образовните и социјалните системи, стереотипите можат да влијаат врз проценката на потребите и потенцијалот на жените, ограничувајќи ги нивните можности.
3. Примери од вакви системи
3.1 Случајот на Холандија – SyRI
Системот SyRI беше развиен како алатка за детекција на социјални измами преку анализа на големи бази на податоци од различни јавни извори. Целта беше да се идентификуваат лица кои потенцијално можат да злоупотребуваат социјални бенефиции. Меѓутоа, оваа технологија се покажа како контроверзна поради тоа што преку неа се таргетираа граѓани како самохрани мајки, имигранти и нископлатени работници.
Системот предизвика значителни критики и јавни дебати бидејќи недоволно ги земаше предвид социо-економските и родовите фактори. Иако SyRI не беше директно родово пристрасен, индиректно создаде нееднаквости бидејќи категориите кои ги опфаќаше беа во голема мера поврзани со жените, особено самохраните мајки кои се економски ранливи.
3.2 Алгоритми во системи за социјална помош во Велика Британија
Во Велика Британија, системите за автоматизирана проценка на ризик во доделувањето на социјална помош покажаа проблеми со пристрасност кон жените, особено самохраните мајки. Алгоритмите ги рангираа овие жени како повисок ризик за измама, што резултираше во одземање или ограничување на бенефициите без доволна валидна причина.
Ова имаше сериозни последици за овие жени, кои веќе се наоѓаат во ранливи социјални и економски услови.
3.3 „Тихи“ пристрасности во локалните администрации во Источна Европа
Во некои локални самоуправи во Источна Европа, алгоритмите се користат за распределба на јавни ресурси и услуги, како на пример субвенции, социјални помошни програми и приоритети во инфраструктурни проекти. Меѓутоа, овие системи ретко ја земаат предвид родовата димензија, што доведува до тоа жените, особено во руралните и помалку развиени области, да имаат ограничен пристап до клучни услуги.
Оваа „тиха“ пристрасност се јавува бидејќи родовите фактори не се вклучени како посебен критериум при дефинирање на алгоритамските параметри. Жените во овие средини честопати имаат посебни потреби поврзани со грижа за семејството, здравје и образование, кои не се земаат предвид, што ги прави нивните шанси за добивање поддршка пониски.
3.4 Примери од здравствениот сектор
Во здравствениот систем, алгоритмите се сè почесто користат за тријажа, дијагноза и препораки за лекување. Меѓутоа, истражувањата покажуваат дека симптомите на одредени болести кај жени се почесто потценети, што резултира во недоволна дијагностика и третман.
На пример, во кардиологијата, жените почесто имаат различни симптоми на срцеви заболувања отколку мажите, но алгоритмите кои се обучени на бази на податоци каде доминираат мажи. Ова доведува до тоа жените да добијат подоцна дијагноза и помалку ефикасно лекување, што може да има сериозни последици врз нивното здравје и понатамошен живот.
4. Последици од алгоритамска дискриминација
4.1 Недоверба во институциите
Една од најзначајните последици од дискриминаторските алгоритми е намалената доверба на граѓаните во јавните институции. Кога луѓето, а особено жените кои се жртви на пристрасни одлуки, тие може да почувствуваат дека системот е неправеден или дека не постои начин да ја сменат одлуката. Така тие ја губат надежта во целиот систем.
Недовербата води до намалено учество во јавните услуги, намалена соработка со институциите и општа скептичност кон дигитализацијата и новите технологии. Во случај на жени, ова може дополнително да ги изолира и исклучи од системите за поддршка.
4.2 Продлабочување на нееднаквоста
Алгоритмите кои функционираат врз основа на пристрасни податоци и критериуми ја продлабочуваат родовата нееднаквост. Ова се случува бидејќи одлуките донесени од такви системи директно влијаат врз пристапот до работни места, здравствени услуги и социјална помош на жени или малцинства. Ако алгоритамски систем ги дискриминира жените во процесот на вработување или им одбива бенефиции поради породилно отсуство, тоа ја продолжува системската нееднаквост и ја намалува економската независност на жените. Така, наместо да ги намали нееднаквостите, технологијата може да ги репродуцира и засили.
4.3 Ограничување на правата и слободите
Автоматизираните одлуки често се непрегледни и тешко е да се оспорат. Кога системите немаат механизми за транспарентност и жалба, жените и другите ранливи групи се соочуваат со ограничување на своите права и слободи.
Ова особено важи за случаи каде што одлуките за доделување на социјални бенефиции, пристап до здравствена заштита или правна заштита се донесуваат без човечка интервенција. Недостигот на објаснување и пристап до информации ја отежнуваат борбата против дискриминацијата.
4.4 Социјална маргинализација
Дискриминацијата во алгоритмите може да резултира и во социјална маргинализација на жените. Кога алгоритмите го ограничуваат пристапот до услуги, ресурси или можности, тоа влијае на општиот квалитет на живот, како и на општественото учество на жените.
Ова особено се одразува во ранливите категории, како што се жените во руралните области, жените со ниско образование или жртви на родово базирано насилство. Тие се соочуваат со дополнителни пречки кои ги ограничуваат нивните можности за развој и интеграција.
4.5 Етички и правни дилеми
Имплементацијата на дискриминаторски алгоритми отвора и сериозни етички и правни дилеми. Дали е прифатливо да се препушти донесувањето на одлуки на системи кои не можат целосно да ја разберат сложеноста на родовите прашања? Како може да се обезбеди правична постапка кога одлуките се донесуваат автоматски?
Овие дилеми бараат внимателен пристап, вклучително и јасни регулативи, стандардизација на тестирањето за пристрасност, и воспоставување на механизми за отчетност и одговорност.
5. Решенија
5.1 Транспарентност
Една од клучните мерки за справување со алгоритамската дискриминација е зголемување на транспарентноста во процесите на донесување одлуки. Јавните институции треба да обезбедат пристап до јасни информации за тоа како функционираат алгоритмите, кои податоци ги користат и кои критериуми ги земаат предвид.
Објаснивоста е важен аспект кој овозможува граѓаните да разберат зошто одлука е донесена и да имаат можност за жалба или корекција. Транспарентните системи ја зајакнуваат довербата и овозможуваат рано откривање на пристрасности или грешки.
5.2 Родова анализа на алгоритми
Пред воведување на нов алгоритам во јавната администрација, мора да се направи детална родова анализа. Овој процес треба да ги вклучи професионалци за родова еднаквост, социјални научници и програмери, кои ќе ја тестираат технологијата за потенцијални негативни ефекти врз различните родови групи.
Таквата анализа може да вклучува симулации со различни на податоци, проверки за пристрасност и моделирање на сценарија што ги земаат предвид особеностите на жените, како што се породилно отсуство, нередовни работни часови или родово базирано насилство.
5.3 Вклучување на жени во развојот на алгоритми
Диверзитетот во тимовите што креираат алгоритми е од суштинско значење за намалување на пристрасностите. Вклучувањето на жени, особено со искуство во јавни политики, социјална правда и родова еднаквост, ја зголемува веројатноста дека системите ќе бидат попристрасни и поинклузивни.
Активното учество на жени во сите фази од развојот,од дизајн до тестирање и имплементација создава алгоритми кои подобро ја одразуваат реалноста и се поосетливи на различните потреби и искуства.
5.4 Независен надзор и ревизија
За да се осигура одговорноста, потребно е да се воспостават независни тела за надзор кои ќе вршат редовни ревизии на алгоритмите користени во јавната администрација. Овие тела треба да имаат пристап до кодот, податоците и одлуките кои ги носат системите.
Ревизиите ќе идентификуваат проблематични пристрасности, ќе препорачуваат корекции и ќе следат дали се спроведуваат препораките. Ова го зајакнува системот и го намалува ризикот од дискриминација.
5.5 Образование и дигитална писменост
Дигиталната писменост и образованието во јавниот сектор и кај граѓаните се клучни за ефективна контрола и користење на алгоритмите. Јавните службеници треба да се едуцираат за принципите на правична употреба на алгоритми, препознавање на пристрасности и заштита на човековите права.
Исто така, граѓаните треба да имаат основно знаење за тоа како функционираат алгоритмите, кои се можните ризици и начини за заштита од дискриминација. Ова ќе им овозможи поголема автономија и ќе ја зајакне демократската контрола врз дигиталните технологии.
Заклучок
Алгоритмите се се почесто дел од јавната администрација и претставуваат значајна алатка за автоматизирање и унапредување на јавните услуги. Меѓутоа, нивната моќ може да се претвори во сериозен проблем ако се игнорираат социјалните и родовите контексти во кои се користат. Без внимателен дизајн, имплементација и контрола, алгоритмите можат да рефлектираат и да ја зголемат родовата дискриминација.
Затоа, јавните институции носат огромна одговорност за дигиталната трансформација да е не само технолошки напредок, туку и чекор напред во остварувањето на правичноста и еднаквоста. Ова значи воведување на принципи на транспарентност, родова анализа, вклучување на различни гласови во развојот на технологиите, како и воспоставување на механизми за надзор и едукација.
Понатаму, треба да се поттикне свеста за тоа дека дигиталните системи не се неутрални, туку дека се продукт на луѓето кои ги креираат и податоците што ги користат. Само преку соработка и инклузивност можеме да изградиме системи кои ќе работат за сите, без исклучоци и предрасуди.
Во денешно време, кога технологијата станува сè поважна, важно е да се создадат правила што ќе помогнат да се балансираат новите иновации со заштитата на човековите права и родовата еднаквост. На тој начин, јавната администрација може да покаже како се користат дигиталните технологии на праведен и одговорен начин, што ќе помогне да се изгради пофер, посоцијално и подемократско општество.
Библиографија
1. https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73
2. https://www.opengovpartnership.org/wp-content/uploads/2021/08/algorithmic-accountability-public-sector.pdf
3. https://genderpolicyreport.umn.edu/algorithmic-bias-in-job-hiring/