Мила Видоеска
Вовед
Технологијата за препознавање лице стана неизоставен дел од современото општество, која се користи во безбедносните системи, платформите за социјални медиуми, за спроведување на законот, па дури и во деловните апликации. Овие системи, помогнати од вештачката интелигенција, се дизајнирани да анализираат и идентификуваат човечки лица со висока прецизност. Сепак, истражувањата покажаа дека овие технологии не се толку неутрални или непогрешливи како што изгледаат. Сè поголем број докази сугерираат дека препознавањето на лицето управувано со вештачка интелигенција покажува значителни родови и расни предрасуди, што доведува до загрижувачки етички и општествени импликации.
Една од најистакнатите фигури во откривањето на овие предрасуди е Џој Буоламвини, истражувач во Технолошкиот институт во Масачусетс (МИТ). Нејзината револуционерна студија, позната како Gender Shades, откри дека системите за препознавање лица од големите технолошки компании, вклучувајќи ги IBM, Microsoft и Face++, значително се мачеле во прецизното идентификување на жените и луѓето со боја. Студијата покажа дека иако овие системи имале стапка на грешка помала од 1% за бели мажи, тие погрешно ги класифицирале жените со потемна кожа со стапки дури до 34%.
Последиците од овие предрасуди се протегаат надвор од академските истражувања; тие имаат импликации во реалниот свет во различни сектори, особено во спроведувањето на законот, процесите на вработување и пристапот до основните услуги. Овој труд има за цел да го истражи прашањето за пристрасност за препознавање лице преку анализа на наодите од истражувањето на Џој Буоламвини. Со разбирање на корените на овие предрасуди и потенцијалните решенија за создавање поправедни системи за вештачка интелигенција, можеме да работиме кон
иднина каде технологијата ќе им служи на сите поединци подеднакво, без разлика на пол или етничка припадност.
Збор-два за технологијата за препознавање на лица
Технологијата за препознавање лице работи на начин што прави анализа на карактеристиките на лицето и ги споредува со складирана база на податоци за да се утврди идентитетот, во неколку клучни чекори. Системите за препознавање лица кои користат AI се потпираат на алгоритми за длабоко учење, особено конволуциони невронски мрежи (CNN), за мапирање и усогласување на карактеристиките на лицето со висока точност.
Овие технологии наоѓаат примена во голема мера во различни сектори, а некои од нив се:
• Безбедност и спроведување на законот – се користат на аеродроми, јавен надзор и во полиција за да се идентификуваат поединци;
• Социјални медиуми и технологија на потрошувачи – Facebook и Instagram користат препознавање на лица за означување фотографии, додека Face ID на Apple овозможува безбедна автентикација на уредот;
• Деловни процеси и процеси на вработување – некои компании имплементираат препознавање на лице при регрутирање работни места за да ги проценат изразите на лицето и однесувањето на кандидатите;
• Здравство и банкарство – биометриските системи за верификација користат препознавање на лицето за безбеден пристап до медицинските досиеја и финансиските услуги;
Резултати од истражувањето на Џој Буоламвини
Џој е компјутерски научник и дигитална активистка со потекло од Гана која пораснала во Америка, и како дипломиран студент на Медиумската лабораторија на Технолошкиот институт во Масачусетс (МИТ), спровела револуционерно истражување кое ги разоткрило расните и родовите предрасуди во широко користените системи за препознавање лица. Додека работела на нејзиниот магистерски проект со AI кој вклучувал следење на движењата на лицето во огледало, Буоламвини наишла на неочекуван проблем: софтверот за препознавање лице не успевал да го открие нејзиното лице освен ако не носела бела пластична маска. Оваа аномалија ја поттикнала да навлезе подлабоко во оваа тематика. Таа подоцна раскажала: „Во мојот случај, морав да носаммаска бидејќи моето голо лице не можеше да биде детектирано од софтверот за препознавање лице“.
Мотивирана од ова лично искуство, напишала студија, позната како Gender Shades, која се однесува на тестирање на комерцијални системи кои вклучувале модели за препознавање лице со AI од големите технолошки компании, вклучувајќи ги IBM, Microsoft и Face++. Резултатите откриле значителни разлики во прецизноста врз основа на полот и тонот на кожата:
– Системите имале стапка на грешка помала од 1% за мажи со светла кожа. – Стапката на грешки кај жените со потемна кожа достигнала до 34%. – Жените, со поголема веројатност биле погрешно класифицирани во споредба со мажите.
– Поединците со темна кожа биле почесто погрешно идентификувани од поединците со светол тен.
Преку ова истражување и нејзините понатамошни изјави, Буоламвини потенцирала дека моделите за препознавање лице често се обучуваат на сетови на податоци првенствено составени од бели машки лица, што доведува до пристрасни перформанси кога се применуваат на разновидна популација.
Освен оваа причина за пристрасност, уште една можеби ненамерна грешка е што многу системи за вештачка интелигенција се дизајнирани од тимови кои можеби не се свесни за овие предрасуди, а тука се и алгоритамските ограничувања, зависно од тоа кој алгоритам развиената технологија го користи.
Последици од пристрасни AI системи
Претходно беа наведени повеќе важни сектори каде што AI и технологиите за препознавање лице наоѓаат примена, така што сите овие сектори се изложени на последиците од неадекватното функционирање на овие системи.
• Имаше повеќе документирани случаи кога поединци беа погрешно уапсени поради грешки во алгоритмите за препознавање лица;
• Во процесот на вработување, целосното потпирање на овие системи би значело неправилно рангирање на кандидати, бидејќи ако се користи AI која е обучена за податоци за претежно бели мажи, се намалуваат шансите и можностите за жените и малцинствата;
• Во банкарството и финансиските системи, на луѓето од недоволно застапените заедници може да им биде неправедно оневозможен пристап до банкарски услуги, заеми или дигитални платежни системи;
• И многу други ситуации во кои доаѓало до прекршување на основните човекови права.
Овие последици ја демонстрирале итната потреба за подобри регулативи, подобрени сетови за обука за вештачка интелигенција и зголемена транспарентност во развојот.
Реакции на индустријата и дебата за етиката на AI
Се поставува прашањето какво влијание имало истражувањето на Џој во светот? Нејзините заклучоци поттикнале глобални дискусии за етиката на вештачката интелигенција, правичноста и одговорноста на технолошките компании да ги подобрат своите модели.
По нејзиното истражување, неколку компании, вклучувајќи ги IBM, Microsoft и Amazon, презедоа чекори за паузирање или менување на нивните програми за препознавање лице како одговор на загриженоста за точноста и дискриминацијата. Google и Facebook имаат имплементирано построги guidelines на вештачката интелигенција во нивните модели за машинско учење.
Европската унија предложи строги закони за вештачка интелигенција, вклучувајќи забрани за масовен надзор и барања за транспарентност во развојот на вештачката интелигенција, додека Конгресот на САД расправаше за законодавството за ограничување на употребата на препознавање лице во спроведувањето на законот.
Можни решенија и на што треба да внимаваме?
За да се решат родовите и расните предрасуди во системите за препознавање лица, може да се фокусираме на неколку поважни аспекти за да се осигураме дека развојот на вештачката интелигенција е поинклузивен и праведен:
1. Разновидност на податоци: Со вклучување слики на поединци од широк опсег на полови, етнички припадности и тонови на кожа, моделите со вештачка интелигенција може да се обучат да препознаваат и прецизно да обработуваат поширок спектар на лица.
2. Различности во тимовите за развој: Различните тимови носат различни перспективи, помагајќи да се идентификуваат потенцијалните предрасуди и да се решат од самиот почеток.
3. Транспарентност при развој и регулативи: Спроведувањето јасни регулативи и барања за транспарентност ќе осигури дека системите за вештачка интелигенција подлежат на темелно тестирање за пристрасност пред да бидат објавени во јавноста.
4. Јавна свест и активизам: Потребен е колективен општвестен напор за ваквите прашања да станат приоритет во секоја област, за полесно и поцелосно да се елиминира пристрасноста од технологијата.
Заклучок
Етичкиот развој на вештачката интелигенција е од суштинско значење за создавање поправедна иднина. Патот до оваа иднина вклучува колективна одговорност од технолошките компании, владите и јавноста за решавање и елиминирање на пристрасноста во вештачката интелигенција. За да се осигура дека AI им служи на сите подеднакво, мора да се направат заеднички напори за да се ублажат нејзините штетни ефекти и да се изградат системи што ја одразуваат различноста на светот во кој живееме.
Користена литература
1. https://www.youtube.com/watch?v=TWWsW1w-BVo&t=3s
2. https://gendershades.org/overview.html
3. https://sanford.duke.edu/story/dr-joy-buolamwini-algorithmic-bias-and-ai-justice/ 4. https://haas.berkeley.edu/wp
content/uploads/UCB_Playbook_R10_V2_spreads2.pdf
5. https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial intelligence-systems-0212