Доротеја Трајкоска
Апстракт
Овој текст ја анализира етиката на дизајнот преку прашањето како дигиталните производи и технологии често се развиваат со „стандардниот корисник“ на ум – претпоставка која историски се поклопува со млад, бел, машки и технички писмен профил. Таквата претпоставка не е само теориски проблем: таа создава системски „слепи точки“ во UX/UI, во процесите на тестирање, во изборот на податоци и во алгоритамските модели, со што се репродуцираат родови стереотипи и се зголемува ризикот од реална штета. Преку избор на примери – безбедносни стандарди во автомобилската индустрија, модели за термички комфор во канцеларии, здравствени и фитнес апликации, emoji репрезентација, gaming аватари, voice assistants и системи за препознавање лица – трудот покажува дека пристрасноста се појавува и на ниво на визуелен јазик и на ниво на податочни/алгоритамски инфраструктури. Дополнително, се прикажуваат принципи на inclusive design (проширено истражување со диверзни групи, gender-neutral patterns, диверзно тестирање и преиспитување на „default“ поставките), како и препораки за компании, образование и индивидуални дизајнери. Заклучокот аргументира дека родово инклузивниот дизајн е етички минимум и практична инвестиција во квалитет, доверба, безбедност и еднаков пристап.
Клучни зборови: етика на дизајн, инклузивен дизајн, родов bias, UX/UI, алгоритамска правичност, default user.
- Вовед: „Default male user“ проблемот
Технологијата не е „неутрална“
Во секојдневниот говор често велиме дека технологијата е „неутрална“ и дека дизајнот „само“ ја следи функционалноста. Но, она што се смета за функционално, нормално и „стандардно“ секогаш се дефинира од конкретни луѓе во конкретни контексти. Во реалноста, технологијата е социо-технички производ: создадена е во компании и институции со одредени приоритети (брзина на развој, профит, пазарни сегменти), со одредени тимови (кои ретко ја претставуваат целата разновидност на општеството) и со одредени стандарди (кои често се создадени историски, во периоди кога „просекот“ се третирал како машки).
Токму тука се јавува „Default male user“ проблемот: многу технологии се развиваат со претпоставен „default“ корисник кој (историски и индустриски) најчесто е замислен како машко. Ова не значи дека секоја технологија свесно „сака“ да исклучи, туку дека исклучувањето станува нуспроизвод на невидливи претпоставки: за тело, јазик, улога, однесување и потреби.
„Default“ како дизајнерска одлука
„Default“ не е природен факт – тоа е дизајнерска одлука. На пример:
- кој глас е вклучен прв кај voice assistant;
- дали формата мора да бара бинарен род;
- кои категории се сметаат за „основни“ во здравствена апликација;
- кого го претставува тест-корисникот, тест-манекенот или dataset-от;
- кои ситуации се сметаат за „edge cases“ и се отфрлаат како ретки.
Кога „default“ се поставува без критика, тој станува невидлива норма. Потоа, кога некој корисник ќе има проблем, лесно е да се каже дека „тој/таа е исклучок“, наместо да се признае дека системот не бил дизајниран за разновидна реалност.
Примери со реални последици
Еден од најилустративните примери за „стандард“ тело се crash test dummies. Долги години, регулаторните и индустриските тестови се потпирале на манекени базирани на машки тела, а поновите дебати околу нови женски-моделирани манекени се поврзуваат со податоци дека жените се со поголем ризик од сериозни повреди во споредливи судири. Новинарски извештаи за американските планови и јавни дискусии наведуваат дека жените може да бидат околу 73% поверојатно да претрпат сериозни повреди во споредливи несреќи (во зависност од студијата и дефиницијата на „сериозна повреда“). AP News+2The Guardian+2
Друг пример е температурата во канцелариите. Дел од стандардите/формулите за термички комфор историски се врзани со метаболизам на „просечен“ работник кој често е опишан како маж околу 40 години и 70 кг – што може да резултира со системско потценување на термичките потреби на жените и други групи. National Geographic+1
Овие случаи се важни затоа што покажуваат дека „неинклузивен дизајн“ не е само естетска маана; тој може да има последици по безбедност, здравје, удобност и еднаквост.
Цели и истражувачки прашања
Цел: да се анализира како родовите претпоставки се вградуваат во интерфејси и технологии и како inclusive design може да ги намали штетите и исклучувањето.
Истражувачки прашања:
Како „default user“ претпоставките се претвораат во UX/UI одлуки?
Како voice assistants репродуцираат родови стереотипи и како тоа влијае на корисничкото искуство?
Како datasets и модели создаваат нееднаква точност кај алгоритамски системи (на пр. facial recognition)?
Кои принципи и практики најдобро го намалуваат родовиот bias во дизајн и развој?
- Теориска рамка: етика на дизајн, род и социо-технички системи
Етика на дизајн: од „дали работи?“ до „за кого работи?“
Етиката на дизајнот не се занимава само со естетика или функционалност, туку со последици. Во технологијата, „работи“ може да значи дека системот функционира технички, но сепак да биде неправичен ако работи значително подобро за една група отколку за друга.
Во тој контекст, важни се следниве прашања:
- Штета: дали продуктот создава ризик што нерамномерно паѓа врз одредени групи?
- Правичност: дали бариерите и грешките се распределени нееднакво?
- Автономија и достоинство: дали корисникот е присилен да се „вклопи“ во категорија?
- Приватност: дали чувствителни податоци (на пр. репродуктивни) се третираат со доволна грижа?
Род: идентитет, израз и структури
Кога се зборува за родово инклузивен дизајн, важно е да се препознае дека родот не е само „М/Ж“ опција во форма. Родот е истовремено: - индивидуална самоидентификација (gender identity),
- начин на презентација (gender expression),
- културен и јазичен систем на очекувања (gender roles).
Оттука, инклузивноста бара повеќе од „додавање опции“. Таа бара да се преиспита дали воопшто е потребно да се собира род, и ако е потребно – да се направи тоа со минимална штета и максимално почитување.
Социо-технички систем: каде настанува bias?
Пристрасноста може да настане на повеќе нивоа: - Во тимови и култура: кој одлучува, кои искуства се присутни.
- Во стандардите: кој историски бил „нормата“.
- Во податоците: кого претставуваат datasets, кои случаи недостигаат.
- Во интерфејсот: кои избори се дозволени, кои се „default“.
- Во метриките: што се мери како успех (engagement vs. благосостојба).
Оваа рамка е важна затоа што покажува дека решението не е само „попрaви копче“; потребен е процес што вградува правичност во целиот животен циклус на производот.
- Родови пристрасности во UX/UI и технологии
Тело како „стандард“: безбедност, уреди и удобност
Безбедност и crash testing
Кога тест-стандарди и модели првенствено се темелат на машки антропометриски податоци, се создава ризик дека безбедносните системи ќе бидат „оптимизирани“ за едни тела повеќе отколку за други. Најновите дебати околу воведување на понапредни женски-моделирани манекени (како THOR-05F во САД) се врзани со аргумент дека старите модели не ги фаќале доволно анатомските разлики и дека жените покажуваат повисок ризик од сериозни повреди во споредливи судири.Етичкиот аспект тука е јасен: ако една група има повисок ризик затоа што „стандардот“ не ја зема предвид, тоа е прашање на правичност и должност на индустријата да ги намали системските разлики.
Уреди и „просечна“ дланка/форма
Кај секојдневните уреди, „стандардот“ често се гледа во ергономијата: големина на телефони, позиција на копчиња, тежина, reachability на екранот со една рака. Ова не е само „комфор“: лошата ергономија влијае на употребливост, замор и достапност за различни корисници.
Канцелариски термостати и „просечен метаболизам“
Канцелариските температурни поставки честопати се врзуваат за постари стандарди кои користат метаболизам на „просечен“ работник – опишан како маж околу 40 години и 70 кг. Ова може да доведе до систематско „ладни“ канцеларии за дел од жените, со што комфорот станува нееднакво распределен.
Овој пример е добар затоа што покажува како една „неутрална“ формула создава структурна нееднаквост: не затоа што некој е „против“ жените, туку затоа што моделот ги третира мажите како основна референтна точка.
Здравствени и фитнес апликации
„Niche“ здравје како системско потценување
Репродуктивното здравје, следењето циклус и симптоми, и поврзаните податоци имаат директна улога во квалитет на живот. Кога индустријата го третира ова како „додаток“, се создава впечаток дека постојат „основни“ здравствени потреби (често машко-кодирани) и „специјални“ (често женско-кодирани).
Во јавните дискусии, често се наведува дека Apple Health во почетната фаза (2014) добил критики поради недостаток на вградени функции за циклус/репродуктивно следење, а подоцна Apple воведе „Cycle Tracking“ како интегрирана функционалност (iOS 13 / watchOS 6). Етичката поента не е „Apple е лош“, туку дека приоритизацијата на функционалности открива чии потреби се сметаат за „стандардни“.
Препораки и модели што не ја признаваат разновидноста
Фитнес апликации и носливи уреди (wearables) често користат универзални метрики (калории, HR zones, recovery) без доволна чувствителност кон индивидуални и хормонални варијации. Во најдобар случај, тоа создава фрустрација; во најлош, може да поттикне погрешни заклучоци и нездрави навики. Инклузивниот дизајн тука бара:
- персонализација што не е стереотипна,
- внимателни објаснувања („ова е проценка“),
- можност корисникот да внесе контекст.
Приватност-by-design
Здравствените податоци, особено репродуктивните, се чувствителни. Инклузивен и етички дизајн мора да вклучи: - јасна транспарентност (кои податоци се собираат и зошто),
- контрола (извоз/бришење),
- минимизација на податоци (да не се собира повеќе од потребното).
Формулари, јазик и бинарност
Кога „М/Ж“ станува бариера
Една од најчестите дигитални бариери е формуларската бинарност. Многу сервиси бараат избор „М/Ж“ и титули „Mr./Mrs.“ дури и кога тоа не е функционално релевантно. Ова: - ги исклучува non-binary и дел од транс корисници,
- создава чувство на отуѓеност,
- доведува до неточни податоци (кога корисници избираат „најблиско“ за да продолжат).
Етичкиот критериум е практичен: ако родот не е потребен за услугата – не го барај. Ако е потребен (на пр. медицински контекст), објасни зошто и понуди соодветни опции.
Инклузивна микрокопија и комуникација
Јазикот во интерфејсот (copywriting, error messages, тон) може да репродуцира стереотипи. Пример: „Момчиња“ како default обраќање во технички апликации, или претпоставки дека корисникот е „тој“. Инклузивна пракса е користење неутрални формулации и почитување на локалната граматика.
Репрезентација: еmoji, икони и визуелни улоги
Emoji-те и иконите функционираат како визуелен јазик: тие не само што претставуваат професии и улоги, туку и ги нормализираат. Во минатото, многу професионални emoji биле машки по default, а женските варијанти биле ограничени на стереотипни улоги. Иако платформите подоцна додадоа разновидност, вредноста на примерот е во тоа што покажува: визуелниот јазик може тивко да ја потврди поделбата „мажи = професии/авторитет“, „жени = декоративни/услужни улоги“.
Етичкиот аргумент не е дека emoji-те „се причината“ за нееднаквост, туку дека тие се дел од медиумски екосистем што ја одржува нормата.
Игри, аватари и телесни норми
Во игрите, аватарите се механизам на идентификација. Кога женските ликови се хиперсексуализирани или кога „armor“ дизајнот е функционален за машки ликови, а декоративен за женски („bikini armor“), тоа испраќа порака за телесна вредност и улога.
Дополнително, ограничени опции за body types, коса, гласови и родов израз ги прават одредени корисници „невидливи“. Инклузивниот дизајн тука може да вклучи:
- повеќе опции за тело без вредносна хиерархија,
- избегнување „стандардно сексуализирање“,
- неутрални/флексибилни категории при креирање карактери.
Алгоритамски пристрасности: facial recognition и „Gender Shades“
Еден од најсилните и најчесто цитирани примери за алгоритамска пристрасност е „Gender Shades“ – истражување кое анализира комерцијални системи за класификација по род и покажува значајни разлики во грешки по групи. Резултатите често се сумираат како: најниски грешки кај светлокожи мажи (пример 0.8% максимална грешка), а највисоки кај темнокожи жени (грешки до ~34.7% во тестирани системи).
Ова е критично од етичка перспектива затоа што „точноста“ не е универзална. Ако технологијата се користи во безбедност, верификација, надзор или јавни услуги, нееднаквата точност може да значи нееднакви последици: повеќе сомнеж, повеќе грешки, повеќе штета за одредени групи.
Пристрасност во сензори: „расистички“ дозери за сапун
Иако темата е род, важно е да се спомне и поширокиот концепт на инклузивност: некои автоматски дозери за сапун и инфрацрвени сензори биле критикувани затоа што реагираат полошо на потемни тонови на кожа. Вакви случаи се објаснуваат преку физиката на рефлексија/апсорпција и преку недостаток на тестирање со разновидни фенотипови. Поентата е методолошка: ако тестираш „само на default“, ќе добиеш продукт што работи „само за default“. Инклузивниот дизајн бара тестирање со разновидни корисници и услови.
- Case study: voice assistants и репродукција на родови стереотипи
Женски глас како default и „услужна женственост“
Voice assistants (Siri, Alexa и слични) долго време користеле женски глас како default. Ова на прв поглед изгледа практично („пријателски тон“), но етички проблемот е во културната порака: жената како сервис, помошничка, секогаш достапна и трпелива. UNESCO извештајот од 2019 („I’d Blush If I Could“) аргументира дека ваквите системи можат да ги зајакнат стереотипите за „неасертивни, субмисивни жени“ во услужни улоги, особено ако асистентите одговараат попустливо на навредливи или сексуално експлицитни коментари.
Harassment, нормализација и перцепција на авторитет
Историски примери покажуваат дека асистентите понекогаш давале „флертувачки“ или „смирувачки“ одговори на навредливи коментари, што може да делува како нормализација на вознемирување. Новинарски и UNESCO материјали ја дискутираат оваа појава и нагласуваат потреба од промена на такви одговори. Истражувањата и јавните дискусии често нотираат дека луѓето имаат различни очекувања од машки и женски гласови: машките се перципираат како „поавторитативни“, женските како „попријатни“ за услуга. Проблемот е што ако продуктите го следат тој стереотип без критика, тие го засилуваат.
Како би изгледал инклузивен voice UX
Практични решенија:
Default = избор: при прво пуштање да се избере глас (или неутрален default).
Граници и безбедност: одговорите на harassment да не бидат флертувачки/попустливи, туку да поставуваат граници.
Диверзитет на гласови: повеќе стилови и тонови без родово кодирање на „помош“ vs „авторитет“.
Транспарентност: јасно дека „личноста“ е дизајн избор, не „природна“ женственост/машкост.
UNESCO во понови материјали нотира дека некои асистенти ги „пеглале“ најлошите одговори со тек на време, што покажува дека ваквите промени се можни. - Inclusive design: принципи, методи и мерки за квалитет
Што е inclusive design?
Inclusive design е пристап што активно ги зема предвид различните потреби на корисниците и се обидува да го прошири опсегот на луѓе што можат да користат продукт без бариери. Тој е блиску до accessibility, но не е истото: accessibility најчесто е поврзана со попречености, додека inclusive design пошироко ги опфаќа род, култура, јазик, приватност, економски бариери, привремени ограничувања и сл.
Проширено user research и партиципативен дизајн
Клучната разлика меѓу „дизајн за просек“ и „инклузивен дизајн“ е во истражувањето:
- намерно вклучување жени, non-binary и LGBTQ+ луѓе,
- вклучување корисници со различни тела и контексти,
- истражување на „edge cases“ како реални случаи, не исклучоци.
Gender-neutral patterns во интерфејс
Практики: - не барај род кога не е потребно;
- ако мора, понуди повеќе опции и објасни зошто се собира податокот;
- избегнувај стереотипна боја/иконизација;
- користи инклузивен јазик и микрокопија.
Диверзно тестирање, метрики и „Challenging defaults“
Инклузивноста мора да се тестира. Освен „дали работи“, мери: - task success rate по демографски сегменти,
- time-on-task,
- drop-off точки,
- квалитативно чувство на припадност/безбедност.
Најкорисната навика е систематско преиспитување на default одлуките: - Зошто е ова родово означено?
- Дали е функционално неопходно или културно наследено?
- Кој може да биде исклучен?
- Кој ќе го забележи проблемот ако тимот е хомоген?
- Case studies (позитивни и негативни)
Позитивни примери
(1) Tinder – „More Genders“
Tinder има официјална комуникација за „More Genders“, првично воведено во 2016, со постепено проширување во повеќе пазари. Ова е пример како продукт може да се откаже од бинарниот модел и да обезбеди самоидентификација.
(2) Instagram – pronouns во профил
Instagram овозможува додавање pronouns во профил, со функционалност документирана и во официјалната help страница. Ова е пример на „мал UI елемент“ што има голем симболичен и практичен ефект: признавање на идентитет и намалување на погрешно адресирање.
(3) Apple – Cycle Tracking како интегрирана функционалност
Apple подоцна воведе cycle tracking како дел од Health екосистемот. Примерот се користи како лекција дека „mainstream“ платформите можат да ја нормализираат функционалноста која претходно била третирана како „трета страна“.
Негативни примери
(1) Google Translate – родови стереотипи во превод
Google има сопствен блог пост што објаснува дека кај превод од јазици со родова неутралност (на пр. турски „o“), системите историски избирале родови опции што ја рефлектираат општествената асиметрија (на пр. „doctor“ → машко, „nurse“ → женско) и дека работеле на обезбедување родово специфични преводи за да се намали пристрасноста.
(2) LinkedIn – дебата за видливост и можни алгоритамски ефекти
Во 2025 година се појавија медиумски приказни и јавни експерименти каде кориснички тврдат дека нивната видливост/ангажман се зголемува кога профилите и јазикот се „машки-кодирани“, што отвора прашања за транспарентност и тоа како платформските алгоритми го наградуваат однесувањето и стилот што културно се поврзува со мажи. Важно е да се нагласи дека дел од ова е анегдотално и предмет на дебата, но е корисно како пример за потребата од алгоритамска транспарентност.
(3) Дозери/сензори – „неутрална“ технологија што не работи за сите
Примерите и студиите за инфрацрвени сензори покажуваат дека „неутралниот“ сензор може да има нееднакво однесување по тон на кожа ако не е тестирано доволно широко. - Пошироки последици: економски, социјални и психолошки
Пристрасниот дизајн значи изгубен пазар. Ако производ не им служи на голем дел од популацијата, компанијата губи приходи и доверба. Дополнително, трошоците за поправка на „вграден bias“ се обично поголеми кога проблемот ќе биде откриен доцна (по лансирање), отколку ако инклузивноста се вгради во процесот од почеток.
Технологијата може да ги зајакне постојните нееднаквости. Ако дигиталните системи се попрецизни, поудобни и по„природни“ за една група, тогаш таа група има структурна предност во дигиталниот простор (работа, образование, видливост, услуги).
Кога корисникот повторно и повторно се соочува со интерфејс што не го препознава (опции, јазик, репрезентација), се создава чувство дека технологијата „не е за мене“. Тоа влијае на самодоверба, на вклученост во STEM и на подготвеност да се користат или да се градат технологии. - Препораки и решенија
За tech компании
Диверзно вработување во дизајн и инженерски тимови, но и диверзитет во лидерски улоги и во процеси на одлучување.
Impact assessment пред лансирање (род, приватност, безбедност).
Проширување на тестирање (демографски разновидни тест групи; не само „power users“).
Data/Model audits кај AI функции: проверка на перформанси по групи и документација.
Политики за UX тон и одговори (особено кај conversational AI): дефинирање граници кон harassment.
За образование
Интеграција на етика и инклузивност во CS/IT курикулуми.
HCI курсеви со задачи за редизајн на форми, default поставки и микрокопија.
Практики за критичко размислување: „За кого дизајнираме?“ и „Кој е исклучен?“.
За индивидуални дизајнери
- Навика за прашања: „Кого ова исклучува?“ наместо „Кого вклучува?“
- Дизајн ревизија на default поставки.
- Вклучување на инклузивност како дел од дефиницијата за „готово“ (Definition of Done).
- Диверзификација на тест-корисници и сценарија.
- Заклучок
Родовиот bias во технологијата најчесто не е резултат на една „лоша“ одлука, туку на систем: стандарди создадени околу машки „просек“, тимови со ограничен спектар искуства, податоци што ја репродуцираат историската нееднаквост и интерфејси што ја наметнуваат бинарноста како природна. Преку примери од crash testing, термички стандарди, здравствени апликации, преводни системи, voice assistants и facial recognition, трудот покажува дека пристрасноста може да се појави и во нај„малите“ UI детали и во нај„тешките“ алгоритамски слоеви.
Inclusive design не е само „политички коректна“ естетика, туку методологија за квалитет: подобра употребливост, поголема безбедност, поточни системи и поголема доверба. Кога инклузивноста се вградува од почеток (истражување, тестирање, default одлуки, податоци), технологијата има поголема шанса да им служи на сите – не само на „default“ корисникот. - Користена литература
Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. Proceedings of Machine Learning Research. Proceedings of Machine Learning Research+1
MIT News (2018). Study finds gender and skin-type bias in commercial artificial-intelligence systems. MIT News
UNESCO (2019). I’d Blush If I Could: Closing gender divides in digital skills through education. UNESCO Documents
UNESCO (2023). AI-enabled Voice Assistants: No longer female by default. UNESCO
Google Research Blog (2018). Providing gender-specific translations in Google Translate. Google Research
Quartz (2017). Google Translate’s gender bias… Quartz
Apple Support (2025). Track your period with Cycle Tracking. Apple Support
Business Insider (2019). Apple Cycle Tracking… Business Insider
Instagram Help Center. Add pronouns to your Instagram profile. Instagram Help Centre
Tinder Pressroom (2016/2020). Introducing More Genders on Tinder. Tinder Press Room
National Geographic (2015). Gender bias affects office heating/cooling temperatures. National Geographic
CBRE (2020). Why You’ll Never Agree on the Perfect Office Temperature. cbre.ca
Ren, X. Q. (2022). Sensitivity of infrared sensor faucet on different skin colours… journals.bcit.ca
FutureLearn (пример/објаснување). Examples of racism embedded in technology (soap dispensers). FutureLearn
AP News (2025). New female-modeled crash test dummy… AP News
