Љубица Јованоска
Во последната деценија, вештачката интелигенција (AI) стана еден од највлијателните двигатели на општествените и технолошките промени. Нејзината примена во образованието ја менува традиционалната динамика меѓу наставникот, ученикот и знаењето, овозможувајќи персонализирани стратегии за учење, автоматизирано оценување и интелигентни системи за поддршка на студентите (UNESCO, 2022). Таквите алатки ветуваат поголема достапност и ефикасност, но во исто време отвораат и сериозни прашања поврзани со етиката, транспарентноста и правичноста.
Една од најчесто игнорираните, но суштински димензии на овие прашања е родовата еднаквост. Иако технологијата често се перцепира како „неутрална“, бројни истражувања покажуваат дека алгоритмите не се имунизирани од општествените предрасуди што постојат во податоците врз кои се обучуваат (Buolamwini & Gebru, 2018). Алгоритамската пристрасност може да резултира со нееднаков третман на различни групи, што во контекст на образованието може да значи дека одредени студенти – свесно или несвесно – добиваат различен квалитет на препораки, повратни информации или оценки во зависност од родот, јазикот или начинот на изразување.
Родовата еднаквост во образованието подразбира фер пристап и рамноправни можности за сите студенти, независно од нивниот биолошки или социјален род. Од друга страна, родовата пристрасност се јавува кога постои систематска разлика во третманот или перцепцијата на групи врз основа на родови стереотипи (Crawford, 2021). Кога ваквите нееднаквости се пренесуваат во интелигентни образовни системи, последиците можат да бидат долгорочни: автоматизирана репродукција на социјални нерамнотежи и ограничување на еднаквите можности во академската средина.
Целта на оваа семинарска работа е да се анализира како вештачката интелигенција влијае врз родовата еднаквост во образованието и дали постојат механизми со кои може да се намали пристрасноста. Преку разгледување на релевантна литература, конкретни студии на случај и современи практики, ќе се истражи прашањето:
Дали системите базирани на вештачка интелигенција ја поддржуваат родовата еднаквост во образованието, или несвесно ја нарушуваат преку пристрасни алгоритми и податоци?
Во ова истражување ќе се користи анализа на постоечка литература (secondary research) и преглед на студии на случај од различни образовни платформи кои применуваат AI (на пример, автоматски тутори, системи за адаптивно учење и chat-асистенти). Пристапот е интердисциплинарен – комбинира аспекти од информатиката, етиката и родовите студии – со цел да се прикаже колку е важно развојот на технолошките решенија да биде придружен со свест за правичност и социјална одговорност.
2. Теоретски рамки и концепти
2.1 Род и технологија: основни теории
Взаемната поврзаност меѓу родот и технологијата долго време била предмет на академска расправа. Феминистичките теории на технологијата, особено оние развиени во 80-тите и 90-тите години, тврдат дека технологијата не е родово неутрална, туку е производ на општествени структури и вредности кои често се обликувани од машки доминантни перспективи (Wajcman, 2004). Овој став ја критикува идејата дека технолошкиот развој е „објективен“ и независен од културните и родовите односи.
Технологискиот детерминизам – теорија што тврди дека технологијата е главната сила што го води општествениот развој – често се доведува во прашање во контекст на родовата анализа. Наспроти тоа, теоријата на социјалната конструкција на технологијата (SCOT) предлага дека технолошките артефакти се обликувани преку општествени односи, политички одлуки и културни вредности (Bijker, Hughes & Pinch, 1987). Во рамки на ова, AI системите се гледаат како производ на човечки одлуки – од податоците што се користат до вредностите што се вградуваат во моделите – и затоа можат да ги репродуцираат постоечките нееднаквости.
2.2 Етика и правичност во AI
Етичките принципи на правичност (fairness), непристрасност (bias mitigation), транспарентност и одговорност (accountability) се основата на современите дискусии за одговорен развој на AI. Според European Commission (2020), доверливата вештачка интелигенција мора да биде законски усогласена, етички ориентирана и технички стабилна.
Проблемот со родовата пристрасност произлегува најчесто од податочните сетови – ако тие содржат повеќе примери за машки лица, алгоритмите ќе ги пренесат тие нерамнотежи при класификација или предвидување (Buolamwini & Gebru, 2018). Ова може да резултира со системи што потешко препознаваат жени, особено жени со потемна боја на кожа, во компјутерски визии или автоматизирани процеси за селекција на кандидати.
Транспарентноста во AI значи дека корисниците и истражувачите треба да имаат увид во тоа како системите учат и донесуваат одлуки. Одговорноста, пак, бара јасно дефинирање на тоа кој е одговорен кога AI ќе направи грешка – дизајнерите, институциите или алгоритмите самите (Floridi et al., 2018).
2.3 Групна и распределна правда
Во доменот на етичката анализа на AI, постојат два клучни концепта на правичност: групна правда и распределна правда. Првата се однесува на тоа сите групи (мажи и жени) да бидат третирани еднакво од страна на системот, додека втората се однесува на тоа колку праведно се распределуваат придобивките и последиците од употребата на технологијата (Rawls, 1971).
Овие принципи се клучни во образовниот контекст – ако AI алатките за процена или препорака на ресурси имаат пристрасности, тие можат да го нарушат начелото на еднакви можности во учењето.
2.4 Објаснива (Explainable) вештачка интелигенција
Концептот на Explainable AI (XAI) претставува обид да се направат алгоритмите поразбирливи за луѓето. Според Doshi-Velez и Kim (2017), тоа вклучува модели кои можат да ги објаснат своите одлуки на јасен и интуитивен начин. Во контекст на родовата еднаквост, ова е особено важно бидејќи транспарентноста може да помогне во откривање на систематски пристрасности и во превенција на дискриминација.
2.5 Класичен социјален bias vs алгоритамски bias
Класичниот социјален bias произлегува од културни стереотипи и општествени структури. Алгоритамскиот bias, иако технички по природа, всушност е одраз на истите тие социјални нерамнотежи, само пренесени во дигитална форма. Разликата е што алгоритамскиот bias често е потешко да се открие, бидејќи се крие зад комплексноста на моделите и податоците (Barocas, Hardt & Narayanan, 2019).
Во контекст на образованието, ова може да значи дека системите за препораки или автоматизирани оценки несвесно фаворизираат студенти од одреден род, социјална група или културен контекст.
3. Примени на вештачката интелигенција во образованието 3.1 Вовед во AI во образованието
Вештачката интелигенција во образованието (AI in Education, AIEd) претставува мултидисциплинарна област која комбинира информатика, когнитивна психологија и педагошки науки. Нејзината цел е да создаде системи што можат да го разберат, следат и поддржат процесот на учење. Според истражувањето на Holmes et al. (2019), AI
технологиите сè почесто се користат за анализа на ученичките податоци, препознавање на индивидуални стилови на учење и оптимизација на наставните материјали.
Примената на AI во образованието се заснова на идејата дека машините можат да помогнат во персонализација на учењето – секој студент да добие содржина, темпо и повратна информација прилагодена на неговите способности и потреби.
3.2 Адаптивни системи за учење
Адаптивните системи за учење се платформи што го анализираат однесувањето на студентите и динамички го прилагодуваат наставниот процес. Примери се Smart Sparrow, Knewton и DreamBox Learning. Овие системи користат алгоритми за предвидување кои моделираат ниво на знаење и ангажман на ученикот, па врз основа на тоа препорачуваат следна лекција или активност (Xie, Hwang & Chang, 2019).
Во теорија, ова овозможува секој студент – без разлика на род, возраст или предзнаење – да има еднаков пристап до учење. Но во пракса, доколку моделите се обучени на податоци во кои преовладуваат одредени групи (на пример, машки студенти од технички факултети), алгоритмите можат несвесно да ја репродуцираат истата пристрасност во препораките.
3.3 Автоматско оценување и анализа на резултати
Автоматското оценување е една од најчестите примени на AI во образованието. Преку обработка на природен јазик (Natural Language Processing – NLP), системите можат да оценуваат писмени задачи, есеји и квизови. Примери за вакви технологии се ETS e-rater и Turnitin Gradescope AI.
Истражувањата покажуваат дека овие системи често имаат висока прецизност, но и тенденција да „казнуваат“ различни стилови на изразување кои не се совпаѓаат со доминантните модели на јазик — што може да создаде родови или културни нееднаквости (Perelman, 2014).
Дополнително, AI може да идентификува обрасци на учење и да сигнализира кога студентот се соочува со потешкотии, овозможувајќи им на наставниците навремено да интервенираат.
3.4 AI туторијали и чатботи во учење
Еден од најбрзо растечките трендови е воведувањето на чатботи и виртуелни тутори како поддршка на студентите. Платформи како ChatGPT (OpenAI), Google Gemini, или Duolingo Max AI Tutor, користат генеративни модели за да даваат интерактивни објаснувања, да поставуваат прашања и да симулираат реални ситуации за вежбање.
Овие системи можат да го намалат товарот на наставниците, особено во големи групи, и да овозможат 24/7 поддршка за студентите. Сепак, од аспект на родовата еднаквост, се
отвора прашањето: Какви гласови, имиња и однесувања им се доделуваат на овие виртуелни асистенти?
Истражувањето на UNESCO (2023) покажува дека повеќето виртуелни асистенти и AI тутори користат женски гласови и покорни модели на комуникација („Siri“, „Alexa“, „Cortana“), што го засилува стереотипот за „жената како помошник“. Таквите суптилни форми на родова пристрасност можат да имаат долгорочни последици врз перцепциите на младите за улогите на половите во технолошки контексти.
3.5 Системи за поддршка во наставата
AI може да се користи и како помошен систем за наставниците, со алатки што предвидуваат кои студенти најмногу ризикуваат да отпаднат, кои теми создаваат најмногу забуни и кои пристапи носат најдобри резултати.
Пример за тоа е IBM Watson Classroom, кој анализира податоци од активностите на учениците и создава индивидуални препораки за секој студент. Наставниците добиваат детални извештаи кои им помагаат да идентификуваат потенцијални проблеми во учењето (Luckin et al., 2016).
Од перспектива на родот, овие системи можат да помогнат да се откријат нееднаквости во пристапот кон технологија, но и да се создадат нови ако податоците не се доволно репрезентативни.
3.6 Е-учење и образовна аналитика
Платформи за е-учење како Coursera, edX, Khan Academy и Udemy користат машинско учење за следење на ангажманот и успехот на студентите. Преку learning analytics, тие собираат огромни количини на податоци за тоа како студентите ги користат ресурсите, кои прашања ги пропуштаат и кои видеа најмногу ги гледаат.
Овие податоци можат да бидат многу корисни за подобрување на наставата, но и опасни ако не се анализираат со родова сензитивност. На пример, анализите на Heffernan & Heffernan (2022) покажуваат дека женските студенти во STEM областа почесто пријавуваат чувство на помала самодоверба при користење на дигитални алатки, што може да влијае на нивниот ангажман.
Со соодветна регулација и етички пристап, AI може да ја намали оваа нерамнотежа – преку системи што ги препознаваат и поттикнуваат студентите на родово правичен начин.
4. Како може да се манифестира родова пристрасност во едукативни AI системи
Родовата пристрасност во едукативните системи базирани на вештачка интелигенција не е секогаш очигледна, но може длабоко да влијае врз начините на кои студентите учат, се
вреднуваат и се развиваат. Овие пристрасности можат да се јават во различни фази – од дизајнот на системот, преку податоците со кои моделите се обучуваат, до интеракцијата со корисниците.
4.1 При автоматско оценување: критериуми и стилови што фаворизираат одреден род
Автоматските системи за оценување (како ETS e-rater, Turnitin Gradescope или Grammarly AI) користат алгоритми за обработка на природен јазик кои често се обучени на огромни корпуси од академски текстови. Ако мнозинството текстови потекнуваат од машки автори или од специфичен академски стил, моделот може несвесно да развие пристрасност кон тој стил на изразување.
Истражување на Perelman (2014) покажа дека системите за автоматско оценување често повисоко ги рангираат подолгите, „поагресивни“ текстови со повеќе аргументи и покомплексна структура на реченица – стил што во западната академска култура почесто се асоцира со машки начин на пишување. Спротивно на тоа, повеќе емпатични или рефлексивни форми на изразување, кои може да се поврзат со женски стилови на комуникација, добиваат пониски оценки.
Ова создава системска нееднаквост во начинот на кој AI ја мери „квалитетноста“ на мислењето и писменото изразување, без да ја земе предвид разновидноста на стилови што ја збогатуваат академската комуникација.
4.2 При системи за препораки: различни курсеви според родови профили
AI системите за препораки (како оние во Coursera, edX, Udemy или интерни универзитетски платформи) користат податоци за интереси, претходно учење и интеракции за да предложат нови курсеви. Но, ако моделот учи од историски податоци каде жените почесто избираат хуманистички дисциплини, а мажите технички, системот може несвесно да ги „поттикнува“ истите избори – репродуцирајќи ги постојните родови шеми.
На пример, студијата на Binns et al. (2020) покажува дека AI системи за препораки во онлајн платформи често нудат различни категории на курсеви за машки и женски корисници – жени добиваат повеќе препораки за комуникација и психологија, додека мажи за програмирање и анализа на податоци. Ова не е резултат на експлицитна дискриминација, туку на пристрасни обрасци во податоците од минатото.
Таквите системи може несвесно да ја ограничат професионалната слобода на избор, особено во контекст на STEM каде веќе постојат структурни нерамнотежи.
4.3 При генерирање помошен текст и сугестии (LLMs и генеративни модели)
Големите јазични модели (Large Language Models, LLMs) како ChatGPT, Gemini и Claude, се користат во сè повеќе едукативни контексти — од пишување есеи до создавање наставни материјали. Иако овие системи можат да помогнат во продуктивноста, тие исто
така можат да репродуцираат родови стереотипи присутни во податоците од кои се обучени.
Истражувањето на Lucy et al. (2023) укажува дека LLM моделите често создаваат содржини каде женските ликови се прикажани како емотивни, грижливи или во помошни улоги, додека машките се прикажуваат како лидери, истражувачи или инженери. Во образовен контекст, тоа може да се манифестира преку примери во текстови, задачи или симулирани дијалози што рефлектираат овие стереотипи.
Ова е особено проблематично во системи за учење на програмски јазици или професионални вештини, каде девојчињата и младите жени можат да добијат суптилни сигнали дека „не припаѓаат“ во тие полиња.
4.4 При дијалог: Chatbot-ови со родно наклонет тон или стил на комуникација
Чатботите и AI туторите се наменети да комуницираат со студентите на природен начин, но нивниот јазик и тон често одразуваат родови норми. На пример, многу виртуелни асистенти – како „Alexa“, „Siri“ или „Cortana“ – првично користеа женски гласови, пасивен стил и „послушен“ одговор на команди.
UNESCO (2019) во извештајот “I’d blush if I could” посочува дека оваа дизајнерска одлука ја засилува идејата дека жените се сервисно ориентирани и потчинети на повици на други, што може да влијае на начинот на кој младите ја перципираат женската улога во технолошкиот свет.
Во образовен контекст, AI чатбот што користи различен тон во комуникација со машки и женски студенти (на пр. поучен и формален кон машки, а попријателски и неформален кон женски) може суптилно да создаде чувство на нерамноправност.
4.5 При дизајн на интерфејс (UI/UX), слики и визуелна репрезентација
Иако најчесто се зборува за податоци и алгоритми, визуелниот аспект на образовните платформи исто така може да носи родова пристрасност. Изборот на слики, икони, карактери и интерфејс тоналитет често несвесно ги засилува традиционалните родови улоги.
На пример, интерфејси во апликации за програмирање или математика често користат „технички“ бои и машки ликови како примери, додека оние за социјални науки или комуникација имаат повеќе женски модели. Според истражување на Kay et al. (2022), студентките во такви средини почесто чувствуваат „симболичка исклученост“, односно дека технологијата не е дизајнирана за нив.
Решение е воведување на принципот на gender-inclusive design – дизајнирање интерфејси што свесно избегнуваат родови кодови и користат неутрални визуелни елементи, универзален јазик и репрезентативен сет на примери.
5. Анализа на фактори кои поттикнуваат родова пристрасност во едукативниот AI
Развојот на едукативни AI системи носи со себе значајни предизвици поврзани со родовата еднаквост. Истражувањата покажуваат дека пристрасноста не е резултат на случајност, туку произлегува од сложена комбинација на историски, социјални и технички фактори. Еден од најзначајните елемент е самиот податочен сет. Ако податоците кои се користат за тренирање на модели се неравномерни или неквалитетни, тоа директно се рефлектира во резултатите. На пример, податоците за STEM задачи кои содржат повеќе машки примери или стилови на комуникација несвесно фаворизираат машки студенти, додека женските студенти може да бидат потценети или недоволно репрезентирани. Слично, историските и социјалните предрасуди се „шифрираат“ во податоците и моделите, па големи јазични модели и AI тутори често репродуцираат стереотипни улоги, како што е претставувањето на жените како помошни фигури, а мажите како лидери или експерти.
Дополнителен фактор е составот на тимовите кои развиваат AI системи. Недостатокот на родово и културно разновидни тимови го ограничува препознавањето на потенцијалните пристрасности и доведува до дизајн и интерфејси кои несвесно фаворизираат одредена родова група. Оваа динамика, во комбинација со „black box“ карактерот на многу AI модели, создава системи кои се транспарентни само делумно, а отсуството на објаснивост ги отежнува интервенциите и корекциите на пристрасноста.
Исто така, дури и кога пристрасноста е препознаена, не секогаш постојат доволно знаење, алатки или методологии за ефективно дебјасирање. Методи како reweighting на податоците, adversarial debiasing или пост-процесирање на резултати се сè уште ограничено применети во образовниот контекст, што овозможува да се репродуцираат родовите стереотипи. Отсуството на јасни етички кодекси и регулативи во образовните AI системи дополнително го комплицира проблемот, оставајќи простор за системи кои несвесно продлабочуваат нееднаквости.
Сите овие фактори укажуваат дека родовата пристрасност во едукативниот AI е резултат на интеракција помеѓу податоците, техничкиот дизајн и социјалниот контекст. За да се постигне родова еднаквост, неопходно е да се интегрираат стратешки интервенции на
повеќе нивоа – од критички избор на податоците, преку родово инклузивен дизајн и тимска разновидност, до транспарентни алгоритми и етички насоки кои ќе овозможат фер и инклузивно образование.
6. Методи и техники за детекција и намалување на родова пристрасност
Со цел да се овозможи фер и инклузивно образование преку AI, неопходно е да се примени систематски пристап за детекција и намалување на родова пристрасност. Овие стратегии можат да се категоризираат според фазата на интервенција во животниот
циклус на AI моделот: предобработка на податоците, моделирање, пост-процесирање, како и мониторинг и ревизија.
Во фазата на предобработка на податоците (preprocessing), методите како rebalancing и oversampling се користат за компензација на историските нерамнотежи. Со овие техники се зголемува репрезентацијата на недоволно застапените групи, овозможувајќи моделите да учат од податоци кои се поинклузивни и пофер.
Во рамките на in-model техники, примената на regularization и adversarial debiasing овозможува алгоритмите да го намалат влијанието на податоците кои можат да создадат пристрасност. Regularization го ограничува моделот да не преовладува врз доминантни трендови во податоците, додека adversarial debiasing го принудува моделот да ја минимизира предвидливоста на родот како фактор во одлуките.
Фазата на post-processing овозможува дополнителна корекција на резултатите. Калибрација и прилагодување на прагови (threshold adjustments) овозможуваат да се изедначат перформансите на моделот помеѓу различните родови групи, особено во автоматско оценување и препораки на курсеви.
Покрај овие технички интервенции, објасниви (explainable) AI техники се клучни за транспарентност и доверба. XAI овозможува наставниците, студентите и развивачите да разберат како моделот носи одлуки, да идентификуваат можни извори на пристрасност и да предложат корективни мерки. Ова е особено важно во образовниот контекст, каде одлуките на моделите директно влијаат на учењето и кариерните патеки на студентите.
AI auditing и ревизија, во комбинација со редовни обуки за развивачи, обезбедуваат континуирана евалуација на моделите за родова пристрасност. Вклучувањето на етички и родови ревизорски тела дополнително го зајакнува системот на контрола, обезбедувајќи дека AI системите не само што ги следат техничките метрики за fairness, туку и етичките стандарди и општествените цели на родова еднаквост.
Конкретните метрики за fairness, како што се Equalized Odds и Demographic Parity, овозможуваат квантитативно мерење на родовата пристрасност и индикатори за ефективноста на применетите техники. Комбинацијата на технички и организациски мерки обезбедува холистички пристап, кој е неопходен за одржување на фер, транспарентно и инклузивно учење преку AI.
7. Насоки, препораки и политики за родова еднаквост во едукативниот AI
За да се обезбеди долгорочно и одржливо намалување на родовата пристрасност во едукативните AI системи, неопходно е да се преземат институционални, технички и социјални мерки. Институционалните мерки на ниво на универзитети и министерства за образование се клучни за формирање на стандарди и политики кои ќе ги обврзат развивачите и корисниците на AI да ги следат принципите на родова еднаквост. Ова може
да вклучува воведување на процедури за ревизија на едукативните AI системи, одобрување само на оние кои ги исполнуваат критериумите за fairness и транспарентност, како и поддршка на проекти кои активно промовираат родова инклузија.
Развојот на етички рамки и стандарди за AI во образованието е исто така неопходен. Овие стандарди треба да вклучуваат конкретни упатства за дизајн на системите, избор и обработка на податоците, како и механизми за детекција и корекција на пристрасност. Етичките рамки не само што обезбедуваат технички упатства, туку и создаваат култура на одговорност и свесност за социјалното влијание на AI технологиите.
Една од клучните стратегии за промоција на родовата еднаквост е поттикнување на жените и недоволно застапените групи да учествуваат во развојот и користењето на AI системите. Активности како менторство, грантови за студентки и поддршка за иновации во STEM дисциплини, ја зголемуваат разновидноста и влијанието на гласовите кои создаваат и модерираат AI.
Отворените податоци и транспарентноста се исто така критични. Објавувањето на податоците кои се користат за тренирање на AI и на алгоритамските процедури овозможува надворешна ревизија, откривање на пристрасности и предлагање на корекции. Во комбинација со континуирана ревизија и надзор, овие мерки создаваат динамичен систем кој може навремено да реагира на нови предизвици и да ја одржува родовата ферност на AI системите.
За крај, за да бидат ефективни, овие мерки треба да се спроведуваат во рамки на кросдисциплинарен пристап, кој комбинира експертиза од информатика, етика, социјални науки и образовна практика. Само преку интегриран пристап можат да се адресираат сите аспекти на родовата пристрасност – од техничкиот дизајн до социјалните импликации – и да се обезбеди инклузивно и фер образование за сите студенти.
8. Заклучок
Семинарската работа ја истражи комплексната интеракција помеѓу едукативниот AI и родовата еднаквост, со фокус на пристрасностите кои можат да се појават во автоматското оценување, системите за препораки, LLM туторијали и интерфејси. Анализата покажа дека родовата пристрасност е резултат на повеќе фактори: нерамномерни или историски пристрасни податоци, недостаток на диверзитет во развојните тимови, ограничена транспарентност на моделите и недоволно познавање на техники за дебјасирање.
Студиите на случај дополнително потврдија дека овие пристрасности не се само теоретски, туку имаат конкретни импликации за студентите, особено за недоволно застапените групи, кои можат да бидат потценети или дискриминирани во процесот на учење.
Во однос на хипотезата поставена на почетокот – дека AI системите во образование може да ја репродуцираат родовата пристрасност, но таа може да се намали со соодветни стратегии – анализа на методите и техниките за детекција и намалување на пристрасноста
ја потврдува тезата. Примената на метрики за fairness, preprocessing, in-model и post processing техники, заедно со објасниви AI, редовна ревизија, етички кодекси и обуки за развивачи, покажува дека родовата ферност е достижлива, но бара интегриран и систематски пристап.
Истражувањето има одредени ограничувања. Прво, многу од анализираните студии се фокусираат на англиски јазик и западни контексти, што може да ја намали релевантноста за други културни и образовни средини. Второ, брзото развивање на AI технологиите значи дека некои техники и примери може брзо да станат застарени. Трето, недостатокот на емпириски податоци од универзитетски системи го ограничува количественото мерење на влијанието на пристрасностите.
За понатамошни истражувања, се предлага следното: развој на глобални и мултикултурни податоци за едукативни AI системи; експериментални студии кои ќе тестираат различни техники за дебјасирање во реални образовни средини; развој на стандарди за интеграција на родова и етичка ревизија во развојниот процес на AI; и истражување на социо психолошките ефекти на AI на студентите од различни родови групи.
Како заклучок, семинарската работа ја истакнува потребата од свесен, мултидисциплинарен и етички ориентиран пристап во развојот и примената на едукативниот AI, со цел да се создаде инклузивно и фер образование за сите студенти, независно од нивниот род.
9. Референци
1. Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and Machine Learning. MIT Press.
2. Binns, R., Veale, M., Van Kleek, M., & Shadbolt, N. (2020). ‘It’s reducing a human being to a percentage’: Perceptions of justice in algorithmic decisions. CHI Conference on Human Factors in Computing Systems. https://doi.org/10.1145/3313831.3376325
3. Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608. https://arxiv.org/abs/1702.08608 4. Kamishima, T., Akaho, S., & Sakuma, J. (2012). Fairness-aware learning through regularization approach. 2012 IEEE 12th International Conference on Data Mining Workshops. https://doi.org/10.1109/ICDMW.2012.69
5. Lucy, L., Bamman, D., & Prabhakaran, V. (2023). Gender and stereotypes in large language models. ACL Anthology. https://aclanthology.org/2023.gender
6. Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1–35. https://doi.org/10.1145/3457607
7. SpringerOpen. (2022). Barriers for women in higher education and AI. SpringerOpen. https://link.springer.com/article/10.1186/s40561-022-00133-4
8. UNESCO. (2019). “I’d blush if I could”: Closing gender divides in digital skills through education. United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000367416
9. UNESCO. (2021). Artificial Intelligence in Education: Guidance for Policy Makers. United Nations Educational, Scientific and Cultural Organization.
10. West, S. M., Whittaker, M., & Crawford, K. (2019). Discriminating systems: Gender, race, and power in AI. AI Now Institute.
11. Academic Conferences. (2022). Mitigating gender bias in AI-created STEM teaching materials. Academic Conferences and Publishing International. https://www.academic conferences.org/past-events/2022
12. ScienceDirect. (2023). Gender biases within artificial intelligence and ChatGPT. ScienceDirect.
13. arXiv. (2023). Unraveling downstream gender bias in AI educational writing assistance. 14. SSRN. (2022). Research on AI recommendations and improving gender equality in education.