Ребека Манева
Вовед
Вештачката интелигенција (AI) во здравството се користи за како помош на докторите да постават побрза и поточна дијагноза. При користење на големи количини медицински податоци, AI може да препознае обрасци кои понекогаш не ги приметуваат и самите лекари. На пример, алгоритми за машинско учење денес се користат во радиологија, онкологија и при анализа на симптоми. По зборовите на Eric Topol: „Вештачката интелигенција не ги заменува лекарите, туку може да ги засили нивните способности – особено кога треба да се справат со огромна количина медицински податоци.“1
Долги години медицинските истражувања главно биле фокусирани на машки испитаници, што значи дека многу лекови и терапии се развивале според машкиот биолошки модел. Жените често биле исклучувани од клинички студии, особено поради страв од можни ефекти врз плодноста или бременоста. По забелешка на Caroline Criado Perez, „жените се третираат како помалку стандардниот човек во медицината“2 и тоа остава последици врз дијагностиката и третманите. Последица на ова е дека многу здравствени состојби кај жените се дијагностицираат подоцна или погрешно. Денес се прават обиди да се вклучи повеќе родова разновидност, но штетата од минатото сè уште се чувствува.
Иако вештачката интелигенција се смета за напредна и објективна технологија, таа не е ослободена од проблемите кои ги носи општеството. Ако податоците што се користат за тренирање на алгоритмите се пристрасни, тогаш и резултатите ќе бидат пристрасни. Тоа значи дека AI може да ги повтори и дури засили веќе постоечките родови нееднаквости.
1 Превод според: Topol, Eric. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books, 2019, стр. 12.
2 Превод според: Criado Perez, Caroline. Invisible Women: Data Bias in a World Designed for Men. Abrams Press, 2019, стр. 199.
3
1. Пристрасност во медицински податоци
Вештачката интелигенција функционира со учење од податоци. Колку и да е напреден еден алгоритам, неговата точност директно зависи од тоа на какви податоци е трениран, или таканаречено какви податоци е „нахранет“. Во здравството, ова значи дека секој модел кој врши дијагноза или предлага терапија е трениран врз основа на клинички податоци од пациенти. Ако тие податоци не се репрезентативни за сите групи во општеството (особено за жените) тогаш и самата AI ќе биде пристрасна.
Историски гледано, жените биле исклучени или недоволно застапени во клиничките испитувања. Во САД, дури и по трагичниот случај со лекот Thalidomide во 60-тите, жените во плодна возраст биле систематски избегнувани од медицински студии. Ова довело до тоа многу терапии и дијагностички пристапи да бидат калибрирани според машкиот биолошки профил. Со тоа, создадени се податоци што не ги одразуваат реалните потреби и карактеристики на жените.
Што значи „стандарден машки биолошки профил“?
Во контекстот на медицински истражувања и клинички испитувања, стандардниот машки биолошки профил обично се однесува на:
• Пациент роден како машко и се идентификува како машко (cis male); • Возраст меѓу 25 и 55 години;
• Тежина и висина во просечен BMI опсег;
• Без хронични хормонални флуктуации (менструација, бременост); • Бела расa (најчесто);
Проблемот не е само во тоа што жените се малку застапени, туку и што нивните специфичности често се игнорирани. На пример, при анализа на симптоми, многу студии не прават разлика меѓу машки и женски податоци. Кога таквите податоци се користат за тренинг на алгоритми, се создава дигитална реплика на истата нееднаквост: AI системите кои ги игнорираат женските симптоми, па дури и ги
4
препознаваат како „шум“ во податоците. Според Virginia Eubanks: „Automated decision-making systems reproduce the same institutional biases that have long existed in our social systems.“3, ова значи дека технологијата не е неутрална. Таа само ги автоматизира пристрасностите што веќе постојат. Во реалната пракса, ова води до ситуации каде AI систем дијагностицира машки пациент со висока прецизност, но „машка“ симплификација кај женски симптоми доведува до погрешни третмани. Веќе се појавени случаи кога AI алгоритам за кардиологија имал значително пониска точност при дијагностицирање на срцев удар кај жени. Ваквите грешки не се технички, туку системски и општествени.
За да се спречи тоа, потребно е да се прави свесен избор за тоа кои податоци влегуваат во алгоритмите и дали тие податоци претставуваат разновидност. Во последните години, некои истражувачи започнуваат да вклучуваат родово обележани податоци за да се обезбеди подобра застапеност.
Слика бр. 1 4
3 Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press, 2018, p. 110.
4 Сликата е преземена од: https://www.scientificamerican.com/article/doctors-must-dig-into-gender difference-to-improve-women-rsquo-s-health-care/
5
Дијаграмот претставен на Слика бр. 1 покажува флуктуации во бројот на мажи и жени учесници во клинички испитувања од 1992 до 2011 година, каде што долг период жените се недоволно застапени во споредба со мажите.
2. Разлики во симптомите и дијагнозата
Здравствените состојби не секогаш се манифестираат исто кај мажи и кај жени. Еден од најчестите примери е срцевиот удар: додека кај мажите се јавува класична болка во градите и левата рака, кај жените често симптомите се посуптилни: замор, мачнина, вртоглавица или болка во вилицата. Сепак, најголем дел од здравствените системи, особено алгоритмите базирани на вештачка интелигенција, се тренирани со податоци кои ги претпочитаат машките симптоми како „стандардни“. Ова води до тоа жените да бидат недоволно дијагностицирани или дијагнозата да дојде доцна, што ја намалува шансата за ефикасен третман. Во итни ситуации времето е критично, а пристрасните дијагностички модели можат буквално да значат разлика помеѓу живот и смрт. Поради овие неусогласености, студии покажуваат дека жените имаат поголема веројатност да бидат испратени дома од ургентна помош без соодветна дијагноза дури и кога покажуваат симптоми на сериозна состојба.
Како што забележува Caroline Criado Perez: „Women are 50% more likely to be misdiagnosed following a heart attack because the symptoms they experience are not represented in the medical data used to train diagnostic tools.“5 Ова значи дека AI не ја создава пристрасноста – туку ја одржува, дури и кога ни изгледа како напредна, непристрасна технологија. Кога податоците се лимитирани и заклучоците ќе бидат лимитирани, дури и ако алгоритмот е математички прецизен.
Проблемот не се појавува само кај срцевите болести. Разлики меѓу половите постојат и кај симптомите за дијабетис, автоимуни болести, аутизам, па дури и кај
5 Criado Perez, Caroline. Invisible Women: Data Bias in a World Designed for Men. Abrams Press, 2019, p. 204.
6
реакциите на лекови. Жените и мажите не го процесираат секој лек на ист начин,. Понекогаш и самите здравствени работници, свесно или несвесно, се потпираат на AI како „second opinion“, особено во дијагностика базирана на слики (радиологија). Ако алгоритмот е трениран врз машки модели на заболувања, тогаш дијагнозата на женски пациент ќе биде нецелосна или ќе промаши клучни знаци. За да се справиме со овој проблем, потребно е AI моделите да бидат свесно дизајнирани со родово специфични податоци, или да содржат модули кои препознаваат и третираат симптоми според пол. Здравствениот систем треба да го признае фактот дека дијагнозата не може да биде универзална. Преку поголема застапеност на жени во истражувањата, транспарентност при развој на алгоритмите и контрола на пристрасност, можеме да добиеме систем што навистина служи на сите, а не само на „стандардниот пациент“.
3. AI во гинекологија и репродуктивно здравје
Вештачката интелигенција има се поголема примена во гинекологијата и репродуктивното здравје, особено во раната детекција и предикција на гинеколошки заболувања. Еден од најпознатите примери е користењето на AI за анализа на пап тестови и колпоскопски слики со цел откривање на рак на грлото на матката. Алгоритмите можат да детектираат суптилни клеточни промени кои дури и искусен патолог би ги занемарил, што овозможува побрза и попрецизна дијагноза. Во некои случаи, како со проектите финансирани од WHO и NIH, AI модели покажале точност еднаква или дури повисока од луѓето при анализа на цервикални слики.
Дополнително, AI алатки како FertilityIQ, Clue или Natural Cycles се користат од милиони жени за следење на менструални циклуси, овулација и плодност. Овие апликации нудат персонализирани прогнози базирани на податоци внесени од самите кориснички, комбинирани со модели на машинско учење. Тие се корисни, но не и совршени – ако жената има неправилен циклус, апликациите често даваат неточни резултати. Недостатокот на едукативни податоци за различни етнички групи, возрасти,
7
или периоди од животниот циклус (на пр. пубертет, бременост, менопауза) дополнително ја ограничува прецизноста.
Слика бр. 2 – ПАП тест
4. Гласови и интерфејси на здравствени AI системи
Многу дигитални здравствени асистенти, како што се мобилни апликации за следење на симптоми, користат женски гласови. Овој избор на глас и улога не е случаен – тој ја одразува долготрајната родова стереотипизација каде жените се гледаат како грижа, поддршка и нежна утеха наместо професионална оспособеност, дури и во дигитален формат. Таквата презентација не само што го одржува родовото
клише, туку и поставува рамка во која овие алатки се гледаат како помалку стручни или сериозни. Корисничкиот интерфејс и тонот на AI можат да влијаат врз тоа дали пациентите ја сфаќаат сериозно дадената препорака.
8
5. Етички и правни прашања
Примената на AI во здравството отвора важни етички и правни дилеми. Една од клучните е дали постои родова дискриминација преку алгоритмите. Ако системот носи одлуки врз основа на податоци што се веќе пристрасни, тогаш тие пристрасности се само автоматизирани и мултиплицирани.
Здравствените институции имаат одговорност да бидат транспарентни во врска со тоа како се обучуваат и користат овие системи. Прашања како:
• Кој ги тренира моделите?;
• Дали се користени податоци и од жени?;
• Како се мери еднаквоста?;
мора да станат стандардни при развојот. Без јасна регулатива и мониторинг, AI може да стане невидлив механизам на нееднаквост.
9
Заклучок
Вештачката интелигенција несомнено претставува револуционерна алатка за унапредување на здравствената заштита. Нејзината способност за анализа на огромни количини податоци, откривање на сложени обрасци и брза дијагноза може значително да ги подобри здравствените услуги. Но, како што видовме низ целата анализа, ваквата технологија може истовремено и да ги засили постоечките нееднаквости – особено кога е базирана на податоци кои не ја претставуваат родовата разновидност во општеството.
Главната теза што ја застапував е јасна: AI има потенцијал да унапреди здравството, но само ако ги вклучува сите родови рамноправно. Кога алгоритмите се градат на основа на пристрасни или нецелосни податоци, тогаш тие носат одлуки кои директно влијаат на животите на луѓето, а особено на жените. Потребно е да се развиваат родово чувствителни бази на податоци и да се вклучуваат жени – не само како пациенти, туку и како истражувачки субјекти, дизајнери, инженери и донесувачи на одлуки во здравствени AI проекти. Преку овие чекори ќе се добие не само поправеден систем, туку и попрецизен и покорисен за сите.
„The future of AI in medicine must be inclusive – because health is not one-size-fits-all.“6
6 Topol, Eric. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books, 2019, p. 297.
10
Користена литература
1. Topol, Eric. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books, 2019.
2. Criado Perez, Caroline. Invisible Women: Data Bias in a World Designed for Men. Abrams Press, 2019.
3. Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press, 2018.
11