Софија Китановиќ
ВОВЕД
Несомнен е големиот замав на вештачката интелигенција во современото секојдневие, како резултат на енормниот технолошки подем во изминатата деценија. Таа сè повеќе добива централно место во различни области од животот, почнувајќи од персонализирани препораки на социјалните мрежи, автономни возила, интелигентни дигитални асистенти. Но, нејзиното влијание сè повеќе навлегува и во области кои се тесно поврзани со човечките емоции и менталното здравје.
Во последните години, се појавија ботови со вештачка интелигенција кои нудат можност за разговор и емоционална поддршка, каде што корисниците можат да се отвораат за своите чувства, стравови и лични предизвици. Овие ботови ветуваат постојана достапност, анонимност, и бесплатна поддршка, што за многумина претставува голема предност во услови на ограничен пристап до професионални психолошки услуги.
Сепак, оваа нова форма на комуникација покренува низа длабоки прашања: дали еден обичен алгоритам може навистина да разбере човечки емоции? Дали може да понуди соодветна утеха и совет? И дали текстуалната комуникација со компјутерски бот навистина може да помогне во ублажување на човечката болка?
Дополнително, ваквата појава отвора и едно пошироко општествено прашање: колку недостапноста до традиционалните човечки психолошки услуги, ги тера луѓето да бараат помош од ваков тип алтернативи чија примарна цел не е длабоката психолошка интервенција и се надвор од природата на човекот?
Токму овие аспекти ќе бидат разгледани во оваа семинарска работа, преку анализа на позитивните и негативните страни на четботовите во контекст на менталната поддршка, нивната способност да разберат емоции, како и етичките прашања што ги носи нивната употреба.
3
Прво, ќе ги разгледаме позитивните страни на четботовите кои работат со вештачка интелегенција и придобивките кои тие ги нудат.
I. Постојана достапност
Една од најзначајните предности би била постојана достапност на четботовите, 24 часа во денот. За разлика од традиционалните психолози кои работат според однапред закажани термини и во рамки на работно време, вештачката интелигенција им нуди на корисниците можност да добијат поддршка во секој момент кога ќе почувствуваат потреба. Ова е особено важно кога станува збор за итни емоционални состојби како што се панични напади, моменти на осаменост или силна анксиозност, кои често се појавуваат надвор од стандардното работно време.
Достапноста 24 часа на ден овозможува корисникот да се чувствува сигурно знаејќи дека помошта е на дофат во секое време. Ова може да создаде чувство на континуирана поддршка, што е особено важно за лица кои се борат со хронични проблеми како депресија, анксиозност или траума. Самото сознание дека има со кого да разговара во било кој момент, може да го намали стресот и да предизвика олеснување.
Секако, важно е да се напомене дека иако достапноста 24/7 е огромна предност, таа сама по себе не гарантира квалитетна психолошка поддршка. Сепак, за многу луѓе кои бараат моментален извор за комуникација и емоционално олеснување, оваа карактеристика претставува огромен чекор напред. Во ситуации каде нема веднаш достапен терапевт или пак, каде што постои страв или срам од директно обраќање кон професионалец, можноста за ваков вид на комуникација може да биде првиот важен чекор кон справување со емоционалниот товар.
II. Целосна анонимност на корисникот
Една од клучните причини зошто многу луѓе се одлучуваат да комуницираат со ботови со вештачка интелегенција кога станува збор за менталното здравје, е токму анонимноста што ја нуди овој тип на интеракција. Ваквиот разговор овозможува корисникот да остане целосно непознат, без потреба да открива лични податоци или да се соочи со интеракција лице во лице. За многумина, токму ова претставува огромно олеснување и ги охрабрува да зборуваат за работи кои ианку би ги чувале во себе.
Анонимноста овозможува корисникот да биде поотворен и поискрено да ги изрази своите мисли и чувства. Кога знаеме дека некој не нѐ гледа, не нѐ познава и не нѐ
4
осудува, многу е полесно да зборуваме за внатрешните борби, стравови, или дури и мрачни мисли. Овој фактор игра важна улога особено кај млади лица, тинејџери и луѓе со ниска самодоверба, кои често се повлекуваат и не знаат на кого да се обратат.
Чувството на срам или страв од осуда е уште една честа пречка кога станува збор за обраќање кај психолози. Некои луѓе се плашат дека нивните проблеми ќе бидат сфатени како глупави, неразумни и смешни. Во други случаи, лицата може да се плашат дека ќе бидат стигматизирани ако некој дознае дека посетуваат терапија, особено во средини каде што менталното здравје е сè уште за жал, табу тема. Вештачката интелегенција ја елиминира оваа пречка со тоа што ботот не поставува прашања за идентитетот, не бара лична документација и не ги познава претходните постапки на лицето, сè што му е важно е она што се пишува во моментот.
III. Употреба без финансиски трошоци
Уште една од поголемите придобивки на ботовите со вештачка интелегенција е тоа што поголем дел од нив се достапни бесплатно, наспроти традиционалните психолошки сесии кои можат да бидат исклучително скапи.Професионалните приватни психолози честопати се недостапни за лица со пониски приходи, па во такви услови од голема важност е улогата на овие ботови. Тие отвараат подеднаква можност за сите корисници, без разлика на економскиот статус.
IV. Лесна пристапност
Освен финансискиот аспект, важно е да се напомене и едноставниот пристап до овие дигитални алатки. Корисникот може да почне да користи четбот за неколку минути, преку апликација или веб-страница. Ова ја руши бариерата на комплексните процедури за закажување термин и чекање на ред, конкретно многу познати во нашата држава, кои може да траат со недели. Воедно ја прави и самата поддршка инклузивна и наменета за поширока популација.
Доколку зборуваме за позитивни страни од технички гледан аспект, може да се одвои следното:
V. Подобрување на ботовите преку учење и анализа со NLP (Natural Language Processing)
Преку интеракцијата со корисниците, четботовите постојано се ажурираат и подобруваат. Со помош на машинското учење и анализата на податоци, тие се обидуваат да ги „разберат“ моделите на човечкото однесување. Со секој нов разговор,
5
собираат информации кои им помагаат да изгенерираат посоодветни одговори во иднина,
Благодарение на тоа, со текот на времето стануваат сè подобри во препознавање на емоционални состојби, разликување на тоналитетот на пораките (пр: тага, страв, лутина), како и разбирање на посложени аспекти како сарказам или иронија.
Во овој процес голема улога игра и технологијата за обработка на природен јазик (Natural Language Processing). NLP им овозможува на четботовите да анализираат текст и говор на многу подлабоко ниво. Благодарение на NLP, тие можат да препознаат емоционален тон во пишаниот израз, како и да разберат дали пораката содржи тага, гнев, страв или потреба од утеха.
Како овој аспект влијае врз проблематиката што е тема на разговор? На тој начин што придонесува самите четботови да изберат поемпатичен или посоодветен тон при одговарањето, што прави интеракцијата да биде почувствителна и повеќе да одговара на моменталната емиоционална состојба на корисникот. Наместо стандардни и генерализирани , одговори, почнуваат да одговараат на начин кој изгледа поперсонализиран, поприроден и поблиску до вистинска човечка комуникација.
Следно ќе ги разгледаме негативните страни на ваков тип на интеракција, I. Недостаток на вистинска човечка емпатија
Иако ботовите со ВИ можат да препознаваат емоции преку текст и да одговараат со емпатичен тон, тие немаат вистинска способност за чувство. Она што изгледа како емпатија во реалноста е всушност добро дизајнирана симулација, некаков одговор базиран на огромни количини податоци, моделирани според тоа што би кажал еден човек. Но, тие одговори не доаѓаат од искуство, разбирање или личен увид, туку се резултат на компјутерски алгоритам.
Емпатијата е многу повеќе од логички поврзани зборови. Таа подразбира разбирање на емоциите на другата личност, длабока поврзаност и искрен обид за давање поддршка. Во човечката комуникација, емпатијата се пренесува не само преку зборови, туку и преку глас, изрази на лицето, гестикулации и присуство. Кај четботовите, ова целосно отсуствува. Тие можат да кажат „Те разбирам“, но тоа разбирање не е вистинско, туку само одраз на тоа што „треба да се каже“ во таква ситуација.
6
Овој недостаток може да влијае на тоа како корисникот се чувствува во текот на разговорот, иако во почетокот може да делува утешно. Може да доведе до разочарување, чувство на осаменост или дури и недоверба кон ваквите алатки.
Дополнително, постои опасност од лажно чувство на безбедност. Корисникот може да добие впечаток дека ботот навистина го разбира, а за жал, тоа не е така. Кога некој ќе се отвори и добие автоматизиран или генерализиран одговор, може да се чувствува уште поизолирано.
Затоа, важно е да се забележи дека и покрај технолошкиот напредок, вештачката интелегенција сè уште нема капацитет за вистинска емпатија, што е и една од најголемите разлики помеѓу дигиталниот и човечкиот свет.
II. Погрешни совети
Иако се програмирани да даваат добронамерни совети,сепак четботовите не се имуни на грешки. Поради нивната природа која се темели на обработка на податоци, постои реален ризик да понудат совет кој е несоодветен или дури штетен за одредена личност или ситуација.
Тие не се психолози и не можат секогаш да го проценат нивото на сериозност на проблемот. Доколку личноста се наоѓа во состојба на длабока депресија, самоповредување или суицидални мисли, четботот можеби нема да ја препознае сериозноста на моментот или нема да знае како правилно да реагира. Наместо да упати кон итна помош, може да даде одговор кој звучи како утеха, но не обезбедува конкретна интервенција. Во најлош случај, тоа може да ги одложи вистинските чекори што треба да се преземат.
Дополнително, ботовите не секогаш го разбираат контекстот. На пример, едно исто прашање поставено од две различни личности може да резултира со сосема различен одговор.
Уште една опасност е и дека корисниците честопати им веруваат на ботовите повеќе отколку што треба. Поради тоа што тие одговараат брзо, логично и со „пријателски“ тон. Но, зад тие одговори не стои реална стручност, ниту пак способност за носење одговорност.
7
III. Можност за злоупотреба на лични и чувствителни информации
Иако овие системи честопати тврдат дека се безбедни, не постои гаранција дека податоците нема да се чуваат, обработуваат или злоупотребат.
Многу платформи за вештачка ителегенција користат разговори со корисници за да го подобрат својот алгоритам, како што напоменав во точка V) од делот за предностите, што значи дека личните исповеди може да бидат дел од бази на податоци. Ова отвора сериозни прашања за приватноста: дали корисниците навистина знаат што се случува со нивните податоци? И дали тие податоци се доволно заштитени?
Дополнително, доколку овие информации се злоупотребат, последиците може да бидат сериозни: од нарушување на довербата до потенцијално психолошко оштетување. Затоа, многу е важно корисниците да бидат информирани и внимателни кога споделуваат лични теми со четботови.
IV. Разочарување од реалноста
Иако разговорот со четбот на прв поглед може да изгледа утешно, многу луѓе доживуваат момент на длабоко разочарување кога ќе сфатат дека не комуницираат со вистинска личност, туку со испрограмиран компјутер. Ова сознание може да го наруши чувството на доверба, особено ако корисникот споделува лични или емотивно тешки теми.
Кога човек се отвора, очекува разбирање, емпатија и поврзаност. Но, кога одговорите стануваат премногу шаблонски или повторувачки, лесно може да се почувствува дека нешто недостасува. Тоа води до чувство на празнина и изолација.
Овој ефект може да го намали позитивното влијание што четботот би можел да го има врз корисникот. Разочарувањето од оваа т.н. лажна блискост, ја нагласува суштинската разлика помеѓу технологијата и човечката интеракција.
8
ЕТИЧКИ И ОПШТЕСТВЕНИ ПРАШАЊА
Неопходно е да се разгледаат и етичко-општествените прашања и дилеми кои проникнуваат од тематиката која е цел на разработка на оваа семинарска.
I. Сносување одговорност
Се поставува прашањето: кој е виновен доколку нешто тргне во погрешен правец? Што се случува доколку четботот изгенерира погрешен или штетен совет кој може да доведе до ужасни последици?
За разлика од психолозите кои се подлежни на професионални етички кодекси и законски обврски, четботовите како дел од софтвер, се без свест и морална одговорност. Во такви случаеви, одговорноста би паднала врз компанијата која го креирала тој четбот. Меѓутоа таквите компании се заштитени со сложени услови за користење каде јасно е истакнато дека употребата на четботот не е замена за професионална помош, воедно и дека корисникот ја сноси целата одговорност за своите одлуки. Така што, во овој случај се раѓа енормен проблем.
II. Тренирање на моделите со ВИ
Следно прашање кое се поставува е колку е етички четботовите да се тренираат со помош на податоците кои ги добиваат од корисниците, доколку станува збор за лични, ранлви и чувствителни разговори од аспект на ментално здравје. Дури и кога податоците се анонимизирани, сепак останува прашањето дали корисникот бил доволно информиран и дали свесно дал согласност за обработка на неговите податоци.
Многу луѓе не читаат детално што прифаќаат при регистрација и не се свесни дека нивните зборови можат да станат дел од база за машинско учење. Во контекст на ментално здравје, каде што се споделуваат длабоко лични информации, оваа пракса отвора сериозни етички дилеми.
Важно е да се заклучи дека корисниците имаат право на приватност, но и на транспарентност. Потребно е да знаат што се случува со нивните зборови и како се користат. Во спротивно, постои ризик од нарушување на довербата, па дури и од злоупотреба на податоци за комерцијални цели.
9
III. Границата помеѓу поддршка од ВИ и вистинска психотерапија
Четботовите дефинитивно можат да бидат корисни алатки за почетна и брза поддршка, особено кога луѓето се наоѓаат во состојба на осаменост, анскиозност или им е потребен некој кој ќе ги сослуша без осуда. Меѓутоа, многу е важно да се разбере дека постои јасна граница помеѓу тоа што може да понуди ваквиот четбот и тоа што е вистинската психотерапија водена од професионалец.
Поддршката добиена од четботовите главно се состои од препознавање на основни емоции, нудење утешни фрази и совети базирани на општи модели. Тие немаат капацитет да дијагностицираат ментални заболувања, да направат детална психолошка проценка или да водат структуриран терапевтски процес. Границата се преминува во моментот кога проблемите стануваат посложени и бараат интервенција што се базира на стручност, клиничко искуство и етички стандарди. Ако некое лице изразува суицидални мисли, самоповредување, сериозна анксиозност или тешка депресија, потребна е итна интервенција од професионалец. Во вакви случаи, продолжување на разговорот само со четбот може да доведе до влошување на состојбата.
Со оглед на можноста за зголемување на употребата на четботовите како алатки за емоционално олеснување, се наметнува размислување за нивна подобра интеграција со човечка стручност. Би можело да се направи фунцкионалност во самите четботови за препознавање на одредени таргетирани пораки, како што се на пример: мисли за самоповредување или пораки кои алудираат на тешка психичка криза. Во тој момент четботот автоматски би сигнализирал на стручниот тим кој го одржува, кој пак без директно известување до корисникот, би вклучил вистински психолог кој би ја презел комуникацијата од тој момент и соодветно би интервенирал. Сметам дека ваквиот пристап би можел да спречи опасни исходи и да понуди вистинска помош во право време. Но, сепак и ваквата идеја отвора низа нови прашања за приватноста на корисникот.
10
ЗАКЛУЧОК
Вештачката интелегенција полека станува дел и од најчувствителните аспекти на човековиот живот, преку нејзината употреба во областа на емоционалното здравје, кој претставува релативно нов, но сè поактуелен феномен.
Четботовите дефинитивно можат да бидат од корист, особено поради нивната непрекината достапност и анонимност. Овозможуваат моментална комуникација која несомнено за многумина може да претставува големо олеснување и охрабрувачки чекор кон посегнување по стучна помош.
Сепак, потребно е корисниците да се свесни за границите. Ботовите не може да понудат вистинска емпатија, ниту пак да го заменат ефектот на човечка сплотеност и сочувствителност која би се добила при разговор со психолог или близок пријател. Постои ризик од погрешки совети и чекори кои би можеле да предизвикаат многу несакани резултати.
Така што, може да се заклучи дека четботовите во секој случај, треба да се гледаат како дополнување, а не како замена за човечки терапевти. Тие може да помогнат да се охрабрат луѓето да побараат помош и да понудат моментално олеснување. Но кога ситуацијата бара подлабоко, континуирано и професионално водено справување со менталното здравје, неизбежна е потребата од вистински професионалец.
11
РЕФЕРЕНЦИ
https://www.theguardian.com/lifeandstyle/2024/mar/02/can-ai-chatbot-therapists-do better-than-the-real-thing
https://www.unsw.edu.au/newsroom/news/2025/03/therapist-as-AI chatbot#:~:text=Not%20there%20yet,human%2Dto%2Dhuman%20interaction.
https://www.cedars-sinai.org/newsroom/can-ai-improve-mental-health therapy/#:~:text=Two%20new%20studies%20from%20Cedars,tool%20for%20mental%20 health%20therapy
12