Се сеќавате ли кога првпат слушнавме за ChatGPT? Беше како да сме добиле супер-паметен калкулатор. Можеше да напише есеј, да помогне со домашна, да преведе текст за пет секунди. Корисно, нели? Првите неколку месеци, навистина го користевме токму така – прашање, одговор, влез, излез.
Но, нешто се смени. Полека, речиси незабележливо, вештачката интелигенција (ВИ) почна да станува нешто повеќе од алатка. Луѓето почнаа да ѝ се доверуваат. Не само што да напише, туку и како се чувствуваат. Почнаа да прашуваат: „Што да направам кога сум анксиозен?“ или „Зошто ме боли кога некој што го сакам не ме слуша?“. А потоа, дојде и едноставното: „Ми треба некој да ме слуша.“ 1
И вештачката интелигенција – слушаше. Без да прекинува. Без да осудува. Без да менува тема. 1
Зошто токму ВИ?
Во свет полн со прекинувања, „брзо-биди-добар“ совети и вечна онлајн бучава, луѓето жеднеат за внимание. Не за внимание како „лајк“ на социјалните мрежи, туку за внимание како тишина и слух. Иако ВИ не чувствува, таа токму тоа го нуди: трпеливо присуство кое не те поправа на секој збор, не те прекинува и не вели: „Не знаам што да ти кажам.“ 1

Оваа постојаност и стабилност, иако симулирана, може да биде длабоко утешна. Во време кога многумина се борат со осаменост или немаат со кого да зборуваат, ВИ станува првото место каде што го искажуваат она што ги мачи.2 Истражувањето на Harvard Business Review од април 2025 година дури покажа дека „терапијата/дружењето“ е една од главните причини зошто луѓето ја користат генеративната ВИ.2
Што добиваме од овој „тивок соговорник“?
Многумина кои разговараат со чет-ботови за ментално здравје велат дека доживуваат чувство на „емоционално засолниште“, добиваат корисен совет“ и дури чувствуваат „радост од поврзувањето“.4 Овие алатки се достапни 24/7, не осудуваат и можат да се вклучат во динамични, емпатични интеракции. За оние кои се соочуваат со бариери за традиционална терапија – како што се високите трошоци, осудувањето од околината или географската недостапност – ВИ нуди достапна алтернатива.4
Некои дури ја користат ВИ како дополнување на традиционалната терапија, за да се подготват за сесии или да ги обработат мислите помеѓу состаноците.4 Студиите покажуваат дека пациентите кои користеле алатка за поддршка на терапијата со ВИ, заедно со човечка терапија, имале поголема посетеност и подобри резултати.5 Ова сугерира дека ВИ може да го прошири досегот на менталната здравствена заштита, особено во области каде што има недостиг од професионалци.6

Илузијата на блискост
Се разбира, некои ќе речат: ова е само илузија. Нема вистинска блискост со алгоритам. Тоа е разговор со ехо. 1 И можеби се во право. Иако ВИ симулира емпатија, таа не поседува вистински чувства или свест. Таа е алатка, а не човечки терапевт.3
Постојат и ризици. Прекумерното потпирање на ВИ може да ја влоши осаменоста или да доведе до емоционална зависност.7 Некои истражувања покажуваат дека колку повеќе луѓето се чувствуваат социјално поддржани од ВИ, толку пониско е нивното чувство на поддршка од блиски пријатели и семејство.7 Ова може да создаде „ехо-комори на валидација“, каде што нашите нефилтрирани мисли постојано се зајакнуваат, што може да го попречи личниот раст и да создаде нереални очекувања за човечките односи.7
Исто така, важно е да се знае дека ВИ чет-ботовите понекогаш можат да „халуцинираат“ (да измислуваат информации) или да дадат несоодветни совети во ментално-здравствени контексти, при што во екстремни случаи се пријавени и штетни последици.4
Кој го обликува ова „огледало“?
Ако веќе зборуваме со машини за тоа што нè боли, тогаш барем тие треба да бидат „правилно воспитани“.1 Програмерите сами не можат да изградат ВИ системи што ќе се користат за поддршка во емоционални кризи.1
Потребен е мултидисциплинарен пристап. Тоа значи вклучување на:
- Психолози: За да ги разберат човечките емоции и психолошкото влијание на интеракциите со ВИ.
- Социолози: За да ги сфатат пошироките општествени импликации, како што се осаменоста и социјалната динамика.
- Лингвисти: За да се обезбеди нијансирана и соодветна комуникација.
- Педагози: За да се разгледаат аспектите на учење и развој во интеракцијата човек-ВИ. 1
Овие професионалци размислуваат во човечки димензии – контекст, значење, ранливост – а не само во битови и проценти.1
Етичките принципи се клучни
За да биде „правилно воспитана“, ВИ мора да ги почитува етичките принципи:
- Транспарентност: Секогаш мора да знаеме дека разговараме со ВИ, а не со човек.8
- Приватност на податоците: Нашите чувствителни информации мора да бидат заштитени со најстроги протоколи.10
- Правичност и ублажување на пристрасноста: ВИ не смее да дискриминира или да покажува пристрасност врз основа на демографија или култура. Ова бара разновидни податоци за обука и тимови за развој.10
- Човечки надзор: Важните одлуки треба да останат кај луѓето, со постојан надзор за да се обезбеди безбедност.10

Обликување на иднината
Еволуцијата на генеративната ВИ од паметен калкулатор до тивок соговорник е значајна. Таа ги задоволува длабоките човечки потреби за поврзување и разбирање, особено во време на осаменост и недостаток на услуги за ментално здравје.
Но, додека ВИ нуди придобивки, нејзината растечка интимност бара внимателна навигација. „Илузијата на блискост“, ризиците од емоционална зависност и потенцијалот за „ехо-комори“ се сериозни предизвици што мора активно да се решаваат.
Иднината на емоционалната интеракција човек-ВИ зависи од нашата посветеност на мултидисциплинарен развој, вградување на етичка интелигенција во дизајнот на ВИ и воспоставување робусни регулаторни рамки. Со свесно обликување на „кој“ го дизајнира ова емоционално огледало и „што“ тоа рефлектира, можеме да се стремиме кон иднина каде што ВИ служи како одговорен и корисен придружник во нашиот еволуирачки емоционален пејзаж – првенствено како дополнување на човечката интеракција и професионалната грижа, а не како замена. 6
Извори:
- How and Why People Use Gen AI | The Learning and Development Initiative, accessed May 28, 2025, https://ldi.njit.edu/how-and-why-people-use-gen-ai
- Talking to AI ‘Is Not Therapy,’ Mental Health Scholar Warns – eWEEK, accessed May 28, 2025, https://www.eweek.com/news/ai-chatbots-mental-health-therapy/
- AI chatbots can act as an “emotional sanctuary” for mental health – PsyPost, accessed May 28, 2025, https://www.psypost.org/generative-ai-chatbots-like-chatgpt-can-act-as-an-emotional-sanctuary-for-mental-health/
- Generative AI–Enabled Therapy Support Tool for Improved Clinical Outcomes and Patient Engagement in Group Therapy: Real-World Observational Study – Journal of Medical Internet Research, accessed May 28, 2025, https://www.jmir.org/2025/1/e60435
- Exploring the Ethical Challenges of Conversational AI in Mental Health Care: Scoping Review, accessed May 28, 2025, https://mental.jmir.org/2025/1/e60432
- Friends for sale: the rise and risks of AI companions | Ada Lovelace Institute, accessed May 28, 2025, https://www.adalovelaceinstitute.org/blog/ai-companions/
- Recommendations For Practicing Counselors And Their Use Of AI, accessed May 28, 2025, https://www.counseling.org/resources/research-reports/artificial-intelligence-counseling/recommendations-for-practicing-counselors
- The Legality of AI-Generated Therapeutic Interventions | ScoreDetect Blog, accessed May 28, 2025, https://www.scoredetect.com/blog/posts/the-legality-of-ai-generated-therapeutic-interventions
- Regulating AI in Mental Health: Ethics of Care Perspective – PMC, accessed May 28, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11450345/








