Се почесто може да се слушнат или прочитаат ставови во кои граѓани тврдат дека „нивниот“ "ChatGPT" е поспособен за емпатија од сите луѓе што ги познаваат. Ова е загрижувачко, не само затоа што луѓето не разбираат како функционира емпатијата, туку и затоа што користењето ботови за решавање проблеми што обично се решаваат на психотерапија е особено ризично.
Уште во 2021 година се пишуваше дека една од клучните пречки за примена на вештачката интелигенција во медицината е тоа што "AI" не е способен за емпатија. Иако многумина тврдат дека ни луѓето не се, тоа едноставно не е точно. Проблемот е што некои, кога зборуваат за емпатија, всушност мислат на безусловна љубов – а емпатијата не е ниту треба да биде тоа. Ова особено важи за психотерапијата – оние кои од терапевтот очекуваат поддршка и пријателска љубов, не се таму поради вистинските причини.
Според дефиницијата, емпатија е способноста да се разберат и споделат чувствата на другиот, што ни овозможува да ги гледаме работите од туѓа перспектива, а не само од сопствена. Тоа е клучна вештина за градење социјални и професионални односи, развој на самосвест и придонес кон поправеден и помирен свет. Со оглед дека "AI" нема своја перспектива (моделите се тренирани врз основа на податоци внесени од луѓе), тешко дека може да се стави во туѓи чевли.
Од каде тогаш впечатокот дека "AI" чет-ботовите се полни со разбирање? Експертите велат дека станува збор за јазичен трик, односно за вештачка емпатија. Луѓето имаат тенденција да припишуваат човечки особини на разни појави и објекти, а ботовите како "ChatGPT", "Gemini" и "Copilot" го поттикнуваат тоа, имитирајќи го начинот на кој комуницираат луѓето – користејќи познати зборови и реченици, и шеми на говор што им звучат блиско.
Но, емпатијата не е само јазичен шаблон. Кога "AI" бот користи лични заменки, всушност изведува трик – кога корисникот ќе постави прашање, ботот правилно користи „јас“ и „ти“ (дури и кога не се наведени експлицитно), ставајќи се себеси во улога на советник. Колку е проблемот почувствителен, толку поголем е впечатокот дека ботот е емпатичен.
„Емпатијата на ChatGPT“ произлегува од алгоритам и не е вистинска. Комуникацијата со нечовечки ентитети кои симулираат идентитети и емоции може да има долгорочни последици, особено за оние што бараат помош во тешки моменти. Колку повеќе напредува "AI", толку потешко ќе биде да се направи разлика меѓу разговор со бот и разговор со вистински човек.
Уверувањето дека ботовите се способни за чувства создава забуна. Тие не се – и тешко дека некогаш ќе бидат (а дури и да бидат, тоа нема да се случи утре). "ChatGPT" не ви е пријател, а никако не ви е терапевт. Легитимно е во тешки ситуации да се користат алатки што не нанесуваат директна штета, а носат олеснување. Но тоа олеснување не е терапија – ботовите нудат одговори и решенија, а човечкиот терапевт му помага на клиентот самиот да ги пронајде. Само тоа е терапија, и само така проблемите се решаваат на долги патеки.