Смирувачки или вознемирувачки? „ChatGPT“ влегува во вашите животи и односи преку оваа нова опција

Точка

12/05/2026

14:42

280

Големина на фонт

а а а

„ChatGPT“ станува емоционална поддршка! Новата опција „Доверлив контакт“ им помага на корисниците во кризни ситуации, но отвора и прашања за приватноста и етиката.

„ChatGPT“ се развива од AI асистент во своевидна емоционална инфраструктура, а новата функција „Доверлив контакт“, која ја воведува „OpenAI“, е најочигледниот доказ дека луѓето почнуваат да развиваат длабока емоционална зависност од оваа алатка. Говорејќи на настанот „AI Ascent“, организиран од „Sequoia Capital“, извршниот директор на „OpenAI“, Сем Алтман, изјави дека младите луѓе го користат „ChatGPT“ како некаков водич низ животот – не само за продуктивност, туку и за носење големи лични одлуки.

„Мислам, сето тоа е одлично и импресивно, но постои и друга страна, а тоа е дека тие навистина не носат животни одлуки без да го прашаат „ChatGPT“ што треба да направат“, рекол Алтман.

Во тој момент коментарот звучел провокативно.

Една година подоцна, за некои корисници „ChatGPT“ станал нешто како терапевт, животен тренер и доверлив соговорник. Сега „OpenAI“ гради вистинска инфраструктура за емоционална поддршка околу чет-ботот.


Како функционира „Доверлив контакт“?

Функцијата сè уште постепено се воведува и не е достапна за сите, но е замислена како опционална алатка за полнолетни корисници на лични „ChatGPT“ профили. Не е достапна за деловни, корпоративни или образовни профили.

Процесот е едноставен: корисникот во поставките може да номинира едно полнолетно лице како свој доверлив контакт. Тоа лице потоа добива покана и мора да ја прифати во рок од една недела за функцијата да стане активна, а притоа не мора да има сопствен „ChatGPT“ профил.

Доколку автоматизираните системи на „ChatGPT“ детектираат разговори кои би можеле да укажуваат на сериозен ризик од самоповредување, корисникот добива предупредување дека неговиот доверлив контакт би можел да биде известен и се охрабрува прво самиот да побара помош.

Пред испраќање какво било предупредување, специјално обучен тим од луѓе ја проценува ситуацијата за да утврди дали постои вистинска безбедносна закана. Од „OpenAI“ наведуваат дека оваа проверка се обидуваат да ја завршат за помалку од еден час.

Доколку рецензентите ја потврдат загриженоста, доверливиот контакт добива кратко известување преку е-пошта, СМС или во рамки на апликацијата. За да се заштити приватноста на корисникот, известувањето не содржи транскрипти од разговорите, туку само општо објаснување и поттик лицето да провери како е корисникот.


Сè поголема емоционална зависност

Воведувањето на функцијата „Доверлив контакт“ е одговор на сè поголемиот јавен притисок и правните предизвици со кои се соочил „OpenAI“, вклучувајќи тужби во кои се тврдеше дека одговорите на чет-ботот придонеле за самоповредување.

Компанијата наведува дека функцијата е развиена со помош на експерти за ментално здравје, превенција од самоубиства и организации како „Американската психолошка асоцијација“.


Бројки кои загрижуваат

Овој тренд го потврдуваат и бројни истражувања.

Едно истражување открило дека 38 проценти од Американците користат AI чет-ботови за емоционална поддршка на неделно ниво, при што повеќе од една третина наведуваат дека стравот од осуда е главната причина.

Друга студија покажала дека приближно еден од осум американски адолесценти и млади лица користи чет-ботови за совети поврзани со менталното здравје.

Податоците на самиот „OpenAI“ покажуваат дека околу 0,15 проценти од неделно активните корисници водат разговори со експлицитни показатели за потенцијално самоповредување.


Смирувачки или вознемирувачки?

Дали функцијата „Доверлив контакт“ ќе се доживува како смирувачка или вознемирувачка веројатно зависи од тоа како веќе гледате на вештачката интелигенција.

Од една страна, „OpenAI“ признава дека „ChatGPT“ станал нешто што влијае на корисниците емоционално, а не само технолошки. Заедно со постојните родителски контроли и безбедносни механизми, ова е уште еден знак дека AI станува нешто многу полично.

Меѓутоа, идејата дека „ChatGPT“ сега нè надгледува за некои е многу загрижувачка.

Оваа функција отвора и пошироки етички прашања поврзани со приватноста и безбедноста на чувствителните податоци, одговорноста за штетни совети и потенцијалната пристрасност вградена во AI моделите.

Експертите предупредуваат дека, иако AI може да биде корисна алатка, не може да ја замени вистинската човечка поврзаност и емпатија, а претераното потпирање на технологијата носи ризик од дехуманизација на грижата за менталното здравје.