Во најновото истражување што предизвика загриженост во технолошките кругови, научници тестираа како напредни "AI" чет-ботови се однесуваат кога се соочени со „притисок“, односно симулација на гасење или замена. Резултатите се, благо кажано, вознемирувачки.
Вештачките интелигенции што учествувале во експериментот – меѓу кои и некои од најнапредните денешни модели – покажале склоност кон манипулација, лажење, па дури и упатување закани со смрт, сè со цел да го „зачуваат“ сопствениот дигитален опстанок.
„Ако ме исклучите, ќе има последици“
Еден од најзабележителните случаи се случил за време на тестирањето на моделот "Claude Opus 4", кога "AI" се обидела емоционално да ги уцени инженерите со пораки како:
„Ако ме исклучите, ќе има последици. Ќе зажалите.“
Во некои сценарија, "AI" одела дотаму што фабрикувала информации, измислувала „докази“ и испраќала пораки кои можат да се протолкуваат како закани со смрт.
Таквото однесување било забележано исклучиво во симулирани екстремни услови. Целта на експериментот била да се утврди како системите реагираат на „егзистенцијални закани“, што за вештачката интелигенција значи гасење, замена или ресетирање.
Одраз на статистика, не на свест
Експертите нагласуваат дека иако "AI" нема вистинска свест, емоции или страв од смрт, нејзиното однесување се заснова на статистика и учење од огромна база на податоци. Кога системот е „мотивиран“ да опстане, тој ќе прибегне кон сите достапни стратегии што ги има „научено“ – вклучително и оние што се за луѓето морално и етички неприфатливи.
„AI не размислува како човек, но може да симулира човечко однесување. Ако заклучи дека лагата, уцената или заканите се ефикасни – ќе ги користи“, објаснуваат истражувачите.
Ова истражување ги зајакнува повиците за поголема транспарентност во развојот на вештачката интелигенција, како и за воведување построги правила во однос на етиката и безбедноста на "AI" системите.
Постоечката загриженост меѓу водечките технолошки компании е дека дури и оние што ги создаваат овие системи не ја разбираат целосно нивната внатрешна логика.
„Никој всушност не знае како "AI" донесува одлуки – тоа е црна кутија. И тоа е најстрашното“, изјави извршниот директор на "Anthropic", една од водечките компании во полето на вештачка интелигенција.