"OpenAI" во голем проблем: Најдобриот модел измислува факти во 79% од случаите

Точка

19/05/2025

20:06

611

Големина на фонт

а а а

Историјата не е сиромашна со примери на брилијантни, но недоверливи луѓе. Истиот парадокс, се чини, сè повеќе важи и за вештачката интелигенција. Според интерен извештај на компанијата "OpenAI" до кој дојде "New York Times", дури и најновите модели како "GPT-4o" и "4-mini" покажуваат загрижувачки висока стапка на т.н. „халуцинации“ – односно измислување факти.

Халуцинациите не се новост кога станува збор за AI чет-ботови, но се очекуваше дека технолошки понапредните модели ќе го намалат овој проблем, а не дополнително да го продлабочат.

„Паметни“ модели, но склони кон измислување

За разлика од претходните генерации, "GPT-4o" и "4-mini" се дизајнирани да го имитираат човечкото размислување и да „размислуваат чекор по чекор“. "OpenAI" се пофали дека "GPT-4o" може да ги надмине дури и докторантите по хемија, биологија и математика. Сепак, реалноста е далеку помалку импресивна, пренесува "Index".

Истражувањето на "OpenAI" покажува дека "GPT-4o" халуцинирал во дури една третина од задачите поврзани со јавни личности – двојно повеќе од минатогодишниот "GPT-3.5". Уште полошо, "GPT-4-mini" покажал уште послаби резултати, измислувајќи факти во речиси половина од случаите.

На тестовите за општо знаење од базата "SimpleQA", бројките се уште поалармантни: 51% халуцинации кај "GPT-4o" и дури 79% кај "GPT-4-mini".

Повеќе размислување = повеќе грешки?

Една од теориите во AI заедницата гласи: колку повеќе моделот „размислува“, толку е поголема шансата да направи грешка. За разлика од поедноставените модели што се потпираат на проверени податоци, посложените модели се обидуваат да поврзат далечни информации и да извлечат логички заклучоци – што често значи и импровизација. А кога вештачката интелигенција импровизира, неретко – измислува.

Од "OpenAI" за "New York Times" изјавиле дека зголемениот број халуцинации не мора нужно да значи дека „разумските модели“ се лошо дизајнирани – туку можеби се само поопширни и поискажувачки.

AI не смее да биде опасна

Проблемот настанува кога AI ја преминува границата помеѓу корисноста и опасноста. Новата генерација модели не се ограничува само на репродукција на факти, туку шпекулира, замислува и се обидува да „заклучува“. Тоа доведува до нејасна граница помеѓу теорија и чиста фикција.

И додека големите компании како "OpenAI", "Google" и "Anthropic" сакаат да го позиционираат AI како асистент или „копилот“, корисниците во реалниот свет често се соочуваат со целосно неточни информации. Веќе се забележани случаи во кои адвокати поднесувале документи базирани на измислени судски преседани. А колку вакви грешки поминале незабележано во помалку ризични, но сè уште важни ситуации?


Парадоксот на современата вештачка интелигенција е јасен: колку повеќе корист носи – толку помала е толеранцијата за грешки. Во свет каде AI сè почесто влегува во училници, канцеларии, болници и јавна администрација – секоја „лапсус“ може да има сериозни последици.

Не можете да тврдите дека му заштедувате време на корисникот ако тој потоа мора да го троши истото време проверувајќи дали сте му кажале вистина. Иако "GPT-4o" е способен за фасцинантни подвизи во кодирање, логика и математика – неговата доверливост паѓа во вода кога самоуверено ќе „изјави“ дека Абрахам Линколн имал поткаст или дека водата врие на 27°C.

Додека овие проблеми не се решат системски, одговорите од AI моделите треба да се прифаќаат со голема резерва. "ChatGPT", колку и да е брилијантен, понекогаш звучи како личност што зборува со огромна самодоверба – иако нема поим што зборува. И тука илузијата за доверливост почнува да се распаѓа.