Проблеми со халуцинации: Кога "ChatGPT" пишува глупости

Точка

16/06/2024

13:02

6.303

Големина на фонт

а а а

Има се повеќе луѓе кои се жалат дека "ChatGPT" халуцинира, а група истражувачи тврдат дека се во право – ботот навистина пишува глупости.

Во студијата објавена во списанието "Ethics and Information Technology", група истражувачи од Универзитетот во Глазгов, меѓу другото, велат дека „халуцинации“ не се соодветно име за грешките што ги прави "ChatGPT". Бидејќи халуцинации се секое верување дека постои нешто што воопшто го нема, употребата на овој збор во опишувањето на вештачката интелигенција може да биде само метафорична. „Халуцинација“ не е вистинското име за грешки, па затоа истражувачите препорачуваат друго – „пишување глупости“.

Посочено е дека „пишувањето глупости“ е посоодветно бидејќи на "ChatGPT" не му е грижа дали неговите одговори се точни или неточни. Во својот труд, истражувачите наведуваат два типа на пишување глупости: „тешки глупости“ е тоа што има за цел да го дезинформира корисникот и да го одведе на погрешен пат, додека „лесни глупости“ е тоа што е напишано без никаква задна намера. Бидејќи "ChatGPT" не може намерно да понуди погрешни одговори, истражувачите велат дека грешките што ги прави припаѓаат на „полесни глупости“.

На крајот, се истакнува дека чет-ботовите имаат една цел – да произведат текст кој наликува на нешто што човек би напишал. Истражувачите се сеќаваат на адвокат кој користел "ChatGPT" за пишување тужба. Тој кажа многу глупости пред судијата, но не затоа што "ChatGPT" сакаше да му го загорчи животот, туку затоа што ботот одговори на барањето со глупави работи и неточни информации.

„Халуцинациите“ или „глупостите“ со текот на времето ќе станат сè поголем проблем како што расте бројот на луѓе кои се потпираат на "ChatGPT". Корисниците сами одлучуваат како да користат помошници за вештачка интелигенција, и тие донесуваат одлуки не врз основа на длабоко разбирање за тоа како функционираат чет-ботовите, туку врз основа на тоа што го слушнале и прочитале за нивните способности. Нарекувањето на нивните грешки „халуцинации“ создава уште поголема штета, бидејќи создава впечаток дека чет-ботовите се обидуваат да разберат што се бара од нив и попатно прават грешки. Ова е далеку од вистината, бидејќи вештачката интелигенција (барем засега) не се обидува да разбере ништо, туку едноставно го репродуцира тоа што го научила од луѓето.




Спонзорирани линкови

Маркетинг