Дали на „ChatGPT“ му се обраќате како на пријател, колега или како на алатка на која ѝ давате задачи и наредби?
Откриено е дека еден неочекуван начин на комуникација може да донесе најдобри резултати – но експертите предупредуваат дека тоа може да има и одредени штетни последици.
Се покажува дека грубиот тон кон „ChatGPT“ понекогаш може да резултира со попрецизни одговори. Сепак, научниците предупредуваат дека оваа „тактика“ има и своја цена. Иако вештачката интелигенција делува како алатка што не се грижи за емоции, начинот на кој ѝ се обраќаме сепак остава трага.
Истражување од Универзитетот во Пенсилванија покажало дека моделот „ChatGPT 4o“ давал поточни одговори на серија од 50 прашања со повеќекратен избор кога истите биле формулирани со погруб тон.

Врз основа на повеќе од 250 различни прашања, подредени од многу љубезни до изразито груби, „многу грубиот“ тон донел точност од 84,8 проценти – околу четири процентни поени повеќе отколку кај исклучително љубезните формулации.
Едноставно кажано, моделот подобро реагирал на остар јазик отколку на учтиви молби.
Сепак, истражувачите нагласуваат дека тоа не значи оти безобразниот пристап е паметна стратегија. Напротив, предупредуваат дека некултурниот јазик во комуникацијата со вештачка интелигенција може да има негативни ефекти – од полошо корисничко искуство, преку намалена пристапност, до создавање токсични комуникациски навики кои со текот на времето се пренесуваат и надвор од екранот.

Четботовите ја читаат атмосферата
Оваа студија дополнително покажува дека за одговорите на четботовите не е важно само што прашуваме, туку и како го правиме тоа. Тонот, нијансите во формулацијата и општиот пристап можат да влијаат врз резултатот повеќе отколку што досега се мислеше, што укажува на посложена природа на интеракцијата меѓу човекот и вештачката интелигенција.
Претходни истражувања веќе покажаа дека големите јазични AI-модели се чувствителни на содржината што ја „апсорбираат“. Во некои експерименти, вештачката интелигенција можела да биде наведена да ги прекрши правилата со користење техники на убедување слични на оние што делуваат врз луѓето. Во други случаи, континуираното изложување на нискоквалитетна содржина доведувало до феномен наречен „гниење на мозокот“, со забележливи промени во однесувањето на AI-моделите.

Авторите на студијата ги истакнуваат и нејзините ограничувања: релативно мал примерок и потпирање главно на еден модел. Исто така, можно е понапредните системи во иднина да го игнорираат тонот и да се фокусираат исклучиво на суштината на прашањето. Сепак, резултатите јасно покажуваат дека дури и ситните детали во прашањата можат да направат разлика.
Како што истакнува еден од истражувачите, луѓето одамна тежнеат кон природна и опуштена комуникација со машините, но токму таквиот пристап ги открива и слабостите: колку повеќе интерфејсот „наликува“ на човек, толку е почувствителен на тон, контекст и начин на обраќање.














