Големите јазични модели, односно алатките со вештачка интелигенција, речиси станаа составен дел од секојдневието. Дури и ако не ги користите активно секој ден, постои голема веројатност дека користите некоја услуга која во позадина функционира со помош на модел на "AI" како што се "ChatGPT", "Gemini", "Perplexity" и слични.
Иако многумина се потпираат на овие алатки за поддршка во секојдневните обврски – и деловни и приватни – не се секогаш свесни дека секоја употреба на "AI" претставува и потенцијален безбедносен ризик.
Луѓето, во желба што побрзо да завршат некоја задача, често му откриваат на "ChatGPT" и другите "AI" модели чувствителни и приватни информации кои не би требало да ги споделуваат со никого. Но, "chatbot-от" не е личност, нели?
Во вакви случаи, "AI" моделите треба да се третираат како личности, бидејќи исто како што не би му кажале доверливи информации на случаен минувач на улица, не би требало ни да ги внесувате во разговор со "chatbot", пишува "ZIMO.hr".
Иако повеќето компании кои ги развиваат овие алатки тврдат дека не ги користат податоците од корисничките разговори за понатамошна обука на моделите (иако, на пример, "DeepSeek" тоа го прави), сепак податоците остануваат зачувани во вашиот кориснички профил. Доволно е некој да седне пред вашиот компјутер и да ја отвори историјата на разговори со "AI" – и така да дојде до чувствителни информации.
Кои информации не смеете да ги споделувате?
Лични податоци
Без оглед на тоа колку му верувате на "AI", никогаш не би требало да внесувате лични податоци како полно име и презиме, адреса, матичен број, број од лична карта, пасош или други идентификациски документи. Истото важи и за фотографии од такви документи.
Ако користите "chatbot" за да изработите биографија, побарајте од него шаблон кој ќе го пополните локално на вашиот компјутер, наместо да внесувате вистински податоци.
Финансиски информации
Како што никогаш не би споделиле информации за кредитна или дебитна картичка, банкарска сметка или лозинка за интернет банкарство, истото правило важи и за разговор со "AI" модели.
Ако, на пример, сакате совет за кој кредит најмногу ви одговара или како да заштедите на данок, користете измислени сценарија – не вистински податоци.
Лозинки
Ова и не треба да се објаснува. Споделувањето лозинки за лични или деловни сметки е сериозно небезбедно. Како што не би му дале клуч од вашиот стан на непознат, така не треба да ги давате ни лозинките на chatbot.
Чувствителни или доверливи информации
ChatGPT не е ваш исповедник или најдобар пријател – не откривајте тајни или приватни информации за себе или другите. Работи како кој кого изневерува, што направил колегата на работа, здравствени состојби или семејни детали – не припаѓаат во ваков разговор.
Информации за фирмата во која работите или соработувате
Може да биде примамливо да побарате од "ChatGPT" да состави договор меѓу две фирми, но тоа не е безбедно. Не би требало да му давате пристап до документи со доверливи информации – било да се однесуваат на прототипи, патенти, состаноци, бизнис планови или финансии. Поради овие ризици, некои компании дури целосно го блокираат "ChatGPT" на службените уреди.
Експлицитна содржина
Дури и како шега, барањето упатства за нешто опасно (на пример, „како да се ослободите од некого засекогаш“) може да ве доведе во неволја. "ChatGPT" нема да одговори на такви прашања, а некои "AI" модели таквите барања ги евидентираат и пријавуваат до надлежните институции.
Медицински информации
Иако можете да побарате објаснување на некој медицински термин или да добиете совет за вежби, не внесувајте лични здравствени информации. Наместо тоа, формулирајте го прашањето општо, на пример: „Што би препорачале за маж во 30-тите години кој има проблем со ишијас?“
Заклучок:
Ако не сакате некој да го прочита, објави или повтори вашето прашање на интернет или на огласна табла, тогаш не го пишувајте ни во разговор со "AI" модел.