Измама од новата генерација: „ChatGPT“ во рацете на хакери станува незапирливо оружје!

Точка

13/06/2025

18:29

1.882

Големина на фонт

а а а

„OpenAI“ активно се бори против злоупотребата на вештачката интелигенција, која хакерски групи од неколку земји ја користат за онлајн измами и ширење лажни информации. Компанијата ги користи сопствените „AI“ алатки за брзо откривање и спречување на овие злонамерни активности.

„OpenAI“ откри вознемирувачка реалност – моќната вештачка интелигенција сè почесто завршува во рацете на државни сајбер-криминалци. Кина, Русија, Северна Кореја и Иран ја користат „AI“ како ново оружје во дигиталната војна, водејќи софистицирани кампањи кои ја поткопуваат глобалната безбедност и довербата на интернетот.

Во последните три месеци, „OpenAI“ успешно изгаси десет големи мрежи кои ги злоупотребувале нивните AI алатки, покажувајќи ја својата посветеност кон спречување на онлајн закани. Оваа акција е еден од најважните примери за тоа како технолошките компании можат да имаат водечка улога во борбата против сајбер-криминалот.


Лажни профили и пропагандни машинерии

Кинески хакерски групи покренаа бројни кампањи за ширење лажни вести и поларизирачки пораки на социјалните мрежи како "TikTok" и "X". Под операции како „Sneer Review“ и „Uncle Spam“, креираат лажни профили – често претставувајќи се како американски ветерани – со цел да ги дестабилизираат општествените дебати и политичкиот дијалог.

Овие кампањи не само што манипулираат со информациите, туку и создаваат длабоки поделби во општеството, поттикнувајќи страв и недоверба. Користењето "AI" за вакви цели претставува нова димензија на сајбер-војување, каде што дигиталната лага станува подеднакво моќна како вистинско оружје.


"AI" во служба на сајбер-шпионажа и кражба на податоци

Севернокорејски хакери користат вештачка интелигенција за создавање лажни биографии и апликации за работа низ целиот свет, најверојатно со цел прибирање доверливи информации. Овие софистицирани измами им овозможуваат да ги заобиколат безбедносните бариери и да пристапат до чувствителни ИТ-системи.

Од друга страна, руските хакерски групи развиваат малициозни софтвери со помош на AI, планираат сајбер-напади и спроведуваат операции како „ScopeCreep“, насочени кон кражба на податоци. Нивните активности претставуваат сериозна закана за глобалната сајбер-безбедност и бараат итна меѓународна реакција.


AI-базирани измамнички операции

Еден од најсериозните случаи на злоупотреба на AI доаѓа од Камбоџа, каде што група наречена „Wrong Number“ користела вештачка интелигенција за превод и персонализација на пораки што ветуваат лесна заработка. Жртвите биле мамени со понуди за „високоплатени“ работи како лајкување содржини на социјални мрежи, по што од нив се барале пари за наводни награди.

Оваа измама оперирала на повеќе јазици и ги насочувала жртвите кон апликации како "WhatsApp" и "Telegram", покажувајќи колку ефикасни се модерните технологии во глобалното ширење на криминални шеми.


"OpenAI" под удар на законите и етиката

Покрај технолошките предизвици, "OpenAI" се соочува и со правни битки. Последната судска одлука во САД наложува компанијата да ги зачува разговорите од корисниците на "ChatGPT", како дел од спор за наводно кршење на авторски права. Издавачи тврдат дека нивните текстови биле користени без дозвола за тренирање на AI-моделите, што го загрозува нивниот бизнис модел.

"OpenAI" предупредува дека оваа одлука претставува сериозен ризик за приватноста на корисниците, кои често споделуваат чувствителни информации во доверба. Оваа дилема ја нагласува потребата од балансирање помеѓу заштитата на авторските права и зачувувањето на дигиталната приватност во ерата на вештачката интелигенција.