Хакирањето со помош на вештачка интелигенција за само неколку месеци прерасна од нов безбедносен проблем во закана од индустриски размери, предупредува „Google“ во нов извештај. Аналитичарите од безбедносната група на „Google“ за следење закани наведуваат дека криминални групи и актери поврзани со држави како Кина, Северна Кореја и Русија сè повеќе користат комерцијални AI модели за да ги забрзаат и прошират кибернетичките напади.
Според извештајот, за тоа користат алатки како „Gemini“, „Claude“ и „ChatGPT“. Во светот интензивно се дискутира за тоа колку новите AI модели станале способни за програмирање и пронаоѓање безбедносни пропусти во софтверот.
„Постои заблуда дека трката во AI ранливости допрва доаѓа. Реалноста е дека веќе започна“, изјави Џон Хултквист, главен аналитичар на безбедносната група на „Google“, пишува „Guardian“. „Напаѓачите користат AI за да ја зголемат брзината, размерите и софистицираноста на своите напади. Тоа им овозможува тестирање операции, подолготраен пристап до целите, развој на подобар злонамерен софтвер и низа други подобрувања“, додаде тој.
Посебно внимание во последните недели предизвика одлуката на компанијата „Anthropic“ да не објави еден од своите најнови модели, наречен „Mythos“, поради проценка дека би можел да претставува сериозна закана за глобалната кибернетичка безбедност.

„Anthropic“ тврдеше дека „Mythos“ пронашол таканаречени „zero-day“ ранливости во „сите големи оперативни системи и сите големи веб-прелистувачи“. Станува збор за безбедносни пропусти кои дотогаш не им биле познати на производителите на софтвер.
Компанијата предупреди дека таквите способности би барале „обемна координирана одбранбена акција“ од технолошката индустрија.
Извештајот на „Google“, сепак, наведува дека една криминална група неодамна била блиску до покренување кампања за масовно искористување на „zero-day“ ранливости користејќи голем јазичен модел кој не бил „Mythos“.
Аналитичарите откриле и дека одредени групи експериментираат со алатката „OpenClaw“, AI систем кој стана вирален откако им овозможил на корисниците широк пристап до лични податоци и дигитални сметки без речиси никакви безбедносни ограничувања.

Важно предупредување од институт за AI
Стивен Мурдок, професор по безбедносно инженерство на „University College London“, смета дека вештачката интелигенција може да ѝ помогне и на одбранбената страна на кибернетичката безбедност, а не само на хакерите.
„Затоа не паничам. Дојдовме до фаза во која стариот начин на пронаоѓање безбедносни пропусти исчезна и сега речиси сè ќе биде потпомогнато од големи јазични модели“, изјави Мурдок.
Се водат дискусии и за тоа колку AI навистина ја зголемува продуктивноста на економијата. Институтот „Ada Lovelace Institute“ предупреди дека проценките за огромни заштеди и раст на продуктивноста благодарение на вештачката интелигенција често се темелат на непроверени претпоставки.

Британската влада проценува дека инвестициите во дигитални алатки и AI на јавниот сектор би можеле да му донесат околу 45 милијарди фунти заштеди и придобивки преку раст на продуктивноста. Но, во новиот извештај на „Ada Lovelace Institute“ се наведува дека повеќето истражувања за AI продуктивноста главно се фокусираат на заштеда на време и намалување трошоци, додека помалку се анализира влијанието врз квалитетот на услугите или благосостојбата на вработените.
Институтот предупредува и дека резултатите од користењето AI често значително варираат зависно од видот на работата, додека притоа недоволно се земаат предвид последиците врз вработеноста и функционирањето на јавните служби.

„Проценките за продуктивност кои ги обликуваат големите државни одлуки за вештачката интелигенција понекогаш се темелат на непроверени претпоставки и методологии чии ограничувања не се секогаш доволно препознаени“, се наведува во извештајот.
Институтот препорачува идните истражувања појасно да ја прикажуваат неизвесноста околу ефектот на AI, како и државите долгорочно да ги следат реалните резултати од AI проектите, а не само краткорочните ефекти.










