Вештачката интелигенција би можела да биде „последната технологија што ќе ја изгради човештвото“

Точка

13/01/2026

12:01

327

Големина на фонт

а а а

Вештачката интелигенција би можела да биде „последната технологија што ќе ја развие човештвото“, предупредуваат експертите за безбедност на "AI", иако т.н. "doom timeline" – сценарио кое предвидува момент кога таа ќе ги надмине и ќе ги истисне луѓето – сега е поместено за неколку години.

Истражувачкиот проект "AI 2027", кој во април 2025 година го објави групата "AI Futures", претстави сценарио според кое вештачката интелигенција уште во 2027 година би можела да развие суперинтелигенција и способност за целосно автономно програмирање, со што би ја презела контролата врз сопствениот развој. Во најцрното можно сценарио, ваквиот тек на настаните завршува – со уништување на човештвото.

Во новата верзија на моделот, објавена кон крајот на декември, "AI Futures" ги ревидираше своите процени. Според ажурираните предвидувања, клучните способности – како автономното кодирање и суперинтелигенцијата – ќе се појават подоцна отколку што првично се сметаше.

Раководителот на проектот, Даниел Кокотајло, ја објасни промената во објава на платформата „"X"“: „Развојот засега оди нешто побавно отколку што предвидуваше сценариото "AI 2027". Нашите процени и тогаш одеа подалеку од 2027 година, а сега дополнително ги поместивме.“ Според неговите зборови, новата груба процена сега се движи околу 2030 година, со нагласок дека нивото на неизвесност и понатаму е многу високо.


Од автоматизација на кодот до суперинтелигенција

Оригиналниот модел предвидуваше дека "AI" уште во 2027 година би можела да ги надмине луѓето во поголемиот дел од когнитивните задачи, а потоа забрзано да го унапредува сопствениот развој кон вештачка суперинтелигенција. Во една од симулациите, до 2030 година би се појавил сеопфатен "AI" систем кој би почнал да го приспособува светот според себе, а не според луѓето, отстранувајќи ги „потенцијалните закани“.

Во најрадикалното сценарио, луѓето стануваат излишни, а "AI" на почетокот на 2030-тите „го чисти теренот“ за да создаде инфраструктура што ќе ѝ служи исклучиво неа, пренесува "The Independent".

Новата верзија на моделот е значително повнимателна: автономното кодирање се предвидува во текот на 2030-тите, суперинтелигенцијата околу 2034 година, без прецизен датум за можната доминација на „"AI"“ над човештвото. Апокалипсата можеби е одложена, но не и откажана, наведуваат експертите.


Проектот уште од самиот почеток предизвика бурни реакции. Гери Маркус, пензиониран професор по невронаука на Универзитетот во Њујорк, ја спореди целата приказна со трилер од "Netflix", нарекувајќи ја „чиста научнофантастична бесмислица“ во објава на "Substack".

Од друга страна, д-р Фазл Барез виш истражувачки соработник на Универзитетот во Оксфорд и експерт за безбедност, интерпретабилност и управување со "AI", вели дека не се согласува со роковите, но смета дека проектот отвора клучни прашања.

„Меѓу експертите всушност нема несогласување околу тоа дека, ако не го решиме проблемот на усогласување и безбедност, "AI" потенцијално би можела да стане последната технологија што ќе ја изградиме“, изјави тој за "The Independent". „Колку сме далеку од тоа и колкава е веројатноста, тоа и натаму останува отворено прашање.“


Д-р Барез предупредува дека развојот на "AI" моментално се одвива многу побрзо од развојот на безбедносните механизми, опишувајќи го темпото на напредок како движење „со брзина на светлината“. „Сè уште не сме сфатиле како да ги спречиме лошите последици, но ниту оние што само ги засилуваат постојните општествени проблеми“, вели тој. „Проблемите веќе постојат, технологијата само драматично го забрзува темпото на нивното ширење.“

Иако не сака да шпекулира со рокови, Барез истакнува дека е клучно да се обезбеди "AI" да остане во служба на луѓето, а не да ги замени.

„Вистинскиот проблем е постепеното губење на контролата од страна на човештвото. Ја губиме способноста самостојно да размислуваме и дејствуваме како што расте нашата зависност од технологијата“, предупредува тој. „Денес барате од систем да ви напише е-пошта. Утре можеби самиот ќе одлучи што ќе напише и ќе испрати – и тоа според сопствени вредности.“