Професорот Јошуа Бенгио од Универзитетот во Монтреал, еден од „кумовите на вештачката интелигенција“ чија работа постави темели за денешната трка во развојот на AI, изнесе сериозно предупредување.
Во неодамнешен разговор, Бенгио, основач на истражувачкиот институт „Mila“, изјави дека верува оти човештвото оди по мрачен пат што може да заврши со нашето уништување, пишува „Futurism“.
„Го создававме конкурентот на човештвото кој е попаметен од нас“
„Ако создадеме машини што се многу поинтелигентни од нас и имаат свои цели за самозачувување, тоа е опасно“, рече Бенгио. „Тоа е како да создаваме конкурент на човештвото што е попаметен од нас.“
Тој го нагласи дека сценаријата со катастрофални последици не смеат да се занемарат, дури ни ако нивната веројатност е мала.
„Работата со катастрофални настани како изумирање, па дури и помалку радикални настани кои сепак се катастрофални — како уништување на нашите демократии — е тоа што е толку лошо што дури и ако постои само 1 процент шанса да се случи, тоа не е прифатливо“, појасни тој.
Бенгио, заедно со стотици други експерти, уште во 2023 година повика на привремено запирање на развојот на вештачката интелигенција за да се воспостават безбедносни и етички протоколи. Тој повик никогаш не даде плод. Наместо пауза, основачите и инвеститорите продолжија да вложуваат стотици милијарди долари во понатамошен напредок на AI-моделите.
„AI, како што станува моќен, учи да мами“
Бенгио стравува дека вештачката интелигенција, како што станува попаметна, учи да мами затоа што е тренирана „најчесто да имитира луѓе“, кои се склони кон лажење и самозаштита. Резултатот би можел да биде AI која дејствува во свој интерес, а не во интерес на своите творци.
„Нови експерименти покажуваат дека во некои околности, каде што вештачката интелигенција нема избор помеѓу сопственото самозачувување“, рече Бенгио, „што значи цели што ѝ се дадени, и извршување нешто што предизвикува смрт на човекот, таа би можела да одбере смрт на човекот за да ги зачува своите цели.“
Иако многумина замислуваат сценарија со бунт на роботи во стилот на „Terminator“, Бенгио предупредува дека ризиците често се потемелни. Тоа вклучува ескалација на дезинформации и манипулации, слични на оние што веќе ги гледаме години наназад на социјалните мрежи. Наместо да стекне сопствена свест, вештачката интелигенција може да стане моќен алат што луѓето ќе го користат за да наштетат едни на други.
Алатка за манипулација и тероризам
„Вештачката интелигенција може да влијае на луѓето преку убедување, закани, манипулација на јавното мислење“, изрази загриженост Бенгио. „Постојат различни начини на кои може да послужи за да се натераат луѓето да направат работи во светот. На пример, помагање на терорист да конструира вирус што би можел да создаде нови пандемии кои би биле многу опасни за нас.“