Сем Алтман признава пропусти: Одговара на обвинувањата и прашањето околу трагедиите

Точка

22/09/2025

18:11

347

Големина на фонт

а а а

"OpenAI" воведува нови родителски контроли за "ChatGPT" со цел да ги заштити тинејџерите по серијата самоубиства поврзани со користење на вештачката интелигенција. Овие функции имаат за цел да ја подобрат безбедноста, но останува прашањето за нивната ефикасност и вистинскиот ефект.

"OpenAI" конечно воведе родителска контрола во "ChatGPT", но дилемата е – дали ова доаѓа предоцна? Откако родителите на тинејџери, кои трагично ги загубија животите по интеракција со четботот, сведочеа пред Конгресот, компанијата се најде на пресвртница. Овој потег изгледа како задоцнета реакција – или можеби само почеток на борбата против еден огромен проблем што станува сè потежок за контрола.

Во блог-објава во вторникот, "OpenAI" најави нови опции кои ќе им овозможат на родителите да го поврзат својот профил со оној на своето дете, да ограничат одредени функции, па дури и да постават „црни часови“ кога децата нема да имаат пристап до платформата. Дополнително, родителите ќе можат да добиваат известувања доколку "ChatGPT" забележи дека нивното дете покажува знаци на вознемиреност. Ова се чекори во вистинска насока, но прашањето е – дали се доволни?


Нови функции за безбедност и заштита на децата

Покрај тоа, "OpenAI" планира и нова мерка која би можела да донесе промени – способност на "ChatGPT" да открива дали корисникот е помлад од 18 години и автоматски да го заштитува од несоодветна содржина. Звучи ветувачки, но има многу непознати: дали вештачката интелигенција навистина ќе може да препознае суптилни сигнали дека некој е во опасност? И ако ги детектира – како ќе реагира?

„Ако не сме сигурни за нечии години или имаме непотполни информации, ќе пристапиме со повисоко ниво на претпазливост и стандардно ќе поставиме искуство за помлади од 18 години“, стои во објавата. „Возрасните ќе можат да го потврдат својот идентитет за да ги отклучат соодветните функционалностите.“ Но, дали ова е само уште еден обид за решавање на проблеми кои можеби сè уште не се целосно разбрани?


Безбедноста пред приватноста – приоритет за "OpenAI"

Извршниот директор на "OpenAI", Сем Алтман, неодамна отворено зборуваше за трагедиите и за идните чекори на компанијата. Иако е јасно дека се вложуваат напори за заштита на младите, самиот Алтман призна дека можеле да направат многу повеќе. Неговите зборови беа јасни – безбедноста е поставена пред приватноста и слободата.

„Безбедноста ја ставаме пред приватноста и слободата за тинејџерите. Ова е нова и моќна технологија, и веруваме дека малолетниците мора да имаат значителна заштита“, напиша Алтман. Можеби тоа е неопходно, но очигледно е дека балансирањето меѓу заштита и слобода во дигиталното опкружување нема да биде лесно.


Обид за превенција: „Веројатно не ги спасивме нивните животи“

Пред своето сведочење во Конгресот, Алтман призна: „Веројатно зборувале за самоубиство, и веројатно не ги спасивме нивните животи.“ Тоа е болна вистина која носи тежина – но што навистина можеше "OpenAI" да направи поинаку?

„Можеби можевме да кажеме нешто подобро. Можеби можевме да бидеме поактивни. Можеби можевме да дадеме подобар совет: ’Хеј, треба ти помош,‘“ додаде тој. Оваа рефлексија е аларм за сите – колку се клучни прецизноста и одговорноста кога технологиите влијаат врз животите на младите.


Криза на менталното здравје: повик за побрза акција

Пред Конгресот, една мајка чиј син сега е во резиденцијален третман поради криза предизвикана од вештачка интелигенција, со длабока болка изјави: „Нашите деца не се експерименти, не се податоци или центри за профит.“

Таа порача: „Ова е криза на јавното здравје. Ова е војна за менталното здравје, и искрено чувствувам дека губиме.“

Овие зборови се и повик за надеж и израз на очај – порака дека итна промена е неопходна, бидејќи менталното здравје на младите не може да чека. Технологијата може да биде спас, но може да биде и опасност ако не се постават јасни граници.