Экс-специалист OpenAI опасается темпов развития искусственного интеллекта

Бывший сотрудник отдела безопасности OpenAI Стивен Адлер публично выразил серьезные опасения по поводу стремительного развития искусственного интеллекта. 

В серии постов в X он предупредил, что человечество делает «очень рискованную ставку» на эту технологию, не имея эффективных механизмов контроля.

Я в ужасе от темпов развития ИИ, — написал Стивен Адлер.

Адлер признался, что развитие ИИ вызывает у него экзистенциальные вопросы:

Когда я думаю о том, где мне растить будущую семью или сколько откладывать на пенсию, я не могу не задаваться вопросом: доживет ли человечество до этого момента?

По его мнению, лаборатории по разработке ИИ не имеют решений по контролю технологий, но продолжают соревноваться в создании искусственного интеллекта общего назначения (AGI).

Опасения по поводу неконтролируемого ИИ разделяет и Джеффри Хинтон — один из пионеров нейросетей и лауреат Нобелевской премии. Он считает, что слишком мощные алгоритмы могут выйти из-под контроля и привести к катастрофическим последствиям.

Однако не все специалисты придерживаются пессимистичных взглядов. Например, главный специалист по ИИ компании Meta Янн ЛеКун не считает технологию угрозой, а, наоборот, говорит, что ИИ способен спасти человечество от вымирания.

На фоне дискуссий о рисках китайская компания DeepSeek неожиданно представила мощную ИИ-модель, способную конкурировать с OpenAI, несмотря на меньшие затраты на разработку. Это вызвало беспокойство в американской технологической индустрии и добавило давления на OpenAI и другие компании.

Главный вопрос остается открытым: смогут ли разработчики успеть создать эффективные механизмы контроля, пока технологии не вышли из-под их влияния?

В сети набирает популярность «злой» искусственный интеллект
В сети набирает популярность «злой» искусственный интеллект
telegramБольше новостей о стиле жизни в Телеграм-каналеПодписаться
Популярные новости
]