Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено

Главный мировой идеолог безопасности ИИ Элиезер Юдковский утверждает, что начавшуюся бурную гонку за создание Настоящего ИИ может остановить "только чудо". Тем временем Сэм Олтмен, один из основателей OpenАI, авторов GPT, всё-таки подтвердил, что создание Сильного ИИ может стать Концом Света для всего Человечества.

Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено
99

Я вижу абсолютный ноль пруфов в пользу достоверности этих слов. Ни ссылок, нибуя. Так о ком угодно можно написать и приписать любые слова и поднять панику

Ответить