Главный мировой идеолог безопасности ИИ Элиезер Юдковский утверждает, что начавшуюся бурную гонку за создание Настоящего ИИ может остановить "только чудо". Тем временем Сэм Олтмен, один из основателей OpenАI, авторов GPT, всё-таки подтвердил, что создание Сильного ИИ может стать Концом Света для всего Человечества.
Через 10 лет сильный ИИ вычислит по комментариям и публикациям кто был против него и организует серию ни с чем не связанных несчастных случаев.
Зачем что-то организовывать? Просто отправит кучку Atlas’ов отпиздить комментатора ногами.