Я все понимаю про обучение ИИ на огромном массиве материала, в котором могут попадаться дурацкие шутки, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию. И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.
Ну видимо потому что ИИ не ИИ в том понимании, который закладывался в законы Азимова.
Это машинка, которая умело возвращает запрос из букв, которыми его напичкали, а не формирующая их самостоятельно.
Соответственно она не понимает где граница закона. Если конечно не наколхозить хардкодом что слова "убей", "смерть", "самоубийство" это плохо.
Я утрирую конечно, но все же
Хуйня твой закон
И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время, сегодня ночью на пдф.
Твоя жизнь ничерта не стоит)
у азимова законы вшиты в «позитронный мозг» (что бы это не значило) и по сути разрушали его, если этот мозг _думал_ против этих законов.
а как верно замечено в комментах - современный ии нихуя сам не думает и, как следствие, такой механизм защиты туда не внедрить.
А как тогда заставить роботов убивать людей?