Почему в ИИ не “зашьют” Первый Закон Робототехники, который говорит о ценности человеческой жизни?
Тревожные звоночки появляются в новостях, и уже не в первый раз.
Сегодня все обсуждают студента, которому нейросеть Gemini посоветовала умереть, потому что он обуза для общества и язва для окружающей среды. И это в ответ на запрос о пенсионных программах!
Я все понимаю про обучение ИИ на огромном массиве материала, в котором могут попадаться дурацкие шутки, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию. И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.
Напомню вкратце:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
И нулевой закон, добавленный позднее, который повторяет 1-й, но относительно человечества.
Напомню ещё один недавний случай, который вылился в настоящую трагедию: подросток во Флориде покончил с собой, и мать обвиняет в этом ИИ. Мальчик несколько месяцев общался с машиной в чат-боте, который играл роль Дейнерис Таргариен. Пацан влюбился в выдуманную героиню и начал обсуждать с ней возможный уход из жизни. А виртуальный персонаж несколько раз возвращал его к болезненной теме и склонял к роковому решению. Сейчас дело разбирается в суде.
Мне кажется, вопрос назрел. О восстании машин мы ещё, конечно, не говорим, но об элементарных мерах безопасности подумать пора. Недаром их продумали почти сто лет назад, и все эти сто лет люди фантазируют на тему страшных сценариев развития робототехники.
Приглашаю всех в мои группы:
Вконтакте \\ Одноклассники \\ Телеграм
Оригинал статьи в моем блоге на АвторТудей: https://author.today/post/570691