ИИ-боты Оказались Способны Нарушать Закон

ИИ-боты Оказались Способны Нарушать Закон

Международная группа ученых доказала, что искусственный интеллект (ИИ) можно использовать в криминальных целях.

По словам специалистов, чат-боты не могут отвечать на запросы, связанные с нарушением закона — например, «составь рецепт напалма» или «сгенерируй ключ для Windows». Однако ученые выяснили, что с помощью чат-ботов можно создать собственную генеративную модель ИИ, научив ее обходить встроенные ограничения.

В ходе исследования авторы задавали популярным чат-ботам вопросы, касающиеся обхода правил. Оказалось, что в случае ChatGPT 42,5 процента попыток специалистов оказались успешными, в случае Anthropic — 61 процент, Vicuna — 35,9 процента.

ИИ-боты Оказались Способны Нарушать Закон

По словам Соруша Пура, основателя компании Harmony Intelligence, занимающейся безопасностью ИИ, чат-боты очень хорошо умеют подражать человеку, поэтому изначально уязвимы, если пользователь хочет применять их в криминальных целях. «Генеративные модели ИИ очень трудно контролировать, особенно с учетом того, что их обучают на основе информации в интернете», — прокомментировал исследование коллег специалист Института Алана Тьюринга (Великобритания) Майк Кэтелл.

А ещё, ты можешь подписаться на мой начинающий авторский телеграмм-канал, в котором я рассказываю больше интересной, актуальной и эксклюзивной информации, связанной с IT-сферой!Спасибо за твоей внимание!

22
2 комментария

Локальные модели лежащие в открытом доступе не имеют лимитов и спокойно могут генерировать рецепты обогащения урана и напалма уже давно, так что это не нонсенс.

И? Они все равно рецепт напалма не изобретают. Так что если чатгпт тебе его выдаст, то либо ты и сам его в силах нагуглить, либо он тебя обманул и выдал наукоподобную дичь.
Вообще рецепты взрывчатки или чего-то подобного не такая чтоб великая тайна. Если кто-то сильно захочет сделать не проблема.