Slopsquatting: код от ИИ становится supply chain-уязвимостью
Нейросети не просто генерируют код — иногда они создают фальшивые зависимости. Slopsquatting — новый вид атаки, в котором злоумышленники начали создавать вредоносные пакеты и размещать их в публичных репозиториях с вымышленными именами, придуманные самими LLM’ами. Выглядит как реальный модуль — ставится, исполняется, ломает прод.
Исследование показало:
• 1 из 5 пакетов (20%), рекомендованных LLM, не существует
• Модели вроде CodeLlama "галлюцинируют" до 35% зависимостей
• GPT-4 — пока самый трезвый, но тоже ошибается
• 58% ложных пакетов повторяются — значит, их можно прогнозировать и эксплуатировать
А теперь представьте — сидишь себе, вайбкодишь, описываешь задачу, нейронка пишет код. Увидел "requests-html-pro-lite" — звучит норм? Вот ты и поймал slopsquat.
Это не баг, это уязвимость нового типа: ИИ — как звено в цепочке поставок, которое никто не проверяет.
Что делать?
• Проверять каждую зависимость и использовать инструменты типа Socket, которые сканируют и предупреждают
• Писать код самому (во всяком случае, пока)
Подписывайтесь на мой TG канал - Neko.Play.Panic() там побольше делюсь мыслями, интересными находками и новостями о всяком.