Stable Diffusion и ControlNet полностью интегрировали в Blender. Теперь генерировать изображения можно прямо внутри программы. На видео выше можно увидеть что все работает с помощью привычных нод. Можно рендедерить картинки в разы быстрее чем используя рендер движки, а так же не думать о текстурах. Нужна только форма и описание.
И в чем смысл? С таким же успехом можно и в пейнт интегрировать, будет тоже самое
Нейросети это модно стильно молодежно, или ты против прогресса? Неолудит!
[Сарказм]
Просто удобней тем кто работает в блендер. Ранее тем нужно было сохранить картинку загрузить ее например в автоматик и рендерить оттуда. Ну а если это 3д объект который ты потом захочешь крутить, то вообще морока. Тут же все намного проще. Особенно должно упростить работу с картами глубины. Насколько знаю это используется частенько
Прост мож чтобы из пеинта потом не тащить картинку в блендер. Сразу там захерачить нечто, на что опираться, моделируя.