3D сканирование Лоди-сада превращено в ландшафт Minecraft 🕌🌳 с использованием NeRFs, ControlNet, Stable Diffusion

Превращение 3D сканирования Лоди-сада в ландшафт Minecraft - это действительно удивительное достижение технологий, которые используются в современном мире. Уникальные инструменты, такие как NeRFs, ControlNet, Stable Diffusion и EbSynth, позволяют разработчикам создавать точные 3D модели объектов и сохранять детали их текстуры и цвета и изминять их до неузнаваемости.

С помощью этой технологии люди могут посетить и изучать культурные места, такие как Лоди-сад, не выходя из своего дома. Также это помогает сохранить эти места для будущих поколений.

NeRFs является новым методом генерации изображений на основе трехмерных моделей, который использует нейронные сети для предсказания, как свет будет отражаться от каждой точки объекта. ControlNet позволяет перекрасить полученные кадры в любой стиль без потери консистентности.

Stable Diffusion используется для обрисовки кадров в новый стиль а EbSynth используется для синхронизации анимированных текстур на основе изображений. С помощью всех этих инструментов разработчики могут создавать красивые и реалистичные трехмерные модели, которые полностью сохраняют детали и особенности оригинального объекта.

Эта технология дает возможность людям изучать мир и его культурное наследие виртуально. Без необходимости физически посещать места, люди могут погрузиться в уникальный виртуальный опыт, который дает им возможность увидеть, как выглядят эти места в реальном времени.

Подписывайтесь на мой телеграм канал, там я делюсь всеми секретами потрясающих генераций и новостями из мира нейронок.

66
7 комментариев

удивительное достижение технологийСорян, но нет, пока что нет, вот как только из кадра в кадр не будут меняться детали, тогда да, тогда я скажу что норм. А пока, это выглядит так будто каждый кадр размазывается

3

Вот-вот, красивые слова, а на видео тем временем лютый треш

11

т.е. оно прямо в формате майнкрафта? можно как карту загрузить?

1

Нет конечно, очередная нейромазня в стиле

12

Больше походе на badtrip

1

Прошу прощение за оффтоп, видел ваши материалы по Stable Diffusion –возможно ли полученное в img2img изображение потом как то использовать в text2img ну или как то иначе сгенерировать изображение на основе этого изображения. Допустим в img2img только лицо или верхняя часть персонажа, а нужен полный рост?