Анимация средствами Stable Diffusion Web-UI + Animator extension. Как это работает?

Да, тут целый туториал нужен, потому, что хотя на GitHub и имеется описание к Animator Extension, который я использовал, но интерполяция Google-нейронкой для сглаживания переходов между кадрами, которые сгенерировал Animator, запускать пришлось в отдельном окружении Conda, потому что модули, используемые ним, не совместимы с Web-UI. Опять же, генерация опорных изображений делалась с разрешением 576*960, которые потом в Adobe Premier добавлялась на секвенцию с нужным мне fps=30. После чего экспорт в mp4. Далее Topaz Video AI upscale 200%. Опять в Premier - задаём секвенции стандартные пропорции 9:16... И вуаля...

Установка Anaconda3, создание окружения, отладка выполнения скрипта python, доустановка модулей, которые не прописаны в списке необходимого для Google Frame interpolation, которые отcутствуют на канале пакетов Anaconda, скачивание их с сайта разработчика в версии совместимой с Python 3.9, в окружении которого запускается интерполяция из скрипта Animator Extension. Написание bat-скрипта вызова интерполяции. И это не считая установки кодировщика mp4 и работой с окружением %PATH% операционной системы.

Это если в кратце 🤓

PS: туториал в разработке, а пока результат: (Шарлиз Терон + Моника Белуччи + Кэтрин Зета Джонс). В красивой трансформации

1515
2 комментария

Вай красиво конечно. И очень очень муторно. Жду ТУТУР

1
Ответить

Плавность морфинга офигенная!

1
Ответить