ИИ-энтузиаст через новую нейросеть трансформировал Fortnite в несколько разных игр
Runway выкатил новую фичу - video2video (тут, справедливости ради, надо сказать, что у опенсорсного CogVideo такая фича уже есть, но качество далеко позади). Сначала это воспринимается как стилизация видео. Но если поглядеть на примеры, то это сильно шире. Оно переделывает мир вокруг. Это не пиксельфакинг и фильтры поверх картинки, это как бы перемоделинг, перерендер и перекомпоз.
В будущем, мы можем увидеть ИИ-модификации, которые будут в реальном времени менять визуальный стиль игр под тот, который нравится каждому из нас. Это же касается и фильмов:
Так же технология упрощает создание ИИ-роликов. Редактировать готовое видео – это гораздо более простая задача, чем генерить его по текстовому описанию с нуля.
Когда на вход дают видео, то там есть уже готовый реалистичный моушен и глобальная геометрия. Нужно только частично поменять, как оно рендерится, либо отредактировать только лишь какую-то часть видео. Возможно, что такие модели гораздо раньше найдут реальное применение в киноиндустрии, чем text2video. Для целей продакшена это выглядит как ВидеоКонтролНет - подснимайте референсы и крутите промпты: