Вадим, вот читал бы ты мой блог, а не Апанасика. Тогда с лёгкостью пояснил этому микропчелу, почему он несёт несусветную хуету. Да и заодно мог растоптать его эго, напомнив, откуда вообще в истории сжатия движущихся картинок появились эти самые «векторы движения».
Как же криво написана статья. Автор ты что хотел донести, опровергнуть? (Или может специально попытался запутать, ввести в заблуждение и поднять классы? )
Что игровые движки Не генерят велосити буфер? - Так генерят, он используется как минимум чтобы добавить моушен блюр, а как максимум чтобы ТАА сглаживание работало.
Или то, что длсс3 Не использует велосити буфер? - Используется, вот тут говорят - https://www.youtube.com/watch?v=pSiczcJgY1s - на 2,57мин - (основной доёб к тебе, потому что ты буд-то специально так обрезал скриншот чтобы не было видно надписей которые тут явно говорят об использовании обеих техник. Звоночек 1)
Или то, что длсс3 использует только оптический поток на основе обычного RGB буфера+глубина? - На видео сверху говорят, что нет, используются вместе с велосити буфером.
А ещё
"как и в твоём дешёвом телевизоре от LG используют информацию о текущем и предыдущем кадре" - Звоночек 2, автор не шарит.
Телевизоры используют интерполяцию (генерация между кадрами), а DLSS 3 использует экстраполяцию (генерация кадра вперёд)- разные подходы и выходное качество.
Как доказательство можно просто посмотреть на задержку. Если бы использовалась интерполяция у длсс, задержка как минимум должна была быть в 2 раза больше, чем без генерации.
В общем автор статьи сам толком не разобрался, но пытается чему-то учить.
Чел, тебе уже ниже пояснили, что DLSS третьей версии использует именно что интерполяцию. Когда куртка сможет в экстраполяцию, тогда и приходи. Изначальный поинт же заключался в том, что как раз в случае игровых движков у инженеров больше возможностей, потому что генерация кадра это сложный процесс, состоящий из кучи слоёв из которых итоговый кадр и собирается. Вот эти слои как раз и используются для генерации кадров, а отшлифовав всё это дело сверху нейросетками, получается вполне себе приличный результат.
А у видео этого нет. Ну если только не апскейлить и интерполировать кадры на этапе постпродакшена, что и так уже давно все делают. Без всяких DLSS.
DLSS 3 использует экстраполяцию (генерация кадра вперёд)-нет
и они ж сами говорят "интерполяция"
задержка как минимум должна была быть в 2 раза больше, чем без генерации.типа того, но меньше 2x, может, если апскейл следующего кадра откладывается и из-за Reflex и каких-нибудь нераскрытых хитростей.