При прохождении испробовал технологию DSR от Nvidia, масштабировав картинку до виртуальных 1440p (1.78x DL) на 1080p мониторе. Работало стабильно, хотя пишут, что некоторые игры некорректно работают с ним. Картинка становится визуально приятнее, плавнее, чётче на мониторе 24 дюйма, особенно когда переключаешь разрешения на более высокое, глаз сразу замечает разницу. Плюс, есть небольшое ухищрение, как DSL-плавность, которой можно попытаться подменить немного внутриигровое сглаживание. Также опробовал виртуальные псевдо 4k (2.25x DL; 2880х1620).
Да даже в 4к dldsr x1,78 плавность 100% делает картинку более четкой и резкой, чем native 4K.
Но тут другая проблема - во многих даже новинках местами используют текстуры с низким разрешением, которые в 1080р не видно, зато в 4к - режет глаза...
И первое что при запуске игры - лезешь на Nexus Mods в поиске uhd пака текстур...
DSR 2.25x DL делает резкость избыточной, за счёт алгоритмов обработки изображения, "плавность" позволяет чуть сгладить этот эффект. Не совсем понимаю, зачем ставить её на 100%, ведь тогда эффект чёткости, детализированной текстур будет заметно снижен. Тогда проще на родном разрешении оставаться.
Про наборы текстур знаю. Но при высоком разрешении (пусть и виртуальном) разве при тех же "Ультра" настройках текстур не выставляются наибольшие из доступных наборов текстур? По-моему, это так работает. Паки сверхвысоких текстур - именно что предназначены для 4k мониторов/тв c с большой диагональю.
В Resident Evil, насколько помню, можно искусственно выставлять качество текстур с указанием уровня потребления видеопамяти. Но это костыль, поскольку на условных 1080p ты не увидишь особой разницы между очень высокой и ультра текстурой.
Там где у камня низкое разрешение текстуры оно и будет низким, потому что текстуры разрешением выше просто нет и не закладывалось. Если только не заменять текстуру сторонней. А сторонние текстуры - дело такое себе, некоторые авторы не понимают, что засунув 4k-8k текстуру в игру, не адаптируя движок, делают игру только неряшливее.