Наслушался я значит страшилок про текущий дефицит полупроводников, и что скоро бедные американцы будут покупать две трети теслы по цене одной, и айфоны на 16 гб по цене 256 гигового. И задумался я о покупке вот такого монитора, чтобы прикоснуться к High refresh геймингу и заменить свой старый второй монитор на что-нибудь более менее вменяемое.
Объясните зачем тратить 50 процентов мощности Gpu чтоб увидеть минимальную разницу в картинке?
Комментарий недоступен
Даже если не все игры будут идти в 144+, то виндой станет намного приятней пользоваться
Ну затем что есть свободная и можно потратить. Минимальная она или нет, покажет только практика. Но в играх и анимации между 60 и 30 кадрами разница для меня огромна.
https://youtu.be/OX31kZbAXsA
А вот тут итог тестов: https://youtu.be/OX31kZbAXsA?t=1836
Причём тут мощность gpu?
Большая часть мощности видеокарты зачастую простаивается, если не ставить ультра настройки с 4К. А так как меньше 3% пользователей стима имеет 4К экран - для большинства большая часть нагрузки уже спадает.
Более того, чаще бывает, что настройки неэффективно используют мощности видеокарты. Отличный пример со сглаживанием в 4K разрешении: есть отличный SSAA - рендерит игру в 8К и за счёт этого каждый пиксель сглаживается до настоящего значения, а есть DLSS, который рендерит игру наоборот в 1080P и с помощью искусственного интеллекта апскейлит до уже сглаженных 4К. Разница между картинками только в первых кадрах при смене сцены, в остальном ты увидишь минимальную разницу в картинке, а вот в производительности SSAA нагружал бы видеокарту практически в 16 раз больше.
А с мониторами на 144 герц абсолютно другая история - если не устанавливать лок фпс, то видеокарта нагружается одинаково, но выводит больше кадров на экран, за счёт чего при такой же загруженности картинка выходит плавнее.