Баланса нет: достаточно ли процессора 2014 года для топовой видеокарты 2020-го?
А конкретнее - сможет ли i7-4770k прокормить RTX 3080 и не оставить производительность, как говорится, on the table? Ответы внутри.
Теория
Bottleneck - явление, при котором какой-то определенный компонент системы является ограничивающим для всей системы. Например, двоечник в вашей группе по проекту, или редакция на DTF.
В контексте игр, видеокарт и прочего бутылочное горлышко чаще всего проявляется в несбалансированной связке процессора и видеокарты. Здесь возможны два случая:
- CPU слишком слаб, и не успевает подготовить информацию для видеокарты, от чего та простаивает и не работает в полную силу
- Или наоборот, ограничивающим фактором становится GPU, который не успевает обработать данные на своей стороне
Чаще всего в игровых системах имеет место второй случай - процессора хватает с лихвой, и производительность ограничивается видеокартой. В такой ситуации полезен апгрейд видеокарты - процессора хватает и на более мощный GPU.
Но спустя пару апгрейдов видеокарты она может перестать быть горлышком, а геймер будет все чаще замечать высокий процент загрузки CPU, сигнализирующий о неминуемой смене камня.
Практика
С подобным столкнулся и я. В 2014 году мной была собрана достаточно мощная на то время конфигурация:
CPU: Intel Core i5-4570 (впоследствии обновлен на i7-4770k)
RAM: 8 ГБ Crucial DDR3 1600 MHz (потом докинул еще одну плашку на 8)
Материнская плата, кулер, корпус и прочее не важны в контексте данной статьи, поэтому опущу их.
Система увидела несколько видеокарт:
- AMD Radeon R9 280X
- Nvidia GeFroce GTX 1080
- Nvidia GeFroce GTX 1080 Ti
- Nvidia GeFroce RTX 3080
Видя цифры прироста в производительности видеокарт нового поколения, я задался вопросом - а насколько мой компьютер ограничен семилетним процессором и еще более старой памятью? Возможно, апгрейд до 3080 с 1080 Ti вообще не имеет смысла, и лучше обновить платформу?
Методология
Как узнать, насколько сильно i7-4770k ограничивает производительность в сравнении с процессорами свежих поколений Intel и AMD? Сравнивать fps моей системы "в лоб" с системами, на которых тестировали RTX 3080 различные блогеры не имеет смысла. Для корректного сравнения нужно протестировать одинаковые игры с одинаковыми настройками на одинаковой видеокарте, меняя только платформу.
Поэтому я решил пойти не совсем верным, окольным путем - сравнить разницу в производительности между GTX 1080 Ti и RTX 3080 на моей старой системе и на новых системах тестеров. Если у меня прирост меньше - значит, CPU является боттлнеком.
Пример: допустим, на системе с мощным современным Ryzen 5900X видеокарта 1080 Ti может обеспечить около 40 fps в среднем на выборке из различных сцен в Cyberpunk 2077. Меняем карту на RTX 3080, оставляя все остальное железо и настройки неизменными - получаем 70 fps в среднем (цифры из головы).
Если мы достанем из кладовки старенький i7-4770k, и повторим все тесты, получим 40 fps на 1080 Ti и 50 fps на 3080 - в паре с новой видеокартой система очевидно ограничена процессором и памятью.
Но у меня нет 5900X в качестве референса, поэтому сравнивать я буду проценты. То есть, из примера выше: разница между 1080 Ti и 3080 на новой системе составляет 75%, а на старой - 25%. Из этого можно сделать вывод, что 4770k просто не может полностью загрузить RTX 3080.
Итак, тесты. Я выбрал 7 игр, в которых есть встроенные тесты производительности - для повторяемости результатов. Игры на разных движках для более репрезентативной выборки. Тест проводил в двух разрешениях, с двумя видеокартами - в итоге 28 точек сравнения. Все игры были установлены на SSD.
Я знаю, что обычно при тестах процессоров используют низкие разрешения, дабы снизить нагрузку на видеокарту и подчеркнуть разницу в производительности разных камней, но передо мной стояла другая задача, сугубо практическая. Посмотреть, сколько производительности я теряю в реально используемом разрешении (в моем случае 1440р и 2160р). Тесты в низких разрешениях практической пользы для меня не принесли бы.
Список игр
- Red Dead Redemption II
- Horizon Zero Dawn
- Shadow of the Tomb Raider
- Control
- Assassin's Creed Odyssey
- Metro Exodus
- Far Cry New Dawn
Результаты
1440р - разрешение, в котором зависимость от процессора видна не так сильно, как в 1080р, но она все равно присутствует. Например, Far Cry New Dawn, Shadow of the Tomb Raider и Assassin's Creed Odyssey практически не увидели прироста от смены видеокарты. Однако Red Dead Redemption II и Control не настолько процессорозависимы - прирост двукратный.
В 2160p ситуация меняется - здесь основной упор идет на видеокарту. Прирост есть везде, минимальный - в играх Ubisoft. Видимо, их непревзойденный и живой открытый мир требует большое количество просчетов симуляций на процессоре.
Для наглядности взглянем на проценты:
Разброс огромный - от 8% в SotTR до 110% в RDRII
В 2160p картина более ровная: минимальный прирост составляет 30% в FCND, максимальный - 133% (!) в Control. Напомню, все настройки не менялись.
Сравню проценты прироста, полученные мной, с процентами известных сайтов techpowerup.com, overcklock3d, guru3d (цветом светлее выделены данные тестеров, темнее - мои):
Только в двух играх мой процессор не был боттлнеком - Far Cry и RDRII. В остальных же разница приростов варьируется между незначительной (Control) и огромной (ACO, SotTR, HZD). Да уж, 4770k точно просится на покой.
В 2160p результаты не настолько плачевны - в высоком разрешении нагрузка на видеокарту возрастает и итоговый результат продиктован уже не только ограничениями процессора, но и видеокарты.
Был ли апгрейд до RTX 3080 полезен? Однозначно да, прирост производительности даже на старой системе местами двукратный, по сравнению с GTX 1080 Ti.
Получил бы я больше, обновив заодно и платформу до чего-то более современного? Ответ такой же - да, процессор семилетней давности в паре с DDR3 очень заметно ограничивают мощь монстра от Nvidia.
Вывод: жду DDR5 ( ° ʖ °)