5070 без лучей будет слабее чем 4070с и по-другому быть не может. На слайдах нвидии явная манипуляция с данными.
5080 относительно 4080 имеет на 10% больше ядер и на 30% выше псп, при этом прирост производительности 15% получается по слайдам самой нвидиа.
5070ти относительно 4070ти имеет на 17% больше ядер и на 80%!!! выше псп, при этом прирост производительности по слайдам нвидиа примерно 20%. Т.е прирост производительности в играх примерно сходится с ростом количества ядер, а более быстрая память влияет ну пускай процентов на 5,не более.
Пока это будет меняться ты уже карту дважды сменишь😅
Дак по данным самой нвидии можно легко сделать выводы что 5070 без лучей будет даже слабее чем 4070с в большинстве игр Поскольку немного более быстрая память ей никак не компенсирует меньшее на 15% количество ядер. По факту 5070 будет примерно по середине между 4070 и 4070с в растеризации,и в лучшем случае на уровне 4070ти супер с лучами ( там где ей на это памяти хватит :D). От 5070ти следует ожидать прироста без лучей относительно 4070ти супер примерно на 5%, в лучшем случае 10%. С 5080 относительно 4080с та же история.
Причина всей этой разницы кроется в PPI и размере экрана, который с увеличением размера экрана становится как лупаЭто так, но дефолтная плавность при включении длдср это 33%, а это тоже самое что включить шарп на 67%.
И я это к тому что возможно на телевизоре наиболее заметная разница не от самого длдср, а от того что вместе с длдср у тебя используется по сути шарп на 67%, тогда как при нативном 4к шарпа нет и поэтому он сильно мыльней, и если использовать длдср без шапра,т.е. с плавностью 100%, то разница будет куда меньше скорее всего.
Но пожалуй упомяну что шарп при длдср и шарп при условном длаа это не одно и тоже. При длаа шарп выглядит так как к нему все привыкли,т.е. его использование довольно сильно бросается в глаза. Тогда как при длдср даже 100% шарп (0% плавность) в большинстве игр не бросается в глаза, полагаю негативные эффекты шарпа в данном случае скрывает именно суперсемплинг, а позитивные в виде улучшения детализации и четкости остаются.
Пожалуй можно наверное сказать даже так, шарп при нативе делает картинку резкой, что часто выглядит плохо. Тогда как с длдср шапр делает картинку именно четкой, но без излишней резкости)
4к в 5 и 6к. Но на 27 4К мониторе толку от этого полный 0У меня 32" и разница таки есть, но далеко не в каждой игре. Ну и да, если на 1440р эта разница была огромной в большинстве игр, особенно в тех что он студий сони типа хорайзена или тлоу например. То на 2160р разница как бы есть, но она и близко не стоит затрачиваемых ресурсов.
А вот если на TV включать DLDSR 5-6K, то потом 4К обратно включаешь и оно кажется полнейшим мылом, но это конечно от расстояния зависит Тут я полагаю большую роль играет шарп за который отвечает ползунок плавности длдср. Работает он так, при 100% шарп не используется, чем ниже значение тем больше шарпа нейронка накидывает. Вот попробуй поставить 100% и что то мне подсказывает даже на 4к телике разницы почти не будет уже.
В половине игр просто нельзя выбрать разрешения длдср таким методом. Я хз как другие люди его включаютНу насчет половины не знаю, но в паре игр от студий сони такое встречал. Как понимаю потому что они не умеют работать в экслюзив фуллскрин.
Решается это собственно довольно просто, выставляешь на рабочем столе длдср разрешение, заходишь в игру и там есть и нужное разрешение и ничего в ебеня не улетает.
Это по сути костыльный аналог DLAA, имеет смысл включать только в играх, где DLAA недоступен, т.к. выдает чуть более мыльную картинку, и приносит некоторые неудобства.Ошибаешься, длдср 2,25 + длсс квалити/баланс даёт всё же лучшую картинку нежели длаа. С длдср картинка более четкая и более детализированная, даже если плавность длдср поставить на 100%,т.е. вообще не использовать нейронный шарп. Банально потому что с длдср у нас на выходе получается суперсемплинг из 2160р, благодаря которому края объектов выглядят более стабильно + детализация выше.
5600x со снятыми лимитами под стресс тестом потребляет 150ватт и не греется выше 80 градусов под гаммакс300, в стоке 5600 потребляет 75вт и его охладит наверное даже блюдце за 300 рублей.
Ну нет, ты уж перегибаешь. 2160р на 1440р мониторе никогда не будут выглядеть лучше чем 2160р на 2160р. Доля правды конечно в твоих словах есть, например мыло от длсс при использовании 2160р на 1440р мониторе не видно,банально потому что разрешение на квалити пресете вовсе не может быть ниже разрешения монитора, по сути мы теряем в динамике только прибавку детализации и четкости которую нам даёт суперсемплинг. Но при этом если смотреть на картину в целом, на 2160р мониторе она всё равно будет значительно лучше в любой момент времени.
В некоторых играх есть всинк, но нет ограничения фепеса, а ограничивать фпс через рива тюнер или панель невидии мне бывает впадлу. Вот я о таких случаях и говорюЭто вообще ничего не объясняет.
Поставить лок в риве или панели не дольше чем зайти в настройки игры и включить всинк.
Если активен фрисинк то:
Если в игре есть рефлекс можно включить его+всинк и фпс сам ограничится ниже частоты обновления монитора.
В панели управления нвидиа можно включить режим низкой задержки на ультра, после чего все игры на дх12 при включении вертикалки будут сами ограничивать фпс ниже частоты обновления даже без рефлекса.
В конце концов при наличии фрисинка можно один раз залочить фпс в панели нвидиа на 160 кадров в твоём случае и забыть вообще об этом.
У меня моник на 165 гц, но ставлю я 120, потому что в некоторых играх так удобнее выставлять вертикальную синхронизацию на 60 фепесов.Кто то в 2025 году еще использует всинк с фиксированной частотой... мда...
Неужели у тебя настолько древний моник что в нём нет фрисинка?!
А что за модель?Да ноунейм китайский, тиансу или как оно там читается :D
У шильдиков вроде вообще пока нет мониторов с подобными характеристиками. Ближайшее адекватное что то это sanc g4q, но он 250гц и был ощутимо дороже на момент покупки. А мне надо было подешевле и 300гц, не больше не меньше, так как играю в основном в апекс и квейк, а в них 300 кадров это макс частота всё равно :D
1440@27 очень терпимо и хорошо после 2160@32Для меня нет, именно по этому я продал 27"1440р240 и взял 24"1440р300 и вот это уже норм, правда есть другая проблема, 24" слишком мелкий после 32" :D
я в целом. 2160@40 это телевизор, это неудобно для игрНе соглашусь, это вкусовщина и дело привычки, но да, надо 80-100см расстояние. Хотя тоже дело привычки, вон некоторые 24" носом притирают и им норм вполне.
Плюс ни одна ВК не может в полноценный 4К 144 ГцНе понимаю к чему ты это вообще сказал, поскольку 4к144 что на 32" что на 42" это всё равно 4к144 :D
Взяв 1440p 27" не прогадаешь, это базовый минимум.Тут согласен, для 90% это оптимальное соотношение и меня оно тоже вполне устраивало, но всё познаётся в сравнении. Когда то давно меня и 27"1080р75гц устраивал :D
1440p 27" IPS 180-240 Гц. Выше диагональ будет кал. 2160p 32" IPS 144 Гц. Выше диагональ будет калИнтересно как ты пришел к таким выводам?!
В сравнении с 32"2160р 27"1440р уже кал.
А если ты считаешь что 27"1440р это нормально, то самое близкое по плотности пикселей к нему это 42"2160р, а не 32".
Он же мерцает до сих пор (а на игровых LCD мерцание уже победили)Не мерцает олед не на теликах, не на мониках. Технически есть небольшое снижение яркости при каждом обновлении, но это далеко не то мерцание что было с шим на лсд. Вот в мобильных устройствах оледы да, мерцают зачастую, но и то это связано не с технологией как таковой, а с энергосбережением.
метра полтора до монитораЧто?! Либо ты очень не очень на глаз определяешь расстояние, либо тебе можно смотреть в сторону телевизоров, а не мониторов :D При 1,5 метра можно брать 55", будет в самый раз :D
Хуангу не надо сбрасывать ценник. Никто амд не покупает. Некоторые даже 3050 готовы брать, лишь бы не адм.Ну я совсем отбитых не беру в расчет, нормальные люди покупают то что имеет лучшее соотношение цены к производительности.
Я на 100% уверен что если амд выкатит 9070хт по цене не дороже 5070, то 5070 довольно быстро скинет в цене. И именно по этому я считаю что амд не будет так демпить цену, поскольку в конечном итоге это не будет иметь смысла. Типа люди скажут ну да, спасибо амд, а через пару дней хуанг скинет ценник на 5070 и люди всё равно пойдут за ней,а про "широкий жест" от амд тут же забудут)
Рынок видеокарт до сих пор сильно перегрет, нет никаких обоснований тому что видеокарты за последние 5 лет подорожали в 2 раза практически. По крайней мере это точно не связано с инфляцией или каким то дефицитом полупроводников, банально потому что центральные процессоры за те же 5 лет прибавили в цене сколько? Не более 10%.
И так же важно помнить, что 5070 относительно 5090 это как 1060 3гб относительно 1080ти, т.е. это прям огрызок за который просят столько сколько просили бы за пред топ карту если бы 2 майнинг бума не сдвинули так рынок.
по началу скорее всего да,но потом у АМД скидки хорошие бывают.Не бывает, они всегда в сегменте гп просирают старт продаж, продаж нет вообще и они по тихоньку начинают опускать ценник прощупывая по какой цене их карты начнут покупать.
Вообще 550$ вполне объективный ценник, поскольку в рт производительность будет на уровне с 5070. Да больше памяти, но при этом будет больше потребление. Да выше производительность без рт, но нет мультифреймгена и пока не понятно что там по фср4.
Короче за 550$ это был бы достойный конкурент для 5070, но я уверен что даже если амд поставит такой ценник, то хуанг просто сбросит ценник на 5070 и всё, снова как будто выбор станет не однозначным)
RTX 5090 против RTX 4090 (RT/без DLSS) — +30%RTX 5080 против RTX 4080 (RT/без DLSS) — +15%
RTX 5070 Ti против RTX 4070 Ti (RT/без DLSS) — +20%
RTX 5070 против RTX 4070 (RT/без DLSS) — +20%
А теперь вспоминаем что в этом поколении более производительные рт ядра и получаем то о чём я говорил в первые дни после презентации.
А именно, 5070 без рт слабее чем 4070с, 5070ти примерно на одном уровне с 4070ти супер, а 5080 примерно на 5% быстрее чем 4080супер.
Если 9070хт будет на уровне 4070ти супер как говорится в сливах, то получаем без рт производительность 5070ти, с лучами производительность 5070, и если при этом цена будет на уровне с 5070, то я перебегаю к красным :D
Но честно я в цену 480-550$ не верю, скорее всего амд опять сделает херню поставив ценник примерно 650$, и в таком случае большинство снова предпочтёт доплатить до 5070ти...
после 120 уже не чую разницы. 60-90-110 очень явноДак может у тебя монитор 120гц?! :D
На самом деле вопрос привычки, я прекрасно вижу разницу между 120 и 150, 150 и 180, а вот между 180 и 210 уже уверенно не могу определить. Но при этом 180 и 240 могу легко отличить. Важно просто помнить что визуально отдача убывающая, условно если между 60 и 120 кадров обозначить как 100% прирост плавности, то между 120 и 240 будет уже +50%, а между 240 и 480 будет только +25% к плавности. И тут важно конечно для себя найти баланс. Поскольку каждый шаг даёт все меньше в визуальном плане, при этом требуя от железа всё больше. Грубо говоря для прибавки 100% к плавности относительно 60фпс нам надо железо в 2 раза мощнее, для прибавки в 150% надо железо в 4 раза мощнее, а для прибавки 175% надо железо в 8 раз мощнее и так далее. Тут не стоит даже вопрос видно или не видно, даже между 1000 и 4000гц разница будет заметна, просто она не будет стоить затраченных ресурсов.
Раньше 30 выглядели как 60 сейчас. есть у меня подозрение... Нужно бы скачать прогу, измеряющую фпс, но только версии года так 2010.Эт шиза и что бы в этом в этом убедится не нужен никакой старый софт. Достаточно смартфона умеющего снимать видео.
Вы все равно больше 24 кадров не увидитеЯ правда не понимаю как вы доживаете до своих лет, если вы видите 24 кадра в секунду всего...
Так что другого пути со стороны AMD, кроме как демпинг, я не вижу.Ну я ведь говорю, это вообще ничего не даст для амд, так как хуанг на такое вполне может позволить себе скинуть ценник.
Но если вдруг окажется что цена 9070хт действительно будет не выше чем у 5070, то для меня выбор очевиден.
Я вообще целился в 5070ти, поскольку она из всей линейки выглядит самой адекватной. Но меня не интересует фреймген, да и лучи "продвинутые" не особо, а в базовых как в той же индиане даже 7000радики не сильно проседали. Так что в таких лучах 9070хт должна оставаться так же на уровне 5070ти.
Конечно, остаётся вопрос апскейла, тут надо будет пощупать длсс4 что бы оценить насколько он реально лучше прошлой версии и дождаться нормальных обзоров фср4.
Короче, спекуляции со сливами это довольно интересно, но реальную картину мы увидим только в конце месяца)
За 650$ 9070XT мало кто будет покупать, люди предпочтут доплатить за 5070 TiБудет продаваться так же как и всегда продавалась амд.
Если обобщить всю информацию то 9070хт чуть лучше либо равна в трассировке с 5070, а в сценариях без рт примерно равна 5070ти. Только исходя из этого она не может стоить как 5070, поскольку она буквально для игр получается интереснее + имеет больше памяти.
Нет, конечно они могут поставить цену в 550$, но я с уверенностью могу сказать к чему это приведёт, тут всего 2 варианта.
Либо это выливается в вечный дефицит карт и соответственно рост цены, либо хуанг скидывает ценник на 5070. Не получится простым демпингом цены увеличить долю рынка. Да и не надо оно амд, поскольку если мерить рынок геймеров не одной пк платформой, а учитывать консоли, то доля игрового рынка у нвидии и амд 50/50 примерно.
Выглядит криво. 4090 и 5090 данные взяты с роликов нвидии тупо. А 5080 просто в тупую засунута между 4080 и 4090.
Учитывая что тут макс трассировка, то просто судя по производительности с тфлопсах 5080 должна быть ближе в 4090, показывая около 18-19 кадров.
А вот без лучей 5080 будет посасывать у 4090 процентов эдак на 30
В лучшем случае в расте как 4070ти, а в лучах как супер версияи если при этом цена будет даже 550$ как у 5070, то это уже чудом будет.
Поскольку памяти больше, в лучах производительность на уровне, а в растере 9070хт должна быть быстрее. Поскольку 5070 в растере судя по данной картинке будет слабее чем 4070с, где то на одном уровне с простой 4070.
5070 с производительностью 4070 Ti SuperСудя по всему только в сценариях с лучами, а без них 5070=4070 обычная :D
Судя по всему новое поколение нвидиа без лучей это полный обосрамс, без прироста производительности вовсе. И если амд 9070хт будет стоить 500$, но при этом в целом по производительности как 4070ти супер, и в растере, и в лучах. То кажется я всё же переметнусь в красный лагерь.
Поскольку без рт судя по всему 5070 будет на 15% слабее чем 4070с, и по сути на уровне обычной 4070, и только с рт будет на уровне 4070ти супер. А 5070ти будет в растере на уровне как 4070ти супер и только в лучах будет чуть чуть быстрее чем 4080с. Но при этом 5070ти стоит то 750$.
В целом получается 9070хт в лучах будет как минимум на уровне 5070, а без лучей на уровне 5070ти, и тут конечно слабо верится что она может стоить 480$, скорее что то в районе 649$, как раз заняв нишу между 5070 и 5070ти.
Попробуй в 2к поиграть с FSR, глаза вытекут через 15 минут. Картинка с ДЛСС во многих играх выглядит лучше чем в нативе за счёт того что он с алиасингом хорошо борется.Пробовал, и при 1440р оба варианта для меня были не юзабельны. Фср очень сильно шумел обычно, а длсс очень заметно мылил + так же имел кучу различных артефактов в виде гостинга, иногда свечения контуров тонких объектов, а иногда объекты которые должны быть тонкими длсс делал жирными портя картинку просто визуально.
Единственное что реально хорошо работало и было правда лучше натива на 1440р, это связка длдср 2.25 с плавностью около 75%, и далее в играх выбор дл разрешения в 2160р+длсс поверх него.
Ну и поскольку что бы получить нормальную картинку мне в любом случае приходилось играть при 2160р, я просто купил 2160р монитор :D
И 2160р прямо сильно лучше чем 1440р, даже с учетом того что я увеличил диагональ. Вот только я не учел одного, длдср 2160р на 1440р тоже мылил в движении, просто на 1440р мониторе этого не было видно из-за получающегося суперсемплинга, а на квалити реальное разрешение даже не падало ниже 1440р. А вот на реальном 2160р изза того что резкость и детализация в статике выше, так же видно что длсс мылит при любом движении, просто чуть менее заметно.
В любом случае, надеюсь нвидиа хоть в этом не прогрела и новая нейросеть в длсс4 не будет мылить в движении.
Теперь смотрим на 5070 которой рисуют 20% прироста производительности, у неё на 4.5% больше ядер чем у 4070, и на 35% выше псп. Из чего можно ожидать прирост процентов в 10, максимум.
И я напоминаю, это приросты относительно обычных версий 4000 серии.
Теперь бегло пересчитаем относительно супер версий.
У 5080 относительно 4080с на 5% больше ядер и на 30% выше псп, между 4080 и 4080с примерно 5% производительности разница, а значит между 4080с и 5080 примерно 10% разница получается, выходит 5% нам дало увеличение ядер и 5% более быстрая память,ну примерно.
У 5070ти относительно 4070ти супер на 6% больше ядер и на 35% выше псп, межу 4070ти и 4070ти супер разница примерно 10% в производительности, отчего между 4070ти супер и 5070ти мы снова получаем 10% разницы примерно, 5% из которых за счёт увеличения количества ядер.
И теперь самое забавное, 5070.
У 5070 относительно 4070с на 15% меньше!!! ядер, но на 30% выше псп. Нвидиа при этом рисует нам 20% прироста относительно 4070, а это как раз уровень 4070с. Но как так получается то?! Даже если в данном случае более быстрая память даст не 5%, а 10% прироста, это всё равно не компенсирует такое отставание в количестве ядер.