Хехе, представил как проходят совещания в этой ассоциации, где сидят люди в деловых костюмах и на серьезных щах спорят будет ли новый стандарт поддерживать 4к 120 фэпэсов или нет.
Три вопроса - 1- зачем на пк хдр, если он выжигает глаза, и потому просто физически не существует 1000нитных моников? 2 вопрос - как колористы видео вообще его делают в хдр и не слепнут? Уж не делают ли они хдр видео на обычных сдр-мониторах, а хдр только юзают для теста готового результата? 3 вопрос - Как вообще дальше жить с этим размножением стандартов? Даже если взять дефолтный хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдр, что добавляет еще больше жопы контентмейкерам и неуд результатов потребителям 4- А в играх как засвет пикселей вообще работает? Ладно еще в видео метаданные говорят по каким пикселям миллиард яркости лупить - то как в играх это делается?
зачем на пк хдр, если он выжигает глазаИ не должен. HDR не про выжигание глаз. APL у HDR и SDR одинаковый. потому просто физически не существует 1000нитных моников?Существуют. Полно их уже с maxCLL >= 1000 нит. как колористы видео вообще его делают в хдр и не слепнут?Почему не слепнут - ответ выше. Как делают? Первоначально настраивается слой SDR (основа основ - 99% любого контента), накладывая на него слой метаданных мастерится HDR, просматривая его на 1000-4000 нит HDR мастеринг экранах и OLED ТВ для пробы. хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдрЕсли производители экранов не нахуевертили с PQ EOTF относительно Real Content Pick Brightness, и дисплеи откалиброваны, то на обоих экранах HDR будет на 99% выглядеть одинаково (разница будет видна только в полутонах пиковых оттенков яркости), но если прогнать видеоконтент через движок рендеринга c управляемым PQ (конвертировать в стандарт BT.2390), то на 99,999% контент будет идентичен. Если экраны не откалиброваны, и SDR контент будет отличаться. А в играх как засвет пикселей вообще работает?Точно также. Настройками в играх и консолях как раз задаются эти параметры. HGIG позволяет точнее работать механизму. Короче ваще не нравится мне эта технология на пк.Эта технология сейчас везде фрагментирована к сожалению и только на пути к унификации.
Хехе, представил как проходят совещания в этой ассоциации, где сидят люди в деловых костюмах и на серьезных щах спорят будет ли новый стандарт поддерживать 4к 120 фэпэсов или нет.
Комментарий недоступен
А какое отношение VESA имеет к HDMI?
Комментарий недоступен
Три вопроса -
1- зачем на пк хдр, если он выжигает глаза, и потому просто физически не существует 1000нитных моников?
2 вопрос - как колористы видео вообще его делают в хдр и не слепнут? Уж не делают ли они хдр видео на обычных сдр-мониторах, а хдр только юзают для теста готового результата?
3 вопрос - Как вообще дальше жить с этим размножением стандартов? Даже если взять дефолтный хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдр, что добавляет еще больше жопы контентмейкерам и неуд результатов потребителям
4- А в играх как засвет пикселей вообще работает? Ладно еще в видео метаданные говорят по каким пикселям миллиард яркости лупить - то как в играх это делается?
Короче ваще не нравится мне эта технология на пк.
Потому что она не для ПК, и до пека дошла в последнюю очередь. На ПК на сколько понимаю, сейчас даже Dolby Vision невозможно воспроизводить.
зачем на пк хдр, если он выжигает глазаИ не должен. HDR не про выжигание глаз. APL у HDR и SDR одинаковый.
потому просто физически не существует 1000нитных моников?Существуют. Полно их уже с maxCLL >= 1000 нит.
как колористы видео вообще его делают в хдр и не слепнут?Почему не слепнут - ответ выше. Как делают? Первоначально настраивается слой SDR (основа основ - 99% любого контента), накладывая на него слой метаданных мастерится HDR, просматривая его на 1000-4000 нит HDR мастеринг экранах и OLED ТВ для пробы.
хдр 10 - то на телеке с 1000 нит и на мониторе с 400 нит - это просто два совершенно разных хдрЕсли производители экранов не нахуевертили с PQ EOTF относительно Real Content Pick Brightness, и дисплеи откалиброваны, то на обоих экранах HDR будет на 99% выглядеть одинаково (разница будет видна только в полутонах пиковых оттенков яркости), но если прогнать видеоконтент через движок рендеринга c управляемым PQ (конвертировать в стандарт BT.2390), то на 99,999% контент будет идентичен. Если экраны не откалиброваны, и SDR контент будет отличаться.
А в играх как засвет пикселей вообще работает?Точно также. Настройками в играх и консолях как раз задаются эти параметры. HGIG позволяет точнее работать механизму.
Короче ваще не нравится мне эта технология на пк.Эта технология сейчас везде фрагментирована к сожалению и только на пути к унификации.