Инет держит. Гигабит по оптике у меня.
У меня i9900, а вот видяха слабовата - GTX 1070. Стримлю на Ютубе. В моменте про то что с телефонов смотрят - ты прав, почти все мои зрители с планшетами и телефонами, говорят что им ок. Некоторые смотрят на телевизорах и компах, вот они ругаются на шакальность.
Я тебе больше скажу, что я даже вкатился в гигабитный интернет с 200мб прошлых, ща спидтест выдает 800мб))) Думал в этом проблема, но нет ж! Кстати, как вариант, что до моего хуего-кукуего не достаёт сервач_ок ютуба (Екатеринбург ес че)
Моё сердечко обливается кровью...
вообще судя по всему тред можно закрывать, т.к. все тесты на разных кодерах выдают одинаковую шакальность, а на выходе, после обработки, картинка выглядит неплохо.
Стримлю почти каждый день, за неделю 4-5 стримов набирается, онлайн 15-20 человек. Не много, но это честная работа, как говорится.
выход: стать популярным стримером с огромным онлайном?) и играть на этих настройках с идеальной картинкой)
Читал про такие негласные правила))) Не исключаю такого в действительности и вполне себе похоже на ситуацию)
Поставить параметр "нет"?
С x264 совсем не разбирался, вкатил настройки на скорую руку, видимо поэтому шакализм вышел. Попробую х264 с medium/slow пресетом + 10 бита и настройкой zerolatency.
И это уже попробовали xdddd
Тест трансляцию запустил на х264 (настройки в скрине) и выглядит оч шакально + процессор воет.
Пробовали, обсуждали выше. Начинается слайд-шоу, комп не тянет.
Пробовал, обсуждали выше. Начинается слайд-шоу, комп не тянет.
Благодарю! Но чутка уточню момент один. Вовремя трансляции картинка шакалит зернистостью, потом через сутки после обработки Ютубом и публикации (как в ссылке) выглядит более или менее нормально.
Опять же про NVENC H.264 (new) пишут, что из-за сотрудничества Nvidia и OBS смогли разработать множество уникальный решений по оптимизации и росту качества, что помогло обойти по всем параметрам x264.
Опять же я сейчас тест трансляцию запустил на х264 (настройки в скрине) и выглядит оч шакально + процессор воет.
Так ли это, что х264 лучше? Я встречал чаще информацию, что это очень простой кодировщик и его не рекомендуют для игр.
Nvidia, разлогинься, я тебя узнал.
В любом случае благодарю за консультацию, узнал много нового) Буду думать дальше)
Ну да, там сплит система еще до кучи из 2х компов. Поэтому 1440р тянет. Мне не хватает мощности)) Да и вообще в любом случае, как видишь, шакальности меньше, чем у меня)
Да, галочку убрал.
Конечно после трансляции там это все обрабатывается и через сутки выглядит более или менее нормально, но как добиться адекватной картинки вовремя трансляции. Даже далеко за примером ходить не нужно, вот прямо сейчас трансляция идёт и там нет таких артефактов https://www.youtube.com/watch?v=YQKYZaqrmJg
Божественная шакальность при 10к бита)
Ну тут вручную можно ввести и он даст сохранить. Попробую.
Может ли работать это так по аналогии, что отправляешь 10к и получаешь 7к или все же упрется в потолок 9к который предназначен для 1080p60fps? Тогда значит ли, что для получения 9к бита нужно 12-13к?
И кстати, это ты через какое ПО данные получаешь?
Хм, кстати да, а то я на Ланцоше остался. Попробую на такие параметры, как на скрине во вложении и битрейт подниму, как в справке Ютуба указан: "диапазон битрейта видеопотока: 9000–18 000 кбит/с"
Потестил, слайд-шоу)))
Вообще хороший вопрос. У меня моник на 24. Больше 1920х1080 не про него история. Но если вручную прописать 1440р разрешение, а выводимое 1920х1080 хмммммммммммммммм Так можно повысить количество битрейта передаваемого.
Там в статье говорится про уменьшение выходного разрешения
Base Canvas: 1920x1080
Output (Scaled) Resolution: 1280x720
Я так понимаю, что в моем случае остается зеркало 1920x1080 к 1920x1080
Мхахах xd буду в первой десятки стримеров, кто там стримит)))
А! Понял про что ты, это уже сделано, но благодарю за подсказку)
что еще ожидать от помойной компании