Михаил Белоусов

+10
с 2020
0 подписчиков
23 подписки

Инет держит. Гигабит по оптике у меня.

У меня i9900, а вот видяха слабовата - GTX 1070. Стримлю на Ютубе. В моменте про то что с телефонов смотрят - ты прав, почти все мои зрители с планшетами и телефонами, говорят что им ок. Некоторые смотрят на телевизорах и компах, вот они ругаются на шакальность.

Я тебе больше скажу, что я даже вкатился в гигабитный интернет с 200мб прошлых, ща спидтест выдает 800мб))) Думал в этом проблема, но нет ж! Кстати, как вариант, что до моего хуего-кукуего не достаёт сервач_ок ютуба (Екатеринбург ес че)

Моё сердечко обливается кровью...

вообще судя по всему тред можно закрывать, т.к. все тесты на разных кодерах выдают одинаковую шакальность, а на выходе, после обработки, картинка выглядит неплохо.

Стримлю почти каждый день, за неделю 4-5 стримов набирается, онлайн 15-20 человек. Не много, но это честная работа, как говорится.

выход: стать популярным стримером с огромным онлайном?) и играть на этих настройках с идеальной картинкой)

Читал про такие негласные правила))) Не исключаю такого в действительности и вполне себе похоже на ситуацию)

Поставить параметр "нет"?

1

С x264 совсем не разбирался, вкатил настройки на скорую руку, видимо поэтому шакализм вышел. Попробую х264 с medium/slow пресетом + 10 бита и настройкой zerolatency.

И это уже попробовали xdddd
Тест трансляцию запустил на х264 (настройки в скрине) и выглядит оч шакально + процессор воет.

1

Пробовали, обсуждали выше. Начинается слайд-шоу, комп не тянет.

1

Пробовал, обсуждали выше. Начинается слайд-шоу, комп не тянет.

Благодарю! Но чутка уточню момент один. Вовремя трансляции картинка шакалит зернистостью, потом через сутки после обработки Ютубом и публикации (как в ссылке) выглядит более или менее нормально.

Опять же про NVENC H.264 (new) пишут, что из-за сотрудничества Nvidia и OBS смогли разработать множество уникальный решений по оптимизации и росту качества, что помогло обойти по всем параметрам x264.
Опять же я сейчас тест трансляцию запустил на х264 (настройки в скрине) и выглядит оч шакально + процессор воет.

Так ли это, что х264 лучше? Я встречал чаще информацию, что это очень простой кодировщик и его не рекомендуют для игр.

Nvidia, разлогинься, я тебя узнал.

В любом случае благодарю за консультацию, узнал много нового) Буду думать дальше)

Ну да, там сплит система еще до кучи из 2х компов. Поэтому 1440р тянет. Мне не хватает мощности)) Да и вообще в любом случае, как видишь, шакальности меньше, чем у меня)

Да, галочку убрал.
Конечно после трансляции там это все обрабатывается и через сутки выглядит более или менее нормально, но как добиться адекватной картинки вовремя трансляции. Даже далеко за примером ходить не нужно, вот прямо сейчас трансляция идёт и там нет таких артефактов https://www.youtube.com/watch?v=YQKYZaqrmJg

Божественная шакальность при 10к бита)

Ну тут вручную можно ввести и он даст сохранить. Попробую.

Может ли работать это так по аналогии, что отправляешь 10к и получаешь 7к или все же упрется в потолок 9к который предназначен для 1080p60fps? Тогда значит ли, что для получения 9к бита нужно 12-13к?

И кстати, это ты через какое ПО данные получаешь?

Хм, кстати да, а то я на Ланцоше остался. Попробую на такие параметры, как на скрине во вложении и битрейт подниму, как в справке Ютуба указан: "диапазон битрейта видеопотока: 9000–18 000 кбит/с"

Вообще хороший вопрос. У меня моник на 24. Больше 1920х1080 не про него история. Но если вручную прописать 1440р разрешение, а выводимое 1920х1080 хмммммммммммммммм Так можно повысить количество битрейта передаваемого.

Там в статье говорится про уменьшение выходного разрешения
Base Canvas: 1920x1080
Output (Scaled) Resolution: 1280x720
Я так понимаю, что в моем случае остается зеркало 1920x1080 к 1920x1080

Мхахах xd буду в первой десятки стримеров, кто там стримит)))

А! Понял про что ты, это уже сделано, но благодарю за подсказку)