Я щас пользуюсь Logitech G435. Они дешевле твоего бюджета, но:
- Есть 2.4г подключение
- Есть блютус подключение (хз нахуя но есть)
- Очень лёгкие, почти невесомые
- Есть микрофон, на созвонах никто не жалуется качеству
- Играют звук
Минусы:
- Вообще никакого шумодава нет (хотя может это и плюс, я никогда не пропускаю зов девушки или звонок в дверь)
- Нет влагозащиты (если вдруг решил взять уши на улицу или в зал они не подойдут)
- Качество звука не потрясает, но для игр/фоновой музыки вполне достаточно
По комбинации цены/качества/удобства/скорости доставки/нужных мне фичей — лучшие уши. Я их покупал для работы и игр за двумя компами, соединёнными через KVM, для этой цели они работают великолепно.
Очень много ошибок в посте.
Грубый вес модели на 27B - 16 Гб.
Грубый вес модели на 27В - 27*2=54 Гб. 16 Гб может быть у квантованной модели — число бит на вес примерно 0.59, это соответствует q5_k_m, вроде, либо вообще q4_k_m, я точно не помню.
Gemini Nano
Это flash, а не nano. Flash непонятно какого размера, гугл не делится — но есть Gemini flash 8b experimental и она хуже — значит, обычная flash больше по размеру. Nano доступна в хроме или в избранных приложениях на пикселе.
Mistral 7b
Мистраль очень старый, ему больше года, это чуть ли не самая старая модель из перечисленных. Надо было ministral 8b тестить тогда уж.
Как говорил Вольтер, "Я не пользуюсь вибером, но я умру за ваше право в нем общаться".
Ты шизик что ли? Покажи мне, где я это говорил.
Я говорил, что при увеличенном фреймрейте, полученном честным рендером, задержка будет меньше и при том же числе инпутов (крутить камерой, например), я почувствую разницу. При генерации кадров инпут лаг только увеличится и играть будет менее приятно, если базовый фреймрейт низкий и задержка высокая. Хз чё непонятного.
Ну, от genie 2 я вайтпейпер не читал, но в The Matrix было именно так.
Ну, я это знаю, потому что у меня сейчас аспирантура по смежной теме и есть статьи по языковым моделям — те же принципы применимы и к генерации видео ворлд моделями.
Двери там открываются и работают потому что их сначала претрейнят на миллионах часов видео и только потом файнтюнят на записях видеоигр. Таким образом, сеть "узнает" про то, что двери можно открывать, а в домах разные квартиры. В случае Майнкрафта они учили только на Майнкрафте и поэтому у них возможности среды ограничены Майнкрафтом. В genie 2 видимо не так.
Я не об этом. Я о том, что то, что генерится движком ограничено вложенным временем разработчиков. Если они сделали бесконечный процедурный мир с глажкой котов, интерьерами квартир и ограблениями — здорово. Но *вообще всего на свете*, как в днд, нет даже в дварф фортрессе. А в латентах нейронок — есть. Поэтому рл агентов и учат в моделях мира — там есть вообще все на свете, вероятное и невероятное и руками это программировать (почти) не надо.
Можно, конечно. Но войти в любой дом и погладить любую кошку там уже будет нельзя)
Ты опять пытаешься смешать всё в кучу. Я объясняю, почему разница в 10 мс *вообще* ощутима, а не только на 240+ fps. Пример с 30 и 60 fps — это иллюстрация, максимально наглядно демонстрирующая разницу в инпут лаге, которую легко проверить любому. Киберкотлеты играют на 240+ fps потому, что им важна минимальная задержка, и да, даже на таких фпс разница в 10 мс, вызванная, например, разными мышками или мониторами, всё ещё играет роль и будет ощущаться.
Плюс, когда я говорю о двух вещах сразу, я пытаюсь дать иллюстрацию принципиальной разницы между задержкой ввода и временем реакции, а не пытаюсь усидеть на двух стульях, говоря только про плюсы длсса. Дело ведь не в абсолютных значениях, а в том, где возникает задержка. Инпут лаг — это задержка между твоим действием и реакцией игры, а время реакции — между реакцией игры и твоим ответом. Это разные вещи.
И нет, я не маркетолог, а человек, который на собственном опыте (в том числе с DLSS 3, который ты, видимо, в глаза не видел) убедился в том, о чём говорю. Если ты не способен почувствовать разницу между 30 и 60 fps в плане отзывчивости управления, это твои проблемы. Бросай пить там, например, лечи вестибулярку, сходи к мозгоправу, попей колёсики, чумба.
Тут вопрос в законах а не в качестве. Сами машины давно готовы ездить, но их на дорогах не готовы видеть.
К тому же, те же роботы-доставщики вполне себе автономно катаются по Москве, требуя вмешательства операторов достаточно редко.
Можно ли, замерев и нажав условную кнопку, преобразовать все эти векторы лесистости с картинки хотя бы в облако точек, как после 3д-сканера, или, в идеале - в полигональную сетку с окрашенными вертексами?
Теоретически — можно. Обычно для этого используют чуть другие модели, правда, но модели генерации 3D изображений по тексту используют текстовые энкодеры для промптов — так что "пространство признаков" там шерится между текстом и 3D-доменом.
На практике надо будет ещё усиленно поприседать (с использованием нескольких сотен или даже тысяч H100) месяц-другой, чтобы получился приличный результат.
Сейчас поискал ссылки на статьи — хехе, ровно сегодня выложили что-то похожее на то, что ты хочешь :)
https://huggingface.co/papers/2412.03515
А, может быть, даже картинки с z-буфером хватит... нейросетка же генерит его хотя бы для себя?
Она гарантированно его генерит для себя, но опять же, преобразовать в z-буфер внутреннее представление очень сложно. Зато ты можешь достать z-буфер из картинки с помощью обычной лоры на Stable Diffusion или Flux (https://huggingface.co/black-forest-labs/FLUX.1-Depth-dev-lora).
Вообще, для генерации 3D моделей или поинт клаудов по нескольким фотографиям можно использовать так называемые гауссовские сплаты:
https://github.com/Lewis-Stuart-11/3DGS-to-PC
Что такое эти самые сплаты можно посмотреть вот тут:
https://youtu.be/HVv_IQKlafQ?si=0CzgPKIGN7Vmd1fL
Но вот про них я уже ничего интересного рассказать не смогу — совсем не моя тема. Я в основном по текстовым моделям и чуть-чуть по визуальным :)
Уже сейчас это работает и используется для обучения моделей селфдрайва автомобилей. Так что для заявленных целей (о которых наш любимый сосисочный сайт, конечно же, не написал) оно уже проверено индустрией.
Там есть миры, но не в том смысле, в котором ты думаешь.
Картинка в представлении модели, по сути, представляет собой некоторый очень многомерный вектор (список дробных чисел), где каждое число соответствует какой-то детали в картинке. Например, степень лесистости локации это первое число в векторе (от 0 до 1), время суток — второе число (от 0 до 1) и так далее. Некоторые вещи кодируются не одним числом, а несколькими — например, позиция камеры может кодироваться сразу несколькими числами.
Так как такой список чисел очень-очень длинный, мы можем закодировать практически что угодно и мы можем "перемещаться" в пространстве "миров" этой картинки, просто меняя некоторые наборы чисел. При таком "перемещении" будет меняться тот признак картины, за который отвечает этот набор — например, время суток, лесистость или положение главного героя в пространстве.
Авторы статьи смогли выделить числа, которые отвечают за перемещение, стрельбу и прочее и теперь, при вставлении картинки в модель, мы начинаем в той точке в пространстве признаков модели (то есть, в том векторе), который будет ближе всего к картинке. Так что мы таки будем перемещаться в 3D-мире, только мир там будет далеко не 3D.
Ну и экспорт "миров" работать будет — потому что мир закодирован в самой модели и в картинке, которую мы используем как первое приближение. Как только другой человек воткнёт в сеть ту же картинку, у него появится тот же мир* в симуляторе.
*на самом деле, не совсем так. Для стабильности генерации в картинки часто добавляют шум — и он может быть в некоторой степени рандомным. Мы можем, конечно, зафиксировать сиды, но из-за специфики работы видеокарт, например, тру детерминированности (как и тру рандома, лол) там никогда не будет.
Не для людей сделано, для рл-агентов.
В новости пишут, что это для игр, это действительно так. Но, как ни странно, игры эти не для людей.
Такие модели — модели мира — нужны для того, чтобы учить в них RL-агентов. В отличие от реальных игр, в таких нейронных средах можно обойти некоторые ограничения — например, мир будет бесконечным, а правила можно менять гораздо проще. Подход активно используется уже сейчас для обучения селфдрайва, например.
Почитать тут: https://worldmodels.github.io
Артефакты, очевидно, будут, картинка будет двоить как скотина. С плавностью при этом все будет хорошо — артефакты артефактами, но 90% картинки будет нормальной и если сцена для фреймгена достаточно простая (например, бег по прямой в светлой локации в алане вейке или небыстрый поворот камеры), мозг будет успешно обманут и будет казаться, что игра реально идёт в 60 фпс.
Но вот ебейший инпутлаг от 30 фпс останется, так что играть будет очень, очень некомфортно. Я играл в алана вейка и экспериментировал с dlss 3, так что знаю о чем говорю. Ты — видимо не играл и таких экспериментов не проводил. Продолжай сидеть в своем манямирке, раз не веришь очевидному.
Криво сформулировал. Я имею в виду, что если бы разницы не было, то они (как люди, которым надо быть в топ форме) бы не заморачивались с фреймрейтом. Нам в таком случае точно так же было бы пофиг.
В твоём примере со смазкой ситуация обратная: разница есть, спортсмены это знают и доплачивают за неё — и это маркер того, что на их перформанс это влияет.
А по сабжу — включи фг на 30 кадрах, чтобы стало 60. Задержка будет прям ебучей, даже несмотря на видимую плавность картинки — если ты после этого включишь честные 60 кадров, задержки как раз не будет. Вот тебе эксперимент, который подтвердит то, что я говорю.
Да, почувствуешь. У тебя игра будет обрабатывать ввод в два раза реже, поэтому отзывчивость будет на 16 мс хуже. Про спортсменов ты бред написал, потому что, опять же, если бы от фпса не зависила бы отзывчивость, то было бы на него пофиг.
Почувствуешь и то и то. Иначе киберкотлетам было бы плюс-минус пофиг во сколько фпс играть, потому что качеством картинки они могут и поступиться, а вот отзывчивостью управления нет.
Ты это подаешь как неебаца открытие, хотя это (= правило о том, что надо иметь высокий фреймрейт чтобы было комфортно играть с фг) буквально написано в официальных анонсах от амд и от нвидии.
Кроме того что мне мешает снизить настройки и включить фг на 4070 или 4060ti какой-нибудь? Ну вот хочу я перед теликом раскинуться и на контроллере алана вейка или киберпанк пройти. Врубаю длсс (далеко же все равно, не увижу разницы), врубаю фреймген, кайфую с низкой задержки (потому что в базе больше 60).
Фг делает больше фпс не засчёт улучшения производительности самой игры. Фг это когда у тебя рендерится кадр, рисуется на экране. Дальше рендерится следующий кадр, но пока не рисуется, а сохраняется в буфер. Потом система дорисовывает третий кадр, который будет между ними, рисует его на экране и потом рисует тот кадр, который был в буфере. При этом затраты на рендер кадров А и В гораздо выше, чем затраты на рендер кадра С, потому что они отсчитываются движком, а кадр С это просто интерполяция между ними. Тем не менее, рендерится он тоже не мгновенно, так что задержка по сравнению с рендерингом только кадров А и В растет.
То есть, при кадрах:
А - кадр 1, рисуемый движком
В - кадр 2, рисуемый движком
С - кадр, рисуемый фреймгеном (интерполяция между А и В)
Рисуются они в порядке:
А С В.
Важно отметить, что из-за того, что кадр С рисуется только **после** рендера кадра В, мы получаем задержку, которую в посте и меряли. Мы не можем* увеличить отзывчивость управления в таких условиях, просто потому что это не настоящий кадр, фейковый.
При этом визуально кажется, как будто бы действительно фпс возрос и при базовом фреймрейте в 60, например, кадров получается больше 60 фпс. Но задержка остаётся.
Все рекомендуют включать фг только при базовом фпс в 60 кадров в секунду как раз чтобы базовая задержка плюс задержка фреймгена была не такой заметной — но это rule of thumb, а не аксиома, потому что задержка может зависеть не только от фпса, но и от монитора, порядка рендера кадров в гпу (вертикальная синхронизация, например, увеличивает задержку), время отклика мышки/клавы/контроллера и прочего.
*Есть алгоритмы, которые генерят кадры авторегрессивно, вроде бы, у интела, но я хз, дошло ли это до прода или так и осталось статьей на сигграфе. Для FSR3 и DLSS3 вышелписанное верно.
Потому что в первом случае не успеваешь ты за игрой, а во втором — игра за тобой. Если ты не успеваешь за игрой, то это не проблема (git gud lol), а вот если игра за тобой не успевает, то ты банально не можешь целиться нормально. Противник сдвинулся, ты уже двинул мышку, а прицел ещё не сдвинулся, например. Ты это обязательно почувствуешь, потому что есть дисконнект между персонажем и тобой.
Включи лок на 30 фпс, а потом на 60 и сравни. Там как раз будет 16 мс дополнительной задержки при прочих равных. И не пизди, что разницы ты не почувствуешь.
Так замечают же. Я не видел ни одного консольщика, который бы говорил, что 60 фпс не нужно — они все говорят другое: что и 30 фпс "норм".
Ты подменяешь понятия.
Когда говорят про латенси у пилотов или киберкотлет, замеряют разницу между появлением объекта на картинке и нажатием на кнопку. Когда говорят про латенси у фреймгена или у управления, замеряют разницу между нажатием на кнопку и появлением объекта на картинку.
Причина и следствие поменяны местами. Поэтому, собственно, разница в отзывчивости управления между 30 и 60 кадрами так сильно видна — казалось бы, 16 мс всего, херня, мы же не пилоты, чтобы видеть разницу. Но нет, так как рассинхрон происходит уже не между событием и мозгом, а мышцами и событием, мы это замечаем.
В случае VR, кстати, при подобной задержке мы начинаем блевать фонтаном, лол. Так что не надо тут.
Да, второй пункт валидный, просто забавно насколько похожая ситуация. Ну и что это не помешало теням чернобыля стать легендой.
Я сейчас скачал тень чернобыля — не поверишь, там ровно та же история. Но игра при этом типа легендарная и эталон, на который надо равняться.
(мимокрокодил, во второго сталкера не играл — может быть там всё хорошо и больше похоже на Зов Припяти, зону в котором действительно можно назвать в той или иной степени живой)
В общем жду ещё положительный отзыв на телевизоры с оболочкой Сбера.
Я успел поработать в Сбере в отделе чемберов и фермы, это короче где QA телевизоров и колонок происходит, и на заводах, и уже в головном офисе, где эти самые колонки отлаживают.
Ну короче положитеьного отзыва именно на телики не дождёшься)
Очень зря, кстати. У них уже есть голосовой ассистент, который умеет делать все полезные вещи (звонить кому скажешь, ставить таймер и будильник, по быстрому гуглить всякую хрень), для более сложных задач у них есть партнёрство с опенаи, чтобы перекидывало на чатгпт.
Они не стали тратить уйму бабок и ресурсов на полноценного конкурента чатгпт (потому что это бы стоило десятки миллиардов долларов), а сделали мини-модельки, которые справляются со своими задачами на good enough уровне — суммаризация, рерайтинг, парафраза, вот эти вот все мелочи уже сделанные модели делают приемлемо. Причём с технической точки зрения они всё сделали достаточно грамотно — квантизация, чтобы не жрало память, плюс лора на претрейне, чтобы вернуть потерянное качество, плюс по лоре на каждую таску, чтобы не хранить модели-эксперты, а просто подгружать нужную лору.
Но нет, ебучие эффективные менеджеры идут воевать с опенаи/гуглом/антропиками, причём без вложений даже не сотен, а сотен тысяч нефти, они, скорее всего, проиграют.
А, лол, я забыл, что я казах с точки зрения Стима :D
Похуй на свёртки, rocm нормально поддерживайте.