Я бы ещё упомянул важную фишку: это то что можно получить доступ к приватным переменным исходного кода hdrp/urp и контролировать то, что юнити не даёт. Обычно как раз это и нужно в проектах. Например ReflectionProbe для HDRP. Разрабам лень было делать нормальное API, поэтому они просто закрыли почти весь код. Типо зачем вам управлять этим в коде? Вы кто такие?
Ой боже. Земля пухом тому кто придумал humble bumble. Лет 7 назад юнити пригласили поучаствовать за процент от продаж (ориентировочно условно 5к баксов). В итоге около 50 тысяч ключей продано. Сотни людей продавали мои ассеты на ebay и заработали просто пиздец. А в итоге я получил условно 10 центов с ключа, и вынужден был оказывать поддержку всем купившим. А представь их 50 тыщ? И у всех есть вопросики из разряда "а как поставить префаб на сцену и как в мой проект/мои скрипты/мои плагины это добавить?". А твари с ebay наварились просто на ура, без всякой поддержки. Притом я даже пытался пару человек репортнуть, мой аккаунт заблочили за это xD А юнити сказали "ну штош, мы учтём в следующий раз и сделаем ключи годными год". Ебать спасибо нахуй.
да, это мы знаем, у меня есть oculus rift1 (с датчиками), quest1, quest3. Как геймдев разработчик читал спецификации с самого их зарождения. Приходилось с ними немного работать даже. Про совместимость контроллеров слышал,, но лучше квест 5, с ещё меньшим размером, трекингом глаз и чем-нибудь ещё :)
Сейчас уже немного (по меркам сша/европы, на уровне фрилансера новичка). Но мне нравится ни от кого не зависеть и работать в своё удовольствие, поэтому для Грузии хватает
Я тоже не хотел быть vfx, раз учился и работал программистом. А до 9 класса вообще думал что буду радиодюбителем. А потом че-то пошло поехало, мне так понравилось создавать эффекты и писать шейдера, что выиграл unity awards, а потом вообще позвали в пару AAA компаний. И сейчас плотно занимаюсь низкоуровневыми шейдерами и выжимаю все соки из юнити и современных фич ;) Можно чекнуть мой посты, где то выкладывал некоторые эффекты, если интересно.
Я тут с одним спорил пару лет назад. Он не верил ни в какие цифры, даже видео на фоне с его тупыми комментами записывал. Один хуй доказывал "нет, все фотошоп"
Тогда отлично, может в будущих квестах будет такое же. А то часто в скайриме бывают проблемы когда беру стрелы из колчана за спиной. А я там буквально всех из лука убиваю, прям кайф :) Особенно ехать на лошади и стрелять
Ну я в квесте почти все игры по кабелю и проходил. Нативные игры так себе, а трансляция по воздуху как лотерея, если повезет с роутером и интерференцией. Я сменил 3 роутера и 3 квартиры, за всё время нихрена не добился нормальной задержки. А работать с виртуальными мониторами всё равно надо рядом с ПК, подключить провод вообще не проблема в таком случае (да и задержки критичны при работе/курсоре) Так что свой контингент этот шлем найдёт.
Зависит от реализации. Например отражения можно делать "пускаем из всех пикселей лучи в случайные стороны и находим отражение". С приходом indirect рейтрейсинга в shader model 6.2 (или какая-то), там появилась возможность делать трассировку непосредственно с объекта. Например для воды я уже знаю её нормаль и просто выпускаю 1 луч и получаю чистое отражение. А старый способ "брось 100500 лучей, попробуй попади в воду, потом ещё попади дальше". Такие дела в общем.
Просто трассировка сама по себе медленная, так ещё и для получения результата надо выпустить слишком дофига лучей. Это как стрелять пульками в разные стороны и надеяться что часть из них попадёт в мишень. Поэтому результаты трассировки часто выглядят как куча шумных пикселей. Вот условный тест, сверху видимо написано количество лучей из каждого пикселя. И чем больше лучей, тем выше шанс что они покроют весь экран. Поэтому полная трассировка пути в киберпанке (с подавлением шума) снижает фпс в несколько раз. И как альтернатива, в играх считают в основном вторичное освещение, тени + всякие отражения. Там лучей можно меньше использовать. А иногда даже сильно меньше, что не сильно сказывается на фпс.
Ядра трассировки это отдельная часть кристалла, которая работает параллельно. Теоретически она она может быть почти бесплатной, если основные ядра бутылочное горлышко. Щас в моде асинхронные compute вычисления, так что вполне могут параллельно считать освещение и отложенный рендеринг сцены.
Можно конечно, я думаю там так же можно писать в render texture и через compute shader рисовать частицы. Но могут возникнуть трудности, так как я использую indirect рендеринг и на gpu вызываю computeShader.dispatch Но это так же и обычным способом можно сделать.
Так это не точный рендер и не демка в аквариуме/маяке размером 10 на 10 метров. А если копнуть, окажется что этот алгоритм симуляции уже используется в играх https://www.youtube.com/watch?v=pwuwteInrVE
Это реальный мир только в России. Почему-то у работодателей идеология "это вам надо работу, поэтому благодарите что вас вообще заметили". Хотя в геймдеве и IT как-то всё таки получше с этим, но в целом HR-ы, даже в геймдеве, не понимают специфику работы и часто игнорируют важное и вообще ты мне не нравишься, иди нахуй. Притом сами разработчики адекватные и могут дать подробный фидбек, но до них часто даже и не доходит кандидат.
Я бы ещё упомянул важную фишку: это то что можно получить доступ к приватным переменным исходного кода hdrp/urp и контролировать то, что юнити не даёт. Обычно как раз это и нужно в проектах.
Например ReflectionProbe для HDRP. Разрабам лень было делать нормальное API, поэтому они просто закрыли почти весь код. Типо зачем вам управлять этим в коде? Вы кто такие?
Может юнитековская фишка была, а щас получше =/
Я не почасовую имел ввиду.
Ну кароче меньше раза в 2-3 в моем случае.
Ну может за годы че-то поменяли, но такие дела. Лучше не соглашаться на будущее
Ой боже. Земля пухом тому кто придумал humble bumble. Лет 7 назад юнити пригласили поучаствовать за процент от продаж (ориентировочно условно 5к баксов).
В итоге около 50 тысяч ключей продано.
Сотни людей продавали мои ассеты на ebay и заработали просто пиздец.
А в итоге я получил условно 10 центов с ключа, и вынужден был оказывать поддержку всем купившим. А представь их 50 тыщ? И у всех есть вопросики из разряда "а как поставить префаб на сцену и как в мой проект/мои скрипты/мои плагины это добавить?".
А твари с ebay наварились просто на ура, без всякой поддержки. Притом я даже пытался пару человек репортнуть, мой аккаунт заблочили за это xD
А юнити сказали "ну штош, мы учтём в следующий раз и сделаем ключи годными год". Ебать спасибо нахуй.
Ой не, жизнь вообще не увлекательная.
Работа да, но всё остальное полный пздц :)
да, это мы знаем, у меня есть oculus rift1 (с датчиками), quest1, quest3.
Как геймдев разработчик читал спецификации с самого их зарождения. Приходилось с ними немного работать даже.
Про совместимость контроллеров слышал,, но лучше квест 5, с ещё меньшим размером, трекингом глаз и чем-нибудь ещё :)
Сейчас уже немного (по меркам сша/европы, на уровне фрилансера новичка). Но мне нравится ни от кого не зависеть и работать в своё удовольствие, поэтому для Грузии хватает
Я тоже не хотел быть vfx, раз учился и работал программистом.
А до 9 класса вообще думал что буду радиодюбителем.
А потом че-то пошло поехало, мне так понравилось создавать эффекты и писать шейдера, что выиграл unity awards, а потом вообще позвали в пару AAA компаний. И сейчас плотно занимаюсь низкоуровневыми шейдерами и выжимаю все соки из юнити и современных фич ;)
Можно чекнуть мой посты, где то выкладывал некоторые эффекты, если интересно.
Я тут с одним спорил пару лет назад. Он не верил ни в какие цифры, даже видео на фоне с его тупыми комментами записывал. Один хуй доказывал "нет, все фотошоп"
Узбеки без велика сидят дома и делают эффекты для души, которые приносят пассивный доход?
А как регистрация влияет на это? Типо ты не можешь ничего заработат в реале, если не зарегался на dtf?
Ну я тем же самым занимаюсь уже лет 9, вопросы?
Тогда отлично, может в будущих квестах будет такое же. А то часто в скайриме бывают проблемы когда беру стрелы из колчана за спиной. А я там буквально всех из лука убиваю, прям кайф :)
Особенно ехать на лошади и стрелять
не, я имею ввиду сколько задержка от передачи по воздуху. Если они используют bluetooth/wifi то там сильно много. А если свой протокол, то уже хз.
джойстики с камерами. То есть слепых зон вообще нет.интересно какая у них задержка при передаче на гарнитуру.
Ну я в квесте почти все игры по кабелю и проходил. Нативные игры так себе, а трансляция по воздуху как лотерея, если повезет с роутером и интерференцией. Я сменил 3 роутера и 3 квартиры, за всё время нихрена не добился нормальной задержки.
А работать с виртуальными мониторами всё равно надо рядом с ПК, подключить провод вообще не проблема в таком случае (да и задержки критичны при работе/курсоре)
Так что свой контингент этот шлем найдёт.
Зависит от реализации. Например отражения можно делать "пускаем из всех пикселей лучи в случайные стороны и находим отражение". С приходом indirect рейтрейсинга в shader model 6.2 (или какая-то), там появилась возможность делать трассировку непосредственно с объекта. Например для воды я уже знаю её нормаль и просто выпускаю 1 луч и получаю чистое отражение. А старый способ "брось 100500 лучей, попробуй попади в воду, потом ещё попади дальше".
Такие дела в общем.
Просто трассировка сама по себе медленная, так ещё и для получения результата надо выпустить слишком дофига лучей. Это как стрелять пульками в разные стороны и надеяться что часть из них попадёт в мишень. Поэтому результаты трассировки часто выглядят как куча шумных пикселей.
Вот условный тест, сверху видимо написано количество лучей из каждого пикселя. И чем больше лучей, тем выше шанс что они покроют весь экран.
Поэтому полная трассировка пути в киберпанке (с подавлением шума) снижает фпс в несколько раз.
И как альтернатива, в играх считают в основном вторичное освещение, тени + всякие отражения. Там лучей можно меньше использовать. А иногда даже сильно меньше, что не сильно сказывается на фпс.
Ядра трассировки это отдельная часть кристалла, которая работает параллельно. Теоретически она она может быть почти бесплатной, если основные ядра бутылочное горлышко. Щас в моде асинхронные compute вычисления, так что вполне могут параллельно считать освещение и отложенный рендеринг сцены.
Красивых сцен у меня пока нет, надо этим заняться. Планирую делать сцены с референсов, включая освещение.
Можно конечно, я думаю там так же можно писать в render texture и через compute shader рисовать частицы. Но могут возникнуть трудности, так как я использую indirect рендеринг и на gpu вызываю computeShader.dispatch
Но это так же и обычным способом можно сделать.
Да, это вторая версия плагина kws water :)
Тогда буду рекламировать как симуляцию масла.
Так это не точный рендер и не демка в аквариуме/маяке размером 10 на 10 метров.
А если копнуть, окажется что этот алгоритм симуляции уже используется в играх
https://www.youtube.com/watch?v=pwuwteInrVE
Это просто камень 5 метров и на его фоне всё густовато :)
Ну и нужно помнить, что ресурсы не резиновые, выжимаем максимум из того что есть =/
Если "твоя английская в порядке (с) фиона", то можешь тут чекнуть мой предыдущий пост
https://www.reddit.com/r/Unity3D/comments/1j0y8cp/comment/mfgr5xt/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button
Но в целом быстро, если выставить разумное количество частиц/брызг. А симуляция так вообще на мобилках может работать.
А как иначе? :)
Почему художники рисуют ему яйца на глазах?
Это как-то связано с сюжетом и раскрывается?
Это реальный мир только в России. Почему-то у работодателей идеология "это вам надо работу, поэтому благодарите что вас вообще заметили".
Хотя в геймдеве и IT как-то всё таки получше с этим, но в целом HR-ы, даже в геймдеве, не понимают специфику работы и часто игнорируют важное и вообще ты мне не нравишься, иди нахуй.
Притом сами разработчики адекватные и могут дать подробный фидбек, но до них часто даже и не доходит кандидат.