Инди-разработчик, фронтэнд гуру, стример. Веду YouTube канал посвященный разработке игр на Godot Engine. Заходите на канал. https://www.youtube.com/channel/UC8…
Он вообще прикольный)
Спасибо. Факела это только начало)
Насчет движков. Народ берет Construct для 2д и простых игр или Unreal для 3д и сложных. Мой товарищ без навыков кодинга на Unreal достаточно сложные вещи пилил
Спасибо за фидбэк по монтажу. На самом деле это большая редкость, что кто-то анализирует, как видео смотрится. Негр, да. Заезжаный. Там их два было. Но я думаю, я понял, о каком речь. Как я понимаю, все эти мемасные гифки вставляют, когда футажи сложно подобрать. Это типа такой простой пусть. Поэтому все их пихают. Вернее, поэтому я их напихал. Бывает вот надо чем-то заполнить несколько секунд. Приходится доставать всякую дичь, которая эмоционально перекликается с меседжем. Вообще, после того, как я написал текст и начал монтировать ,я такие моменты старался вырезать нахуй. Типа если надо место заполнять гифками, то скорей всего это порожняк и ценности в видео не имеет. Но иногда для связки смысловых частей приходится оставлять такое. Такая вот история с негром.
Осваиваю бюджеты на продвижение как могу
Везде обман
Придется на релизе сплясать в тик-токе, чтобы ЦУ переманить в игру
Можешь зайти на канал. Там годота завались, если сильно хочется.
Я распознал, что без негатива) Может опишу подробней, как и что я делал. Сначала я сделал про это видео на 20 минут, но для ютуба получился слишком скучный контент. Поэтому я все выкинул и запилил этот короткий ролик. Текст, кстати, остался. Может переработаю и закину пост.
Понимаю
Четкий домик получился, ящитаю
Я тоже делаю видео. Стараюсь делать покороче т.к. народ не вывозит такую продолжительность. Но тема прям хотная
Мужик, тема заявлена интересная, но 1,5 часа видео. Мой потолок это минут 15, если там будет визуализация, которая постоянно подкрепляет повествование. Сорян, но не осилил.
Хм. Спасибо за рекомендации. Хорошо, что в юнити есть коробочное решение. Надо присмотреться. Для Godot приходится многое реализовывать самому. Благо на c# есть масса библиотек. Это несколько облегчает процесс.
Спасибо. Буду иметь ввиду. Когда-нибудь я доберусь и до RL
Вот это камингаут. В светлое будущее таких грубиянов не возьмут. Надо уважать труд других, гражданин коммунист. Это как никак а природа человека, если верить вашим кумирам.
Да, зависит от определения "лучше". Мне инетресно, как вообще обучаются эти модели. Какой датасет будет, если у тебя кривой бот, который плохо ездит. А тебе, например, нужен постоянно преследующий бот, изредка вырывающийся вперед
Не буду спорить. Для гоночек наверное это очень крутое решение. И можно его подтюнить под нужды геймдизайна. Буквально на днях попался интересный курс по RL на Coursera. Всё никак не могу к этой теме подобраться.
Ну а если серьезно. У меня ушло много сил и времени на подготовку материала, вычитывание теории, напиливание демки. Что такого попрашайнеческого ты увидел, что тебя это так расстроило? Я написал про поддержку, которая дейтсвительно помогает и мотивирует. Но вместо поддержки ты решил просто нахамить. Почему бы и нет.
Смилуйся, барин. Не обдели лайком и репостом. Век тебя не забуду.
Для гоночек и ФПС агенты чаще всего не должны играть лучше игрока) А то это закончится фрустрацией. В таких играх как раз контроль над агентом решает. Но в целом, если опустить проблемы геймдизайна, то чисто получить фан от тренеровки ML моделей - это очень интересный опыт. И труъ ИИ блэкбокс.
Ну тут как всегда с проклятьем размерности. Если у агента много действий, то дерево пространства вариантов сильно ветвится. Думаю, тут можно по старинке с помощью ручного управления исключать очевидно нерабочие действия, чтобы уменьшить сложность поиска. Там же под капотом A*.
Например, кейс с подъемом предметов с земли. Можно перебирать все известные агенту предметы, и GOAP сгенерит для каждого типа искомого предмета отдельное действие. Но т.к. подъем предмета требует сначала приблизиться к предмету, то GOAP запланирует еще действие передвижения для каждого такого предмета. Получается, что для каждого известного подходящего предмета будет составлен отдельный план, который GOAP потом взвесит и выберет ближайший предмет к агенту. А можно это решить очень тупо и сразу срезать простанство вариантов на этапе перебора предметов. Тупо скормить GOAP ближайший к агенту предмет, а другие просто проигнорировать. Буд-то их и нет в предствалении агента. Будет всего 1 план на выходе. Но есть риски. Может быть до этого предмета нельзя дойти и тогда агент затупит.
Спасибо за рекомендацию книги. Про иерархическую временную память мне не известно. Насчет прогресса ИИ меня удивило, что открыв книгу 70х по нейронным сетям можно увидеть +- актуальную информацию. Весь прогресс, насколько я могу судить, заключается в том, что кто-то подобрал достаточно неплохую архитектуру под конкретную задачу. Плюс появились реально жирные датасеты. Ну и GPU, разумеется. Но справедливости ради, подобрали эти архитектуры не случайные люди. Не хочу обеценивать их достижений.
Тут еще есть недостаток, который к.м.к. фатальный. Ты не контролирешь процесс. Т.е. у тебя может обучиться какая-то хрень, которая в данный момент работает ок, а потом при изменении среды сломается, и уже не факт, что обучится снова на приемлимом уровне. Это очень хрупкое решение. Как вариант, какие-то элементы игры можно подкручивать с помощью простых статистических моделей. Их хотя бы можно подебажить. Я как-то пытался дебажить нейронные сети. Это ад даже для относительно неглубоких сетей. Все эти проблемы с исчезающим или взрывающимся градиентом вообще не дебажатся, если ты не phd. Похоже, что на практике народ в своей массе тупо перебирает возможные варианты гиперпараметров. И как вы сказали, этот перебор - очень дорогое удовольствие. Один запуск может длиться очень долго и стоить очень дорого.
Есть такая классная фича - x1.5 - x2 в плеере ютуба. Многим помогает не уснуть
Лучше оставить это дедам из академии
Настоящий игровой ИИ для GOAP - это не предел кликбейта. Так то, и A* можно назвать ИИ. В целом поинт в том, что это хоть что-то из области ИИ, а не просто императивщина. RL, ML и другое статистическое обучение это круто, согласен. Но спект применения намного уже, чем у классических моделей. Я вот думаю попробовать расширить GOAP с помощью каких-нибудь моделей. Можно начать с линейной регресии для определения весов действий для начала. Не обязателно сразу пихать нейронки.
Это, кстати, одно из самых приятных. Да, разработка из за этого идет медленно, но это издержки формата. Ну и если я не буду общаться, то это будет скучно.
Спасибо, Алексей
Уже даже какую-то зависимость чувствую от этого)
Выглядит интересно