Вопрос в обучении. Китайцы в принципе особо не ограничены авторским правом, так что многое могут себе позволить. Поглядим.
Тут речь не о том. Думаю скоро создатели видеомоделей поймут что людям нужно не только видео. Но и 2д. И вот тут Миджорни станет нехорошо (т.к. эти модели на много умнее тех, что сейчас генерят картинки)...
Этот как раз наоборот. Показыает сколько работы требуется что бы в ручную такую модель сделать. Так что специально для вас.
Промт который экономит кучу денег и "промт" на ДТФ от Саши Алексеевой это немного разны вещи... )))
В общем полезный промт который ускоряет скорость вывода и делает его значительно дешевле (экномя токены) для людей который работают с большими лингвистическими моделями через api
Вот это и выяснил )))
Занятно. Я тут даже наконец выяснил как репозиторий с хаггинфейса качать (поставил на закачку)... )
Да все хорошо получилось, будем тестить...
Модель не выпускали, но есть какие-то воркфлоу которые вроде бы позоляют испольозвать изображения на входе. Сам не экспериментировал
Это азиатская модель. У них там другие ценности
Это сильно зависит от нейромансера... Хороший сделает так что даже эксперт не отличит (проводились исследования)
Нет. Результаты у всех этих "бесплатных" моделей... бесплатные. Т.е. я применяю их для специфичных задач (например голову персонажу повернуть) но не более
При умелом использовании ИИ уже превосходит большую часть художников среднего звена. Как в плане аккуратности, так и в плане концепт арта
Не знаю
Кстати говоря. С людьми тоже можно, но потребуется какая нибудь современная видеомодель (не те что запускаются на компьютере). Загрузи туда своего персонажа и попроси изменить освещение в кадре. Должно сработать.
Думаю нет. С людьми будут проблемы
Если нужно затемнить помещение, можно так попробовать (через контролнет). Потом скомбинировать тени с исходным изображением и прогнать еще раз через нейросеть...
Ну это очень специфично... нужно искать в нодах которые нормалями занимаются. Я так с ходу не подкажу
Для Comfyui есть очень много разных систем которые занимаются подобными вещами.
Какие нейросетки?
Я еще не пробовал. Думаю это все можно исправить настройками. Либо просто прогнать результат через другую модель с очень низким денойзом
Спасибо тебе человек! Моя нейросеть специально вносит такие ошибки в текст, что бы вы думали что я не бот (как и все в этом блоге)... )))
Если тренировать на чем-то другом - засудят )))
Попробуйте програть код через Le Chat или другие LLM. Только обязательно загрузите в LLM пример (содержимое файла example_node.py.example).
Попробуйте тогда KREA - там эти функции вроде были
https://www.youtube.com/watch?v=0ER5qfoJXd0&t=325s
А вы с comfyu работаете? Там это можно через маски кондиционирования делать. Вот воркфлоу которое показывает как это делается.
Ну вот и я о том. Ждем коммерческие релизы