Ди Ди

+30 222
с 2017
446 подписчиков
27 подписок

Вопрос в обучении. Китайцы в принципе особо не ограничены авторским правом, так что многое могут себе позволить. Поглядим.

Тут речь не о том. Думаю скоро создатели видеомоделей поймут что людям нужно не только видео. Но и 2д. И вот тут Миджорни станет нехорошо (т.к. эти модели на много умнее тех, что сейчас генерят картинки)...

Этот как раз наоборот. Показыает сколько работы требуется что бы в ручную такую модель сделать. Так что специально для вас.

В общем полезный промт который ускоряет скорость вывода и делает его значительно дешевле (экномя токены) для людей который работают с большими лингвистическими моделями через api

Занятно. Я тут даже наконец выяснил как репозиторий с хаггинфейса качать (поставил на закачку)... )

Да все хорошо получилось, будем тестить...

1

Модель не выпускали, но есть какие-то воркфлоу которые вроде бы позоляют испольозвать изображения на входе. Сам не экспериментировал

1

Это азиатская модель. У них там другие ценности

3

Это сильно зависит от нейромансера... Хороший сделает так что даже эксперт не отличит (проводились исследования)

1

Нет. Результаты у всех этих "бесплатных" моделей... бесплатные. Т.е. я применяю их для специфичных задач (например голову персонажу повернуть) но не более

При умелом использовании ИИ уже превосходит большую часть художников среднего звена. Как в плане аккуратности, так и в плане концепт арта

2

Кстати говоря. С людьми тоже можно, но потребуется какая нибудь современная видеомодель (не те что запускаются на компьютере). Загрузи туда своего персонажа и попроси изменить освещение в кадре. Должно сработать.

Думаю нет. С людьми будут проблемы

Если нужно затемнить помещение, можно так попробовать (через контролнет). Потом скомбинировать тени с исходным изображением и прогнать еще раз через нейросеть...

2

Ну это очень специфично... нужно искать в нодах которые нормалями занимаются. Я так с ходу не подкажу

1

Для Comfyui есть очень много разных систем которые занимаются подобными вещами.

2

Я еще не пробовал. Думаю это все можно исправить настройками. Либо просто прогнать результат через другую модель с очень низким денойзом

2

Спасибо тебе человек! Моя нейросеть специально вносит такие ошибки в текст, что бы вы думали что я не бот (как и все в этом блоге)... )))

2

Попробуйте програть код через Le Chat или другие LLM. Только обязательно загрузите в LLM пример (содержимое файла example_node.py.example).

Попробуйте тогда KREA - там эти функции вроде были
https://www.youtube.com/watch?v=0ER5qfoJXd0&t=325s

1

А вы с comfyu работаете? Там это можно через маски кондиционирования делать. Вот воркфлоу которое показывает как это делается.

https://www.youtube.com/watch?v=mu3JEfx3PHM

1