Аккаунт для того, чтобы постить AI-art
Не надо много и часто. Надо редко, но метко. Не больше одной картинки в день, иначе у зрителей перегруз и они не могут бежать
Просто в фотошопе замени покоцанные пальцы на оригинальные
Так то должно хватить простого img2img с средним денойзом
Ресницы, ремень, ноготь - всякие мелочи
Нейронка-нейронка. Если приблизить, в некоторых местах можно заметить артефакты. Можно, конечно, их поправить, но зачем - среднее время просмотра картинки в интернете - 2 секунд
И вам того же
Да не о том речь. Онлайн-сервисы зацензурена, а лоры с civitai никаких ограничений не имеют
Классные, если пользоваться бесплатными моделями
Скачиваешь Forge. Запускаешь по инструкции. Пользуешься
https://github.com/lllyasviel/stable-diffusion-webui-forge?tab=readme-ov-file#installing-forge
Ideogram - это не нейросеть, а, в первую очередь, онлайн сервис для генерации изображений. Как и в случае с Midjourney у них там несколько кастомных моделей, которые объединены в сложный воркфлоу - короче, результат работы одной модели передаётся на вход второй, а потом это всё полируется сверху третьей. Если сравнивать с чем-то локальным, то ближе всего воркфлоу Comfy-UI. Только тут ещё веб интерфейс есть и модели для проверки промпта на "цензурность" и такая же проверка финального рисунка.
Я вот тоже на пони сидел, а теперь переполз на WAI. И вообще все модели хороши под свои задачи. Даже SD1.5 небесполезны
Лину Инверс тоже
Ideogram это. Не рекомендую. Пользуйтесь бесплатными локальными моделями - и гибкости больше и цензуры меньше (вообще нет). Тот же Flux, например
Нормально
Модерация не спит.
У каждого блока слева есть небольшое меню. Можно передвинуть блок вверх/вниз, а также скрыть. Кстати, доблестные модераторы оперативно убирают всё nsfw из ленты, и виден пост только подписчикам конкретного человека. У меня несколько таких постов )
Кондиционирование - это вещь )
А вот тут речь больше о возможности поставить разные промпты (любой condition-вектор, на самом деле) разным блокам Unet'а. Дают больше контроля, но усложняют настройку. А ведь можно задать даже condition для каждого блока для каждого шага генерации, но это уже мозгодействие какое-то.
Дополнительно не надо, Просто использовать подходящую под задачи модель - если надо фотореалистично, то берёшь какой-нибудь Natvis, если 2d/anime, то Pony, Illustrious, NoobAI и их производные. Если хочешь "как миджорни", то можно разными стилевыми лорами обмазаться.
Думаю, легче разобраться что у тебя локально там не выходит. Запости какую модель и с какими настройками запускаешь, хотя бы. Посмотрим чё да как
После схватки с медведем-драконом.
Из 12 начальных генерация это единственная, где пистолет торчал из нужного места. И вообще они игрушечные
gguf это просто метод "сжатия" модели - чтобы уместилась на средней видеокарты. Квантование это называется, во!
А модель та же самая - dev, что и в название отражено
Сейчас балом правят люди, у которых есть огромные датасеты картинка-описание и деньги на аренду вычислительных мощностей. Они похоже выжили все что можно из прошлогодней (SDXL) архитектуры и ожидается переход на новые DiT-модели, AuraFlow, Flux, SD3.5 - вот это вот всё.
Господин Маск, пожалуйста, снимите с меня шэдоубан в твиттере. У моих твитов по 20 просмотров в среднем (