Генерируем аниме-арт в Stable Diffusion - добавляем модель NovelAI
Финальный результат
288288

а можно например подставить вариант, который получился лучше всего, и уже по нему сверху менять опять настройки, количество шагов и т.д.?
чтобы сеть делала все это не с нуля, меняя результат, позу, свет, а использовала базовое изображение как основу, не меняя в нем форму и позу, только увеличивая качество, добавляя детали т.д.

В Automatic1111 WebUI тебе нужен режим Img2Img, вкладка переключения в самом верху. В левом окне вставляешь базовое изображение. Если оно не совпадает размерами и/или соотношением сторон с 512х512 (или любым другим размером в слайдерах width и height), то можно выбрать поведение обрезки - ресайзить без сохранения соотношения сторон (resize), заресайзить по меньшей стороне и обрезать лишнее (crop and resize), или заресайзить по бОльшей стороне и заполнить пустоты пикселями края (resize and fill)

От значений denoising strength зависит, насколько слабо нейросеть придерживается оригинальному содержанию (больше значение -> сильнее отличия от оригинала)

Точечные изменения можно делать в режиме impaint, благо 20 числа комрады выпустили в свет оптимизированную для этих целей модель нейронки, в данных видео об этом рассказано и показано в подробностях https://www.youtube.com/watch?v=0_QXXphkxJI https://www.youtube.com/watch?v=rYCIDGBYYnU

А ещё можно худобедно нафотошопить желаемые изменения и прогнать новую картинку через img2img, чтобы убрать все шероховатости и сделать фотошопные изменения естественными, лично у меня результаты таким образом получались гораздо лучше

3

Добавлять детали тоже можно. И это есть в гайде в Сергея. Но я сам еще не разобрался (да и результаты получались так себе).
По большей части мне интересен результат, который выдает нейросетка сама, используя входные данные. Без дополнительных корректировок.

1