Например, заказчик сможет сгенерировать несколько примеров для художника, чтобы лучше показать, что он хочет получить.
Скорее наоборот, художник будет генерировать что-то абстрактное, для референса, чтобы адаптировать в рисунок, как с сердцем из статьи. На хабре, была статья, когда чел, рисующий дизайн-картинки для автохолдинга пытался получить от нейросети аналог своей работы и сеть не могла сгенерить нужный ракурс, выражение лица, стиль и т.д.
Спасибо за статью! Я думаю, это может работать в обе стороны. Я описала свой пример, когда я заказывала художникам рисунки по своему описанию. Я думаю, что в первом приближении можно описать персонажа MidJourney или DALL-E и пользоваться таким нейросетевым "референсом" персонажа. Например, hazelnut eyes raven hair, moon on the backgroundитд, и в таком виде показать художнику наметки персонажа, чтобы художнику уже было на что ориентироваться. MidJourney-то можно условно бесплатно помучить и получить не совсем дрянной референс, а чтобы художник рисовал чужого персонажа исключительно со словесного описания — это уже дополнительные $$. Многие художники вообще со словесных описаний не рисуют. Так что мне кажется, что можно через нейросеть добиться приемлемой картинки и с таким наброском идти заказывать иллюстрацию.
С другой стороны, это действительно не отбирает работы художников и дизайнеров, как описано в статье, которую Вы приложили. Я думаю, что это новые возможности для синтеза)
Например, заказчик сможет сгенерировать несколько примеров для художника, чтобы лучше показать, что он хочет получить.
Скорее наоборот, художник будет генерировать что-то абстрактное, для референса, чтобы адаптировать в рисунок, как с сердцем из статьи. На хабре, была статья, когда чел, рисующий дизайн-картинки для автохолдинга пытался получить от нейросети аналог своей работы и сеть не могла сгенерить нужный ракурс, выражение лица, стиль и т.д.
Статья
https://habr.com/ru/post/684900/
Спасибо за статью! Я думаю, это может работать в обе стороны. Я описала свой пример, когда я заказывала художникам рисунки по своему описанию. Я думаю, что в первом приближении можно описать персонажа MidJourney или DALL-E и пользоваться таким нейросетевым "референсом" персонажа. Например, hazelnut eyes raven hair, moon on the backgroundитд, и в таком виде показать художнику наметки персонажа, чтобы художнику уже было на что ориентироваться. MidJourney-то можно условно бесплатно помучить и получить не совсем дрянной референс, а чтобы художник рисовал чужого персонажа исключительно со словесного описания — это уже дополнительные $$. Многие художники вообще со словесных описаний не рисуют. Так что мне кажется, что можно через нейросеть добиться приемлемой картинки и с таким наброском идти заказывать иллюстрацию.
С другой стороны, это действительно не отбирает работы художников и дизайнеров, как описано в статье, которую Вы приложили. Я думаю, что это новые возможности для синтеза)