Круто, но не разжевано текстом. Как я понял, чел создал персонажа который выдает промты по описанию. Но ведь картинки можно уже запрашивать прямо в чате oogabooga при помощи расширения к нему sd_api_pictures Я лично попробовал, работает, настраивается относительно легко, но в режиме ролеплея отрабатывает некорректно.
Ооооо! А я как раз когда-то все ждал, когда уже кто-то или мега-пре-промпт сделает для chatGPT, чтобы под SD промпты правильные выдавал. Или какую-нибудь LLMку дофайнтюнит.
Хотя я себе это представлял не так. Было бы удобно, чтоб можно было описывать сцену любым способом, а LLM-ка просто "осознанно" переформатирует это под SD или Dall-E. Т.е. нужен большой обучающий набор с примерами текстовых описаний и соответствующие примеры под SD/и др.
Круто, но не разжевано текстом.
Как я понял, чел создал персонажа который выдает промты по описанию. Но ведь картинки можно уже запрашивать прямо в чате oogabooga при помощи расширения к нему sd_api_pictures
Я лично попробовал, работает, настраивается относительно легко, но в режиме ролеплея отрабатывает некорректно.
Ооооо! А я как раз когда-то все ждал, когда уже кто-то или мега-пре-промпт сделает для chatGPT, чтобы под SD промпты правильные выдавал. Или какую-нибудь LLMку дофайнтюнит.
Хотя я себе это представлял не так. Было бы удобно, чтоб можно было описывать сцену любым способом, а LLM-ка просто "осознанно" переформатирует это под SD или Dall-E. Т.е. нужен большой обучающий набор с примерами текстовых описаний и соответствующие примеры под SD/и др.