Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр
Собирайте комбинации из блоков! Бесконечный режим, более 100 уровней, ежедневные задания и турниры.

Расслабьтесь и отдохните: игра без ограничений по времени.

Проверьте свою смекалку: головоломка для любителей

Блоки Судоку - расслабляющая головоломка

Головоломки, Гиперказуальные, Мобильная

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • SergeyKorsun SergeyKorsun 12 постов
  • SupportHuaport SupportHuaport 5 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня

Stable Diffusion + Обучение

С этим тегом используют

Арты нейросетей Арт Нейронные сети Девушки Эротика Аниме Anime Art Образование Учеба Урок Программирование IT Английский язык YouTube Все
86 постов сначала свежее
3
Sergikens
Sergikens
2 года назад
Stable Diffusion & Flux

Подскажите⁠⁠

Всем привет, подскажите есть ли подходящая модель для генерации антропоморфных лиц, типа приложенных, или подходящие более менее промты?

Подскажите Обучение, Stable Diffusion, Промты для нейросетей
Подскажите Обучение, Stable Diffusion, Промты для нейросетей
Подскажите Обучение, Stable Diffusion, Промты для нейросетей
Показать полностью 2
Обучение Stable Diffusion Промты для нейросетей
4
6
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux

Состоялся релиз первой открытой txt2video модели⁠⁠

По словам создателей она была обучена на 1.7 миллиардах параметров и способна создавать видеоролики по описанию.

Демо: https://huggingface.co/spaces/hysts/modelscope-text-to-video-synthesis
Huggingface model: https://huggingface.co/hysts/modelscope-damo-text-to-video-synthesis
Model: https://modelscope.cn/models/damo/text-to-video-synthesis/files
Git: https://www.modelscope.cn/damo/text-to-video-synthesis.git

На данный момент для запуска локально требуется 16Gb видеопамяти. А так же пользователи жалуются что почти на всех генерациях присутствует watermark одного из фото и видео стоков.

Канал с гайдами, а теперь видимо и с новостями.

Пообщаться с единомышленниками вы можете в нашем нейробратском комьюнити.

Показать полностью
[моё] Нейронные сети Stable Diffusion Арты нейросетей Цифровой рисунок Обучение Видео Без звука
1
33
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Хотели когда-нибудь создать свою модель выложить на civitai и грести лайки? Что же после этой статьи вы станете к этому на один шаг ближе.


Если вам уже приходилось работать с режимом инпейнт, то вы должны были заметить что у некоторых моделей есть их инпенйт версия и она в этом режиме работает намного лучше. Но проблема в том что некоторые модели такой версии не имеют. Что же, давайте сделаем ее сами.

Заходим в наш automatic1111, а затем в Checkpoint Merge.

Нам понадобятся модель для которой вы хотите сделать инпейнт версию, а так же ее родитель. У большинства он сейчас 1.5. Узнать родителя модели можно на странице где вы ее скачивали. В основном это 1.5. Ну и инпейнт версия этого родителя. Скачать 1.5 (7.7Gb). Скачать 1.5-inpaint (4.3Gb).

Выставляем все как на скрине и жмем Merge:

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Модель будет сохранена в папку где находятся ваши основные модели.

Что мы сделали? В целом, все можно понять по формуле A + (B - C) * M. Мы вычли из целевой модели то что имеет отношение к обычной 1.5, получили только те веса которые делают ее такой какая она есть, а затем влили это всё в 1.5-inpaint. Получили инпейнт версию нашей модели.

Что по настройкам:

ABC - наши модели
Custom name - имя для вашей новой модели
Multiplyter - коэффициент смешивания. Чем ближе к нулю тем меньше воздействия на модель A. чем ближе к 1 тем больше = )


Interpolation Method - метод воздействия.
No interpolation - Выключить. Нужна тогда когда вы просто хотите изменить формат модели например или добавить в нее VAE. Нужна только одна модель.
Weight Sum - суммировать веса модели и получить либо полную фигню, либо что-то интересное. Требует две модели. A * (1 - M) + B * M.
Add difference - то что мы использовали выше. Требует выбора трех моделей потому что к первой добавляется разница между третьей и второй. A + (B - C) * M.

safe as float16 - теряем в точности вычислений, но не сильно. Уменьшаем вес модели, иногда довольно сильно (если до этого она была float32).

Copy config from - Это для SD2. и выше. Они имеют с собой файл настроек, тут мы указываем как эти настройки следует копировать. Я ни разу не смешивал версии выше 1.5. Они мне не интересны.

Save in VAE - можете добавить в модель свою VAE.

Checkpoint format - Некоторые веб интерфейсы не поддерживают safetensors пожалуй это единственная причина почему можно было бы выбрать ckpt в остальных выбирайте safetensors так как он безопасней, в том плане что, в ckpt можно поместить работающий вирус, а в safetensors нет.

Discard weights with matching name - это новая настройка для стандартного интерфейса и очень глубокая нора. Сюда пока не лезем. Тут нужно рассказывать про то что такое модели про слои и веса.

Вернемся к нашей свежесозданной модели.

Эта версия должна справляться с задачами инпейнтинга намного лучше. Давайте проверим. Идем в инпейнт и не меняя никаких настроек..
Свежесозданная инпейнт версия нашей модели:

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Обычная версия нашей модели:

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Просто 1.5-inpaint:

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Наверное стоит пояснить для новичков, что получить первый результат на обычной версии модели можно, подкрутив настройки, но как видим инпейнт менее к ним привередлив. Что больше нравится судить вам. Как всегда призываю к экспериментам. По моему опыту, с инпейнт версиями моделей мне работать проще. Жаль только забываю на них переключаться..

Теперь давайте создадим свою модель на основе уже имеющихся. Процесс схож.

Простое слияние похоже на рецепт какого-нибудь сложно сочиненного блюда где мы смешиваем какие-то ингредиенты в отдельных тарелках, а затем смешиваем эти отдельные тарелки между собой. Например, видел вот такую формулу которая должна вам дать модель очень похожую на нынче популярную chillout.

museV1_v1:0.4+(Basil_mix_fixed:0.3+(lofi_V1Fp16:0.5+colorful_v13))

Тут происходит следующее: lofi_V1Fp16 + colorful_v13 с коэффициентом смешивания 0.5. Basil_mix_fixed с коэффициентом 0.3 складывается с результатом их смешивания. И итоговый результат смешивается с museV1_v1 с коэффициентом 0.4 для museV1_v1. Всё просто.

Просто, чтобы показать, давайте смешаю что-нибудь от балды (многие модели так и были созданы. Путем экспериментов):

Выбираю weight sum. Первое смешивание.

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Mainhentai (нужна была по работе ) сложу с полученной моделью

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Хорошая идея записывать в имени файла то как вы смешиваете

Решил все это подмешать снова в реву.

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Результат нашего супа из моделей (сид и промпт зафиксированы + orangemix vae):

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Просто рева:

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Ну и чтобы не говорили что ничего ж не меняется. Результат нашего мутанта + артэндэрос 0.35, который заточен на реализм. Получаем почти ревовские пропорции с более реалистичной кожей:

Смешивание моделей. Создаём свою inpaint модель, на основе вашей любимой модели Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, Видео, Без звука, Длиннопост

Получилось лучше или хуже? Достаточно ли мы перенесли из оупенджорней? Не многовато ревы? По одному сиду и промпту сказать почти не возможно. Необходимо идти в xyz plot и проводить множество тестирований. Более того это нужно делать на каждом шаге и шаге после этого шага, чтобы выбирать подходящую степень смешивания. Делать это на разных промптах с использованием разных стилей которых вы возможно пытались добиться. Я же попытался вам открыть сам процесс простого смешивания. Надеюсь удалось. Более продвинутые техники постараюсь описать позже.

- для удобства ваших экспериментов есть экстеншены которые имеют намного больше возможностей чем стандартный. Найти можно в самом автоматике.

- Примеры других смешиваний: раз и два(NSFW).

А на этом пока всё. Я написал уже множество гайдов от для самых маленьких, до тренировки моделей на своих лицах. Из самых недавних про позинг в ControlNet. Часть из них можно почитать в моём профиле. Но найти все пока что можно только в телеграм канале.

Поделиться результатом или задать вопрос, а так же пообщаться с единомышленниками вы можете в нашем нейробратском комьюнити.

На моем бусти вы сможете найти датасеты для обучения, доп материалы к гайдам и многое другое. Или просто финансово отблагодарить если мои материалы вам как-то помогли.

Показать полностью 10
[моё] Обучение Нейронные сети Stable Diffusion Арты нейросетей Цифровой рисунок Digital Видео Без звука Длиннопост
4
34
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

Чиним картинку в три клика⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Чиним картинку в три клика Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, 2D, Арты нейросетей, Длиннопост

Использование негативного промпта так же важно, как и позитивного. Разница между этими двумя картинками только в нем. Показались руки и они нормальные!!

Чиним картинку в три клика Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, 2D, Арты нейросетей, Длиннопост

Но что это за странные bad_promts? Где привычные mutated hands?

Всё просто, это подключаемые файлы(текстовая инверсия), которые были натренированы на плохих примерах. Помещая их в негативный промпт вы значительно уменьшаете вероятность появления признаков этих самых плохих примеров.

Я подготовил архив этих файлов. Который вы можете скачать по данной ссылке (ТГ канал. А каким файлообменником вы пользуетесь? ).

Как использовать:

Разархивируйте в папку embeddings которая должна находиться в корневой директории вашего Automatic1111

Чиним картинку в три клика Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, 2D, Арты нейросетей, Длиннопост

Для использования, либо пишем названия файлов (без расширения) в свой негатив. Либо следуйте инструкции:

Чиним картинку в три клика Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, 2D, Арты нейросетей, Длиннопост

Какой набор негативов использовать и когда это уже поле для ваших экспериментов. Как негатив был создан вы можете почитать на huggingface.co вбив название нужного в поиск если у вас есть такое желание.

На этом всё. Не все же гайды на 8 экранов должны быть) Если вы пропустили мой прошлый гайд. Рекомендую ознакомиться. Рассказал как иметь полный контроль над позой персонажа.

Еще больше гайдов в профиле и совсем все на ТГ канале.

Поделиться результатом или задать вопрос, а так же пообщаться с единомышленниками вы можете в нашем нейробратском комьюнити.

На моем бусти вы сможете найти датасеты для обучения, доп материалы к гайдам и многое другое. Или просто финансово отблагодарить если мои материалы вам как-то помогли.

Показать полностью 3
[моё] Обучение Stable Diffusion Нейронные сети Цифровой рисунок 2D Арты нейросетей Длиннопост
9
253
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Прежде чем начать, кратко для новоприбывших, как установить ControlNet. В automatic1111 идем в Extension-Available жмем Load from. Ищем ControlNet, жмем Install. Скачиваем модели. Сегодня нам понадобится openpose. И кидаем по пути ваша_папка_с_автоматиком\extensions\sd-webui-controlnet\models. Всё. Вы готовы. Можем начинать.

Сегодня продолжим тему, начатую в моем прошлом гайде, будем выжимать из препроцессора openpose все что можно. В том числе используя сторонние расширения.

Давайте сразу их установим. Первое можно найти там же где и устанавливали ControlNet. Называется posex.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Для установки второго(на момент написания статьи), перейдите на вкладку Install from URL.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Вставьте https://github.com/jexom/sd-webui-depth-lib.git нажмите Install.

Так же нужно поднастроить контролнет. Зайдите в Settings - СontrolNet и в MultiControlNet передвиньте ползунок на 3. Так мы сможем использовать сразу несколько моделей.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Сохраняем!!! Apply settings. Перезапускаем полностью автоматик и обновляем страницу.

Если помните то в прошлом гайде я советовал сохранять ужачные позы. Совет все еще хороший, но что делать что нужной вам позы у вас просто нет. Все просто. Создать ее)

Идем в txt2img. Видим внизу новое раскрывающееся меню. Posex заглянем туда.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Send this image to ControlNet. - будет пере отправлять то что видим в окне с позой в контрол нет. Это нам и нужно.

Target ControlNet number - в какую вкладку контролнета отправить позу. Напомню что у нас их теперь 3.

Чуть ниже кнопки сброса: Всего, камеры, позы.

Управление простое и можно разобраться самому, но есть нюансы, поэтому распишу:

С зажатым ПКМ перемещаем холст. Может показаться что позу по экрану, но если добавите еще одну то увидите что они двигаются вместе. (нюанс 1, если в браузере есть управление жестами мыши отключите, иначе будет работать криво)

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

ЛКМ крутим.

Колесиком приближаем и отдаляем. Для более плавного отдаления\приближения зажмите колесико мышки и двигайте ей.

Чтобы двигать кости, наводить на одну из них, как появится рамка, двигайте.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Нюанс 2. У нас есть две фигуры. Как подвинуть одну из них? Наведите на любую кость, зажмите ПКМ, двигайте. Это было для меня не очевидным, пришлось читать гитхаб. А вот Fixed Roll автор решил не объяснять. Экспериментами выяснить что делает не вышло. Add - добавляем нового скелета. Remove - удаляем. Чтобы удалить, наведите на кость, нажмите ЛКМ\ПКМ, а затем Remove. Разрешение итоговой картинки, чем выше тем чтонее. Может пригодиться если собираетесь делать в дали. Для близких ракурсов и 512 ок. Далее кнопки установки бэкграунда, просто для примерки, он не влияет на генерацию. Но вы можете использовать примерочный бэкграунд позже в контрол нете чтобы он как раз влиял. А так же как референс для позы. Осталось выставить:

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Внизу кнопки сохранения поз, там нюансов нет, так что давайте уже что-нибудь сгенерируем!!

Итак, помните про разрешение? Оно нм нужно еще и для изменения композиции. Я ставлю 960 на 512. в настройках генерации либо такое же, либо с таким же соотношением сторон.

Пишу промпт. Беру стандартную позу, выставляю разрешение, раздвигаю по сторонам чтобы картинка получилась интересней, ведь двух девушек вместе мы и без этого можем сгенерировать, а вот врозь уже сложнее(было). Активирую ControlNet, препроцессор None(вы же помните из прошлого урока почему None? Потому что у нас уже есть поза, а препроцессор ее создает. Его работа уже сделана нами) Model - openpose.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Получаем:

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

на самом деле не сразу получаем, мелкие лица нейросеть рисует не так хорошо, поэтому прогнал через СД апскейл, а потом уменьшил чтобы влезла сюда. А вот что хорошо получается, так портрет. Бывало что не сразу удается добиться нужного приближения? Эти дни в прошлом)

Так же не забываете что промпт должен соответствовать позе. Поставив в т-позуб но написав dansing можете получить искажения.

Еще примеры:

Легко решаем вопрос количества людей:

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост
ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Теперь большая картинка без кучи клонов делается в разы проще:

Я тут считерил. Поставил в т-позу, но, во-первых, она далеко, во вторых в промпте running, а в третьих Guidanse End поставил на 0.75 (что это, в прошлой статье).

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Изменить фигуру:

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост
ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Повернуть голову в нужную сторону:

Тут признаю честно, в Posex у меня повернуть голову не вышло, как я говорил у меня проблемы с пространственным мышлением) Так что считерил, взял из блендера.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост
ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Ну в общем понятно. Туда же и наклон головы, повороты туловища и тд и тп. Это была хорошая часть, а ниже будет про руки. И она, спойлер, не так хороша как ее некоторые блогеры малюют.

Дальше идет часть которую уже тиражируют гайдеры, но делать это с одной стороны рано, а с другой знать полезно.

Руки:

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Выставляем позу как нравится и скачиваем нажав под ней Download. Идем во кладку сверху, которая называется Depth Library. Она появилась после установки последнего расширения.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Разрешение ну или соотношение сторон ставим такое же, как и на нашей позе. Надеюсь понятно что за что отвечает. Чтобы превратить левую рук в правую и наоборот, просто берем за край и тянем, это отразит изображение. По гифке видно, что у меня проблемы с пространственным мышлением)) При открытой ладони большие пальцы смотрят в голову)

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Как выставили наши руки, вы можете нажать Send to ControlNet, но делать этого не рекомендую потому что отправит во вкладку 0. Лучше нажать сохранить PNG и загрузить его во вторую вкладку вручную. В итогах статьи напишу почему. Далее в Posex, так же скачиваем нашу картинку и помещаем ее на нулевую вкладку. Posex пока не нужен, выключаем и сворачиваем.

Кстати если у вас проблема с нехваткой видеопамяти поставьте в контролнете галочки на чекбоксах Low VRAM.

В итоге у нас на кладке 0. Должна быть поза. Препроцессор None. Модель - openpose. На вкладке 1 руки. Препроцессор None. Модель depth.

Генерирую.

И получаем, вот такой замечательный результат.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Что? Не слишком замечательный?)) Это то что вам не покажут в других гайдах) Обычно в конце гайдов все круто и красиво?

Не во всех. Некоторые просто будто не замечают что вышло фигово. Это те которым надоело ролить в поисках нормального результата.

Дело даже не в ужасных пропорциях всего. Да руку я сделал слишком мелкой. Посмотрите на нашего главного героя, руку. Она так же запуталась в пальцах, хотя у нас относительно крупный пример, с глубиной и все как надо. Это не значит что все что я вам рассказывал нерабочая фигня. Это значит что результат все еще не гарантирован. Если еще увидите гайды по этому расширению обратите внимание что получается, на самом деле полная херня, либо берется простой макет как у меня ниже.

Вот это кто-то даже поставил себе на заставку в ютубе. Больших пальцев нет плюс слипшиеся и мини пальцы.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Так что к сожалению мы все еще живем не в идеальном мире. И чем более небрежно вы делаете каждый этап тем хуже может быть результат. И пока модель все еще не может сгенерировать абсолютно все что ей подсунешь.

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

(да, я просто приделал руки к Т-позе, писать гайды выматывает )

Что можно сделать, чтобы избежать первого примера и иметь хотя бы второй?

- Самое главное все еще не получится ставить перед сеткой сложные задачи. Перекрещивания, переплетения, те вещи где сложнее уловить края и те вещи которые при обучении главной модели были слишком мелкими по отношению к остальному изображению все еще могут получаться плохо. Все эти инструменты подталкивают диффузию сделать именно лучше, но гарантии нет.

- Следите за разрешением. Чем мельче будет объект тем выше должно быть его разрешение.

Разница между 768 и 512. На 512 мизинец вообще поломало:

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

- Идите от большего к меньшему. Я придерживаюсь этого когда, пишу промпт, так же работает и тут. В контролнете в нулевую вкладку закидывайте, позу, а во вторую уже руки. Ничего не работает параллельно. Тут все последовательно. Поэтому сначала тело, а потом руки к нему.

- Тоненькие анимешные пальчики могут не получиться с макета руки обычного человека

- Значит ли это что руки все еще недосягаемы? Нет. Если у вас стоит задача сделать. Сделать это можно, просто это потребует больше усилий чем подставить их через расширение. Возможно позже выпущу гайд как сделать хорошо. Коротко, вам понадобится редактор изображений и инпейнт.

И если вы думаете что это всё. Нет не все =)

ControlNet - полный контроль над позой и положением персонажа. И чу чуть о руках Обучение, Stable Diffusion, Цифровой рисунок, Нейронные сети, Арты нейросетей, Урок, Искусственный интеллект, Digital, Гифка, Длиннопост

Но статья и так уже слишком длинная и я уперся в лимит пикабу на кол-во медиа. Так что в другой раз. Подпишитесь чтобы не пропустить. (сюда выкладываю далеко не все, весь контент в тг, ссылка ниже)

Поделиться результатом или задать вопрос, а так же пообщаться с единомышленниками вы можете в нашем нейробратском комьюнити.

Больше гайдов на моем канале, подписывайтесь чтобы не пропустить:

На моем бусти вы сможете найти датасеты для обучения, доп материалы к гайдам и многое другое. Или просто финансово отблагодарить если мои материалы вам как-то помогли.

Показать полностью 24
[моё] Обучение Stable Diffusion Цифровой рисунок Нейронные сети Арты нейросетей Урок Искусственный интеллект Digital Гифка Длиннопост
35
102
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.)⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Сегодня покажу как установить, настроить и начать пользоваться одним из самых лучших расширений для стабильной диффузии. Способов его применения огромное множество, но все по порядку.

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

Для начала становим расширение. Запустите автоматик, зайдите Extensions - Available - Нажмите кнопку Load from. Загрузятся расширения доступные к установке, найдите sd-webui-controlnet и нажмите Install. С расширением всё.

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

Теперь нужно скачать модели и я походу объясню какая и зачем.

  • Модели. Есть полные версии, а так же их уменьшенные версии, заметной разницы в качестве я не обнаружил и пользуюсь уменьшенными так как SSD не резиновый.

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

Можете скачать все со словом control в начале. Я в основном использую 3, это depth, openpose, hed, но так как весят не много и удобно иметь под рукой, имею все.

Препроцессоры:

У всех у них одна задача, получить тот или иной контур объекта, поза, линии, силуэт чтобы затем вы могли изменить картинку не отходя от этого самого контура, позы, силуэта. Так вот теперь вы можете забрать с нее только композицию и нарисовать по ней все что угодно. В разумных пределах конечно.

canny - обводит края тонкой линией, подходит для изображений с резкими краями, например аниме

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

hed - толстой размазанной, смягчая края

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

openpose - берет только позу людей кадре, никаких краёв, а значит можно менять например фигуру. Для всего

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

depth - маска глубины чем ближе к камере тем белее, для всего когда нужно получить объем сцены чтобы его сохранить

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

normal - карта объёма

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

scribble - создает каракули и может создавать что-то из каракуль

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

mlsd - работает с ровными прямыми линиями, хорош с помещениями, чтобы передать их геометрию ну и потом перерисовать конечно.

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

seg- делит картинку на сегменты, затем пытается в тех же сегментах нарисовать те же объекты которые могут относиться к этому сегменту. Использовал я его примерно 0 раз, но кто знает…

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

После скачивания моделей поместите их по пути: ваша_папка_с_автоматиком\extensions\sd-webui-controlnet\models

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

После того как все сделали, полностью перезапустите стабильную диффузию.

Запускаем снова и смотрим вниз. Появилась вкладка ControlNet. Давайте сгенерируем что нибудь и сразу возьмем его позу для генерации чего-то другого.

Конечно же не обязательно генерировать. Вы можете поместить в окно контролнета любую фотографию которую хотите взять за основу.

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

Ставлю галку на Enable, чтобы активировать расширение. Выбираю препроцесср Openpose модель тоже openpose.

Еще пример изображения в той же позе:

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

А теперь давайте разберемся с настройками. По крайней мере на дату выхода статьи , в мире нейросетей все очень быстро меняется.

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

Enable - включить

Invert Input Color - инвертировать изображение. Бывает что вам понадобится черный контур на белом фоне, а ваша картинка имеет обратные цвета. Галка поможет

RGB to BGR - сменить компоновку пикселей. Видимо на матрицах BGR даст результат лучше, но я с такими дело не имел

Low VRAM - уменьшает требование к видеопамяти

Guess Mode - удалите промпт, контрол сам попробует понять что на картинке и повторить по своему. По мне фигня какая-то (на текущую дату)

Preprocessor - обработчик изображения которое вы скормили расширению. То есть openpose превращает изображение в позу. Из примера выше она выглядит вот так

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

Model - берет то что получила от препроцессора и обрабатывает.

Weight - как сильно контролнет будет влиять на композицию

Guidance Start (T) - когда вмешаться

Guidance End (T) - когда перестать

Диффузия получает изображение из шума, делает она это степами\шагами. Вы можете выбрать когда контрол нету влиять на очистку шума, а когда нет. Это уже чуть более продвинутая техника. Расскажу о ней в другой раз. В вкратце, если поставить 0 и 0.5 контрол будет контролировать общий силуэт до половины генераций, а дальше полностью отпустит вожжи и в дело вступит только диффузия.

Annotator Resolution - разрешение считывания, ставьте по самой короткой стороне вашей картинки, качество работы препроцессора должно стать лучше.

Threshold A\B - предназначены для очистки “мусора” на таких препроцессорах как canny например. Если у вас считывает что что вы не хотели бы или наоборот, поиграйте этими ползунками.

Оба максимум \ Оба минимум

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост
Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

С позами понятно. А остальные что?

Теперь вам не нужно долго добиваться от диффузии нужной вам композиции. Вы можете использовать любую уже созданную, хоть вами хоть кем то другим. Это только часть возможностей данного расширения, об остальных расскажу в других статьях.

Выбирайте препроцессор при принципу что вам важно взять с изображения? Только позу? Openpose. Силуэт? Depth. Нужно сохранить практически все грани, но переделать в другой стиль? Canny, hed.

На прощание нарисуем кролика:

Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.) Обучение, Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Digital, 2D, Компьютерная графика, Искусственный интеллект, Гифка, Длиннопост

мой промпт: cartoon rabbit, ghibli

Поделиться результатом или задать вопрос вы можете в нашем комьюнити нейроэнтузиастов.

Больше гайдов на моем канале, подписывайтесь чтобы не пропустить. Так же вы можете заказать у меня работу если не может что-то сделать сами, ну или не хотите)

Показать полностью 18
Обучение Нейронные сети Цифровой рисунок Арты нейросетей Stable Diffusion Digital 2D Компьютерная графика Искусственный интеллект Гифка Длиннопост
12
13
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

А на реддите все только и говорят о Noise Offset(e)⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Дело в том что реддит трещит о нем уже неделю, а в нашем ру комьюнити почему-то все молчат как рыбы. Ну или я плохо смотрю. Исправляю.

Обозначим проблему. Вы знаете что вы не сможете вот щас пойти и сгенерировать очень темную или очень светлую картинку?

А на реддите все только и говорят о Noise Offset(e) Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Обучение, 2D, Digital, Рисунок, Персонажи, Длиннопост

pos: dark, darkness, night, no light, cave / neg: light, lighting, lights, sun

Уверен у кого-то из вас получится темнее, но вряд-ли вот настолько:

А на реддите все только и говорят о Noise Offset(e) Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Обучение, 2D, Digital, Рисунок, Персонажи, Длиннопост

Тот же промпт. И вводя его ты примерно вот это и хочешь увидеть.

Я не буду засыпать вас информацией как и почему такое произошло. Тем более что есть отличная статья которую вы можете прочитать сами вот тут.

Прочитав ее, вы заодно узнаете почему использование одного и того же начального скрытого шума, но разных подсказок, как правило, дает изображения, которые связаны друг с другом на уровне общей композиции, но не на уровне отдельных текстур или мелкомасштабных узоров. Если вас вдруг мучал этот вопрос.

Я лишь скажу что решение данной проблемы это Noise offset. Данная настройка уже добавлен в набор скриптов Kohya по которым у меня уже было раз, два гайда. И теперь при обучении можно его задавать, что помогает модели обучаться на всех длинах волн.

Самое простое решения для вас, сейчас такое. Скачать вот эту Лора и использовать. Картинка выше была полученная именно благодаря ей.

А на реддите все только и говорят о Noise Offset(e) Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Обучение, 2D, Digital, Рисунок, Персонажи, Длиннопост

Еще пара примеров от меня. На анатомию чур не смотреть. И под котелок тоже. Картинка, затем описание.

А на реддите все только и говорят о Noise Offset(e) Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Обучение, 2D, Digital, Рисунок, Персонажи, Длиннопост

Без лоры и указаний по свету

А на реддите все только и говорят о Noise Offset(e) Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Обучение, 2D, Digital, Рисунок, Персонажи, Длиннопост

С Лорой и без указания по свету

А на реддите все только и говорят о Noise Offset(e) Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Обучение, 2D, Digital, Рисунок, Персонажи, Длиннопост

С Лорой, указания по свету at night, dark, darkness

А на реддите все только и говорят о Noise Offset(e) Нейронные сети, Цифровой рисунок, Арты нейросетей, Stable Diffusion, Обучение, 2D, Digital, Рисунок, Персонажи, Длиннопост

Без Лоры, указания по свету at night, dark, darkness. Светлее чем днем .

Вот в общем-то и все. Ждем когда все больше моделей используют эту фишку и будет появляться все больше Лора.

Уже есть как минимум одна модель с данной фичей, но она создана на основе СД 2.1, а значит цензура

Поделиться результатами своих работ или задать вопрос вы можете в нашем комьюнити нейробандитов.

Больше гайдов на моем канале, подписывайтесь чтобы не пропустить. (реально больше, я сюда не все публикую)

На моем бусти вы сможете найти датасеты для обучения и доп материалы к гайдам. Ну или просто поддержать.

Показать полностью 7
[моё] Нейронные сети Цифровой рисунок Арты нейросетей Stable Diffusion Обучение 2D Digital Рисунок Персонажи Длиннопост
6
Партнёрский материал Реклама
specials
specials

Даже получать удовольствие ты должен с коммерческой выгодой для себя ©⁠⁠

Так говорил греческий судовладелец, миллиардер Аристотель Онассис. Миллиардеры, конечно, живут немножко иначе, но этот принцип вполне распространяется и на «простых смертных». Давайте посчитаем, какую выгоду вы получаете.

Посчитать

Бизнес Выгода Текст
9
ruSauron
2 года назад

Block weights: Дайте LoRA второе дыхание⁠⁠

Block weights: Дайте LoRA второе дыхание Гайд, Обучение, Нейронные сети, Stable Diffusion, Обзор, Длиннопост
Block weights: Дайте LoRA второе дыхание Гайд, Обучение, Нейронные сети, Stable Diffusion, Обзор, Длиннопост

Для Stable Diffusion Webui есть одно замечательное, но трудное в использовании расширение, о котором почти нет информации и примеров использования. Оно позволяет задавать вес не всей модели в целом, например, ползунком, или цифрой после двоеточия: <lora:myawesomelora:1.4>. Это дополнение позволяет задавать вес каждого блока! Например, Вы можете плавно увеличивать вес к центральным блокам и снижать к началу и концу: <lora:myawesomelora:1.4:0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,0.8,0.7,0.6,0.5,0.4,0.3,0.2>.

Название дополнения: sd-webui-lora-block-weight

Кратко синтаксис: <lora:loraname:weight:blockweights>

Вы можете как указывать вес каждого блока, так и воспользоваться предустановленными тегами, вроде MIDD, INALL, OUTALL, либо создать свой тег. ВАЖНО: внутри угловых скобок < > нельзя использовать пробелы, кавычки, скобки, лишние двоеточия и лишние запятые. В примере на github есть строка <lora:"lora name":1:IN02> и из-за наличия кавычек она работать не будет, отчего может показаться, что дополнение сломано, но это не так. Дополнение не умеет работать с Batch size выше 1.

Да, но для чего вообще это нужно? При помощи этого дополнения можно, например, брать из LoRA только начальные блоки, которые оказывают огромное влияние на композицию, только последние, которые в основном определяю цветовой тон, или средние, которые отвечают за всё понемногу.

Это может упростить генерацию того, для чего LoRA не особо была предназначена, например:

  • Снизив вес начальных блоков можно получить любимого аниме-персонажа с нормальными пропорциями

  • Снизив вес конечных блоков можно получить того же персонажа с глазами в пол лица, но в обычной цветовой гамме.

  • Добавление конечных блоков из посторонних LoRA может усилить обводку, отражения, текстуру кожи, осветлить или затемнить изображение

  • Красивый стиль, который во всём видит дома чуть снизит свой энтузиазм и начнёт рисовать персонажей.

  • Ну и добавить всевозможных уродцев, артефакты, лишние глаза, пальцы и прочее. Всё же мы собираемся ломать нормальную работу модели, отрезая от неё непонравившиеся куски.

Для установки найдите в списке дополнений и установите sd-webui-lora-block-weight. После перезагрузки UI на вкладках txt2img и img2img появится новый элмент: LoRA Block Weight.

Обратите внимание: на данный момент это дополнение конфликтует с Composable Lora. Они могут быть установлены одновременно, но галочка Active/Enabled должна стоять только в одном из них. Если активированы оба дополнения, то эффект от использованной в запросе LoRA может примениться дважды (если не больше), что создаст выжженное изображение или мешанину цветов. Скорее всего это проблема Webui потому что prompt scheduling в некоторых условиях показывает подобные проблемы.

Не относится к теме, но поясню. Prompt scheduling – изменение запроса на определённом шаге, например, [cat:dog:0,4] начнёт рисовать кота, но когда пройдёт 40% всех шагов уберёт из запроса кота и на тоже место поставит собаку. Это может привести как к животному, имеющему черты обоих, так и отдельно стоящих плохо нарисованных кота и собаку.

Я дам хорошую отправную точку для начала экспериментов:

Block weights: Дайте LoRA второе дыхание Гайд, Обучение, Нейронные сети, Stable Diffusion, Обзор, Длиннопост
Block weights: Дайте LoRA второе дыхание Гайд, Обучение, Нейронные сети, Stable Diffusion, Обзор, Длиннопост
  1. В строке запроса после названия модели LoRA и веса напишите ещё одно двоеточие и слово XYZ, на примере популярной модели это будет <lora:yaeMikoRealistic_yaemikoMixed:1:XYZ> , а в картинках я использовал <lora:HuaqiangLora_futaallColortest:1:XYZ>

  2. После этого проверьте, что дополнение включено (Active), разверните XYZ plot дополнения (не путайте с X/Y/Z plot в разделе скриптов) поставьте опцию XYZ plot.

  3. Выберите X Types Original Weights, в поле X введите:

  4. INS,IND,INALL,MIDD,OUTD,OUTS,OUTALL

Подготовка закончена, Вы увидите таблицу, вроде приложенной.

Block weights: Дайте LoRA второе дыхание Гайд, Обучение, Нейронные сети, Stable Diffusion, Обзор, Длиннопост
Block weights: Дайте LoRA второе дыхание Гайд, Обучение, Нейронные сети, Stable Diffusion, Обзор, Длиннопост

Если какой-то из результатов понравился – сотрите в запросе XYZ и напишите тег, который был вверху экрана, например, MIDD (но мне понравился инвертированный MIDD, картинка от него):

<lora:HuaqiangLora_futaallColortest:1:MIDD>

Block weights: Дайте LoRA второе дыхание Гайд, Обучение, Нейронные сети, Stable Diffusion, Обзор, Длиннопост

Если ни один вариант не понравился – можно попробовать инвертировать запрос, все теги превратятся в свои противоположности. Для этого вместо XYZ напишите ZYX и ещё раз запустите генерацию. Небольшая проблема. На момент написания нужно добавить ещё одну любую LoRA с весом 0 и тегом XYZ. Например, я взял Паймон. Думаю, Паймон обрадовалась тому, что у неё невзирая ни на что остаётся вес 0. Возможно, это будет исправлено, возможно нет. Как объяснил автор дополнения, это потребует изменения логики работы дополнения.

Итак пример: <lora:HuaqiangLora_futaallColortest:1:ZYX> <lora:paimonGenshinImpact_v10:1:XYZ>

Если Вам понравился один из инвертированных вариантов, то нужно будет развернуть ниже список Weights setting, найти в списке соответствующую строку, например, MIDD, скопировать её в блокнот/Excel/Word и заменить все 1 на любой символ, все 0  на 1 и указанный ранее символ на 0, после чего вставить прямо в запрос вместо ZXY. Не забудьте только убрать оттуда Паймон и отключить XYZ plot.

На этом всё, я постараюсь ответить на вопросы в комментариях

Показать полностью 7
[моё] Гайд Обучение Нейронные сети Stable Diffusion Обзор Длиннопост
1
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии