Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр
Герои Войны - микс стратегии и РПГ. Собери лучшую армию и победи всех врагов. В игре 7 различных режимов - как для любителей PvE, так и PvP.

Герои Войны

Стратегии, Мидкорные, Экшены

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • SergeyKorsun SergeyKorsun 12 постов
  • SupportHuaport SupportHuaport 5 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня

Stable Diffusion + Обучение

С этим тегом используют

Арты нейросетей Арт Нейронные сети Девушки Эротика Аниме Anime Art Образование Учеба Урок Программирование IT Английский язык YouTube Все
86 постов сначала свежее
11
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

Залипательное расширение для бесконечного Zoom In\Zoom out (automatic1111)⁠⁠

Если хотели побаловаться с анимацией, но deforum пока слишком сложен.

Для тех кто хочет быстро поиграться есть версия в колабе. Для остальных:

Установка:

1. Открыть автоматик и перейти на вкладку Extensions

2. Выбрать вкладку Install from URL

3. Вставить это https://github.com/v8hid/infinite-zoom-automatic1111-webui.g... в первую строку. И нажать Install.

4. Перезагрузить интерфейс во кладке Installed.

Использование:

1. Перейти на кладку расширения.

2. Изменить подсказку. Генерировать.

Для лучшего результат рекомендуется использовать inpaint версии моделей. Про них рассказывал вот тут.

Но даже с инпейн версией модели на некоторых генерациях я у себя наблюдаю границы генераций.

Видео сохраняется по пути stable-diffusion-webui/extensions/infinite-zoom-automatic1111-webui/out/videos

Так же автор не рекомендует использовать Mask blur выше нуля. Так как по его словам это работает не корректно.

Еще примеры:

Поделиться результатами или обратиться за помощью вы можете в нашем чатике.

Больше гайдов, больших и маленьких, на моем канале.

Показать полностью 2
Гайд Нейронные сети Stable Diffusion Обучение Видео Без звука Длиннопост
2
13
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux

Обутыливаем что угодно⁠⁠

Выглядит как работа Миджорней? Но это SD =)

Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост
Обутыливаем что угодно Stable Diffusion, Нейронные сети, Арты нейросетей, Цифровой рисунок, Обучение, Digital, Длиннопост

Промпт:

(8k, RAW photo, best quality, masterpiece), (realistic, photo-realistic), ultra-detailed, (high detailed) award winning, [caustics], [neon:0.1], [Subsurface scattering], [hdri]
(van gogh starry night:1.2) in a big glass round bottle, dark room, glowing
realistic, intricate complex details, sharp clear focus, [knollingcase_v4], AnalogFilm768, Cinema768-Digital

Negative prompt: nfixer nrealfixer, (((wine))), bending

Steps: 30, Sampler: DPM++ SDE Karras, CFG scale: 9.5, Seed: 12724779, Size: 768x768, Model hash: cae1bee30e, Model: MD_illuminatiDiffusionV1, Denoising strength: 0.45, ENSD: 31337, Hires upscale: 2.2, Hires upscaler: 4x-UltraSharp


Обратите внимание, что тут используются несколько экстрасетей. Такие, как knollingcase (пожалуй ключевая для обутыливания), nfixer, AnalogFilm768 и др. Все доступны на civitai.

Мои ссылки:
• Нейронная академия - канал с авторскими гайдами по SD и всем что с ним связано.
• Нейроновости - канал с новостями о нейросетях SD|MJ|ChatGPT и др.
• Нейронная эстетика - канал, где выкладываю красивости и интересности из разных нейросетей и описываю как это сделано.
• Чат - место где я собрал единомышленников, где мы делимся своими работами, обсуждаем разное и помогаем друг другу.

А так же ютуб канал и бусти с доп материалами.

Показать полностью 9
Stable Diffusion Нейронные сети Арты нейросетей Цифровой рисунок Обучение Digital Длиннопост
0
43
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux

Накладываем свой стиль на анимацию (громкий звук)⁠⁠

ОСТОРОЖНО! Очень громкий звук.

Как автор это сделал:

- Сначала я ротоскопирую отснятый материал с помощью After Effects.

- Затем я создаю маску, используя кадры ротоскопии.

- (Необязательно. D зависимости от компьютера) я конвертирую кадры в секунду в 12 кадров в секунду как для отснятого материала, так и для маски.

- После этого я экспортирую отснятый материал и маски в виде последовательностей PNG в их собственные папки.

- Затем я запускаю automatic1111 и перехожу на вкладку img2img.

- Я использовал модель animelike25D и установил значение CFG на 7. Denose Strength на 0,25 и шаги примера на 25.

- Для ControlNet я установил одну вкладку в openpose, а другую в depth.

- Затем я запускаю пакетную вкладку в img2img и устанавливаю входное и маскирующее изображения, а также выходную папку.

Как видим большая часть работы это создание маски.

Мои ссылки:
• Нейронная академия - канал с авторскими гайдами по SD и всем что с ним связано.
• Нейроновости - канал с новостями о нейросетях SD|MJ|ChatGPT и др.
• Нейронная эстетика - канал, где выкладываю красивости и интересности из разных нейросетей и описываю как это сделано.
• Чат - место где я собрал единомышленников, где мы делимся своими работами, обсуждаем разное и помогаем друг другу.

А так же ютуб канал и бусти с доп материалами.

Показать полностью
[моё] Нейронные сети Stable Diffusion Обучение Видео Вертикальное видео TikTok
6
16
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

Новый крутой препроцессор и модель для ControlNet⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

Если ControlNеt у вас еще нет, то в автоматике идем в Extension-Available жмем Load from. Ищем ControlNet, жмем Install. Скачиваем модели. И кидаем по пути ваша_папка_с_автоматиком/extensions/sd-webui-controlnet/models. Всё. Вы готовы. Можем начинать.

Результат не всегда предсказуем, но от того крайне интересный.

А теперь скачаем новинку. Перейдите по ссылке и скачайте t2iadapter_style_sd14v1.pth. Помещаем туда же куда и все модели контролнета.
Ваша_папка_с_автоматиком/extensions/sd-webui-controlnet/models

Не забудьте обновить сам контролнет, если давно этого не делали. На вкладке Extension.

Переходим txt2img. Сегенерируйте картинку на свой вкус, чтобы посмотреть как она выглядит без новинки. А теперь активируем контролнет. Препроцесср установите clip_vision, а модель t2iadapter_style_sd14v1.

У меня будет вот такая:

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

Мои настройки (обратите внимание на Weight):

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

Из за вот этой Картины Ван Гога, я некоторое время не мог понять как это работает, но и она же все же дала понять как. Я прогнал один промпт через десятки фотографий.

Часть образцов:

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

Результат:

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

Обратите внимание как переносится стиль. Это не простой перенос цвета. Например от мужика переехали усы. А от картины "Звездная ночь" только небо и немного город. Тут я и догнал что это как мини обучение. Он понимает что это именно небо и поэтому менял мне небо. Он нашел на фотографии которая имела совсем другие пропорции усы и прилепил похожие. И тд. и тп. Что как я считаю довольно круто.

Результат просто промпта:

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

++++++

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

====

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

За артефакты сорян, не про них статья)

Игры с имг2имг предлагаю вам устроить самостоятельно:

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

Что хочется отметить. Очень важен ползунок Weight. На 1 можно даже не увидеть воздействия. Лучшие результаты я получал на диапазоне 1.05-1.4. Для разных изображений по разному. Так же рекомендую поиграть с Guidance Start\End. При высоком весе, отстрочить вступление контролнета может дать результат как выше.

П.С. Это не единственная новая модель. Есть еще color, но он просто выделяет главные цвета из изображения и накладывает на новое, делает это довольно грязно. Если хотите попробовать то по той же ссылке файл t2iadapter_color_sd14v1, а препроцессор для него color.

Новый крутой препроцессор и модель для ControlNet Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Digital, 2D, Длиннопост

Мои ссылки:

Нейронная академия - мой канал для которого пишу гайды, новости, советы.

Наш чат - место где мы общаемся, делимся работами, помогаем друг другу с решением проблем.

Интенсив - где за 2 дня собираемся обучить всех желающих основам использования SD.

Челенджи - раз в день, неделю, месяц публикуем тему и выясняем кто справился лучше.

А так же ютуб канал и бусти с доп материалами.

Показать полностью 9
[моё] Обучение Нейронные сети Stable Diffusion Арты нейросетей Цифровой рисунок Digital 2D Длиннопост
3
64
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

ControlNet. Полный контроль над светом⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Сегодня расскажу про одну из самых вау фишек ControlNet.
Интересно что эта возможность была доступна со старта, но ее не сразу нашли.

Прежде чем начать, кратко для новоприбывших, как установить контролнет. В автоматике идем в Extension-Available жмем Load from. Ищем ControlNet, жмем Install. Скачиваем модели. Сегодня нам понадобится depth. И кидаем по пути ваша_папка_с_автоматиком\extensions\sd-webui-controlnet\models. Всё. Вы готовы. Можем начинать. Если не совсем готовы можете прочитать мою статью про ControlNet - полный контроль над позой и положением персонажа. И Установка и объяснение настроек Control Net. (Копирование позы, композиции и т.д.)

Запускаем наш automatic1111. Нам нужна сгенерированная картинка с которой будем работать.

Я возьму старую и закину в img2img через pngInfo чтобы применились все настройки генерации.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Теперь нужно активировать ControlNet и закинуть в него туже самую картинку. Препроцессор выбираем depth модель control_depth.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Что мы сделали? У нас все параметры генерации настроены так, чтобы сгенерировать ту же самую картинку. Но генерировать мы ее будем по карте глубины этой самой картинки. А теперь самая главная магия. Мы поменяем исходное изображение на что-нибудь интересное, например на чёрно-белую картинку с нарисованным светом (легко найти в интернете по запросу свет на черном фоне).

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

В итоге получаем наш промпт, который применен к карте обьема нашей же картинке в контролнете только ко всему этому мы подмешиваем еще одну картинку.

И это все так гладко ложится потому что у нас есть информация об объеме нашего изображения. Надеюсь понятно объяснил .

Но даже если не понятно, не важно. Это просто работает).

Сейчас настройки выглядят так

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост
ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Теперь необходимо настроить Denoising strength. Тут все просто, чем ближе к левой части тем ближе вы будете к картинке вверху, в данный момент освещения. Чем ближе к правой, к картинке в контролнете.

Крайнее правое значение:

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

В крайнем левом будет просто наша картинка со светом.

Ваша задача найти баланс для вашей сцены.

Для меня это где-то в диапазоне 0.5 до 0.9. Сделаю для вас сравнение через XYZ Plot. Как им пользоваться рассказывал у себя на канале.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

0.3-1 [8]  - Значит: сгенерируй 8 изображений с равным шагом в диапазоне межу ноль три и один.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

И теперь самое интересное.

Мы можем использовать одно и то же изображение для получения разных результатов. Например, сейчас будем перемещать источник света.

Идем к нашему свету, нажимаем карандаш и указываем какую область картинки мы хотим использовать:

Внимание. На дату написания этого гайда 04.04.23 в актуальной версии автоматика, то что я показываю далее работает не корректно (картинка обрезается). Для записи гайда я откатился на более старое обновление. Как это делать рассказывал тут.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Можно уменьшать область и тем самым указать только верхний пучок или наоборот только низ.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Пример с другой картинкой:

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Конечно же вы можете использовать как референс другие изображения:

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост
ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Но и это еще не все.

Мы можем рисовать свет сами. Для этого выставляем все вот так. (Я взял другую картинку, более подходящую для того что сейчас будем делать)

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

И отправляем верхнюю картинку в скетч.

В скетче намечаем наш новый свет.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Да, я хз как правильно рисовать свет, поэтому я в нейронках

Хочу чтобы рефлекс от экрана проявлялся сильнее. Могу сгенерировать прямо отсюда, но это покрасит мне все волосы в рыжий.

Поэтому отправляю в инпейнт.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

К сожалению, у меня получилась скорее гематома, этот инструмент для кого-то порукастее, чем я .

Попробую восстановить свою репутацию на другой картинке.

ControlNet. Полный контроль над светом Обучение, Нейронные сети, Stable Diffusion, Арты нейросетей, Цифровой рисунок, Видео, Без звука, Вертикальное видео, Гифка, Длиннопост

Ладно, всё, сдаюсь. Надеюсь в ваших руках этот инструмент будет полезней .

А на этом на сегодня всё.

Мои ссылки:

Нейронная академия - мой канал для которого пишу гайды, новости, советы.

Наш чат - место где мы общаемся, делимся работами, помогаем друг другу с решением проблем.

Интенсив - где за 2 дня собираемся обучить всех желающих основам использования SD.

Челенджи - раз в день, неделю, месяц публикуем тему и выясняем кто справился лучше.

А так же ютуб канал и бусти с доп материалами.

Показать полностью 17
[моё] Обучение Нейронные сети Stable Diffusion Арты нейросетей Цифровой рисунок Видео Без звука Вертикальное видео Гифка Длиннопост
3
12
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux

Новая модель для ControlNet. Берем эмоции под контроль⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Энтузиасты натренировали ControlNet на датасете LAION-Face dataset, чтобы улучшить уровень контроля при создании изображений лиц.

Новая модель для ControlNet. Берем эмоции под контроль Обучение, Нейронные сети, Stable Diffusion, Длиннопост

Хотя другие модели ControlNet могут использоваться для позиционирования лиц в сгенерированном изображении, мы обнаружили, что существующие модели страдают от аннотаций, которые либо недостаточно ограничены (OpenPose), либо чрезмерно ограничены (Canny / HED / Depth). Например, мы часто хотим контролировать такие вещи, как ориентация лица, открыты / закрыты глаза / рот и в каком направлении смотрят глаза, что теряется в модели OpenPose, а также не зависит от деталей, таких как волосы, подробная структура лица и не-лицевые черты, которые будут включены в аннотации, такие как canny или карты глубины. Достижение этого промежуточного уровня контроля стало стимулом для обучения этой модели.

Текущая версия модели не идеальна, в частности, в отношении направления взгляда. Авторы надеются улучшить это в следующей версии.

Так же они обнаружили, что многие ограничения модели сами по себе могут быть устранены путем расширения запроса на генерацию. Например, включение таких фраз, как "открытый рот", "закрытые глаза", "улыбающийся", "сердитый", "взгляд вбок", часто помогает, если модель не учитывает эти особенности. (Довольно очевидная вещь о которой я рассказывал тут)

Новая модель для ControlNet. Берем эмоции под контроль Обучение, Нейронные сети, Stable Diffusion, Длиннопост

Более подробную информацию о наборе данных и модели можно найти на Hugging Face странице модели. Авторы создали открытый запрос на добавление в sd-webui-controlnet в расширение для automatic1111. В настоящее время они сделали доступной модель, обученную на основе базовой модели Stable Diffusion 2.1, и и находятся в процессе обучения модели на основе SD 1.5, которую надеются выпустить в ближайшее время. У них есть форк Репозитория ControlNet который включает в себя сценарии для извлечения набора данных и обучения модели.

Новая модель для ControlNet. Берем эмоции под контроль Обучение, Нейронные сети, Stable Diffusion, Длиннопост

Для заинтересованных в обучении или дальнейшем обсуждении авторы предлагают присоединиться к их Discord.

Источник: Reddit.

А теперь перевожу на совсем русский). К сожалению модель пока работает только с моделью SD 2.1 или основанными на ней. Например Иллюминати. Но хорошая новость в том что над версией 1.5 они работают. А так же отправили запрос создателями ControlNet чтобы их препроцессор был добавлен с одним из обновлений в интерфейс контролнета в автоматике. Но если вы не хотите ждать и понимаете что делаете все необходимые для установки ссылки есть в статье.

Поделиться результатом своей работы или задать вопрос, а так же пообщаться с единомышленниками вы можете в нашем нейробратском комьюнити.

Больше гайдов на моем канале, подписывайтесь чтобы не пропустить.

Так же анонсируем интенсив, который создали в содружестве с другими нейроэнтузиастами. Ознакомиться с его программой и временем проведения можно по ссылке.

Показать полностью 3
[моё] Обучение Нейронные сети Stable Diffusion Длиннопост
0
10
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux

Gen-1. Генерация видео на основе другого видео стала доступна всем⁠⁠

Попробовать можно по ссылке

Тарифные планы доступные на сайте:

Gen-1. Генерация видео на основе другого видео стала доступна всем Обучение, Нейронные сети, Stable Diffusion, Образование, Видео, YouTube

На моем свежесозданном аккаунте оказалось 525 кредитов. Одна секунда видео тратит 14 кредитов. Хватит, для того чтобы провести пару экспериментов.

Похоже, что сайт испытывает большой наплыв пользователей и регулярно падает. Так что возможно стоить зайти попозже.

Так же напомню что была анонсирована Gen-2. Нейросеть способная создавать видео лишь по текстовому описанию.

И хочу напомнить что уже вышел опенсорс аналог, о котором я писал на канале ранее (Пикабу).

Поделиться новостями или задать вопрос, а так же пообщаться с единомышленниками вы можете в нашем нейробратском комьюнити (ТГ).

А на моем канале (ТГ) вы можете найти кучу гайдов по использованию нейросетей.

Показать полностью 1 1
[моё] Обучение Нейронные сети Stable Diffusion Образование Видео YouTube
4
Партнёрский материал Реклама
specials
specials

Даже получать удовольствие ты должен с коммерческой выгодой для себя ©⁠⁠

Так говорил греческий судовладелец, миллиардер Аристотель Онассис. Миллиардеры, конечно, живут немножко иначе, но этот принцип вполне распространяется и на «простых смертных». Давайте посчитаем, какую выгоду вы получаете.

Посчитать

Бизнес Выгода Текст
50
Neural.Academy
Neural.Academy
2 года назад
Stable Diffusion & Flux
Серия Stable Diffusion для ЛЛ

Погружаемся в реализм⁠⁠

TLDR: Че тут происходит вообще? Я тут делюсь своим опытом по работе с нейронками. Если тебе эта тема интересна, но ты только начал вникать загляни ко мне в профиль или в конец статьи, там есть полезные ссылки. Сейчас это может быть слишком сложным для тебя.

Привет, сегодня мы изучим основы получения фотореализма в ваших генерациях По большому счету нам необходимым всего 2 вещи, первая и самая, пожалуй, главная это модель, а второе - грамотный промптинг, начнем с модели.

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Мы будем работать "deliberate". Потому что на аниме моделях заниматься этим глупо, а на фотореалистичных слишком просто. Напишем "woman". Посмотрим, что у нас получится:

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост
Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Ни туда, ни сюда. Это еще не фото, но уже и не рисунок. Не то, что мы сегодня хотим достичь. Вообще модели можно поделить на две большие категории. Одна категория выдает годноту уже с парой слов (то есть работает примерно как миджорней), другим же нужно навалить "мяса". "Deliberate" по большей части относится ко второй. Что является платой за гибкость.

Добавим конкретики. a photo of woman

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Лучше. Продолжаем

Думаем как думает модель. При обучении ей скармливали изображения с подписями о том что на нем изображено. Значит нам нужны подписи которые могли быть под фотографией.

photography, 4k, 8k, 100mm, canon EOS, dof, analog photo, dslr, bokeh, grain и так далее, много их. Часть выкладывал файлов в свой группе. Дальше можно поработать над деталями и вот тут люди часто делают ошибку. Они пишут realistick eyes, hyperrealistick skin и так далее. Это подсказки которым место наоборот в негативе так как относятся хоть и к крайне детализированным, но все же картинам и рендерам. Мы используем detailed skin, detailed face, intricate detailed

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост
Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Мы уже ближе, но все еще есть самая большая ошибка. Идеальная кожа. Да мы уже можем видеть поры, но она ну слишком гладкая. Нет ни родинок ни смены пигментации. Ни-че-го. Это сильно бьет по натуральности картинки. Без нашего вмешательства сетка обычно такое не добавляет. Вмешаемся.

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост
Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Так же обратите внимание на CFG - он всего 3. Хотя обычная рекомендация 7-11. Но я обнаружил что большинство моделей в реализме показывают себя лучше с довольно низким CFG.

+ pigmentation

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

В общем, дефекты кожи наш бро. А кто еще наш бро? Правильный семплер конечно. Видим что "фотка" слегка заблюрена. Это дело рук Eauler a. Переставим на DPM ++ 2M Karras и сразу получаем вот такой прирост:

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Кстати выше я упоминал токен inricate detailed будьте с ним осторожны, это очень сильный токен который сильно умножит нам детали и получим вот это. Токены бываю как слабыми так и сильными. Некоторые на первый взгляд могут вообще не давать эффекта, но оказывают хорошее действие в совокупности с другими. Как видим эффект этого токена на лицо.

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Сверху это всё можно полернуть нейросетевым апскейлером. Например, через Hires fix или SD Upscale. Но учтите, что скорее всего вам прийдется отрегулировать вес дефектов. Они могут начать проявляться слишком сильно.

Подведем итог. Для фотореализма нужно:

  1. Выбрать правильную модель

  2. Правильный промптинг

  3. Выбрать подходящий семплер

  4. Не забыть про дефекты

  5. Правильный CFG

  6. Все советы это лишь советы, а не строгие правила. Например, добавление realistick eyes может наоборот улучшить вашу работу если грамотно подобрать ему вес.

Еще один пример применения этих советов на практике:

Погружаемся в реализм Обучение, Stable Diffusion, Нейронные сети, Цифровой рисунок, Арты нейросетей, Длиннопост

Поделиться результатом или задать вопрос, а так же пообщаться с единомышленниками вы можете в нашем нейробратском комьюнити.

Больше гайдов на моем канале, подписывайтесь чтобы не пропустить:

На моем бусти вы сможете найти датасеты для обучения, доп материалы к гайдам и многое другое. Или просто финансово отблагодарить если мои материалы вам как-то помогли.

Показать полностью 11
[моё] Обучение Stable Diffusion Нейронные сети Цифровой рисунок Арты нейросетей Длиннопост
9
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии