Полезные и интересные нейросети
13 постов
13 постов
1 пост
1 пост
6 постов
4 поста
1 пост
3 поста
1 пост
Данную нейросеть очень сильно просили ребята с моего телеграм канала по этому я решил сделать её портативную версию.
В целом, нейросеть максимально простая. На вход мы подаем изображение и видео, с которого будет захватываться анимация, подогнанное друг под друга. Затем нажимаем генерировать и получаем видео анимированного лица. Пример можно посмотреть в небольшом обзоре выше.
Что же касается работы, в целом программа работает как с GPU ускорением, если у вас видеокарта Nvidia так и без него, но уже на вашем процессоре.
Саму нейросеть можно найти тут: Github
В чем отличие портативной версии:
Есть графический интерфейс
Все готово к работе, не надо ничего качать и устанавливать
Последние версии библиотек для работы с GPU
Ну а если вам интересны другие прикладные нейронки, а также их портативные сборки, то подписывайтесь на мой Телеграм канал.
Если же вы просто хотите пообщаться на тематику нейросетей, у вас есть какие-то вопросы, то добро пожаловать в наш чат.
Новое обновление Fooocus (о нем я рассказывал тут: Fooocus - простой webui для SD XL от разработчика ControlNet, вдохновленный концепцией MidJourney), клиента для Stable Diffusion XL, добавляет поддержку Latent Consistency Models (LCM), который позволяет генерировать изображение за несколько секунд. Подобная магия достигается за счет того, что уже за 8 шагов можно получить приемлемое качество изображения, вместо ~30 шагов у других планировщиков.
Давайте разберем, как включить LCM. В данном гайде я буду разбирать на примере собственного мода Fooocus, который был переведен на русский язык. Скачать его можно тут.
Для того чтобы активировать LCM, нам надо выбрать Дополнительно, а затем в появившемся справа меню открыть Экстремальная скорость
Произойдет активация LoRA SD XL и Fooocus перенастроится в режим работы с LCM.
Если вдруг, вам понадобится более тонко настроить параметры генерации, то вы можете это сделать перейдя в Дополнительно > Дополнительно > Режим отладки разработчика
Больше сборок популярных и полезных нейросетей можно найти в моем Телеграм канале.
Что если бы в экранизации Макса Пэйна вместо Марка Уолберга сыграл бы Сэм Лэйк, подаривший внешность первому Максу Пэйну?
Сделано при помощи программ: Rope portable, Topaz Video AI
Нейросеть для обработки фото и изображений, позволяющая редактировать, ретушировать и изменять объекты на изображении.
В целом, думаю, многие слышали про Lama Cleaner и уже активно пользуются, поэтому информация дальше будет для тех, кто не знаком с данной программой.
Кому полезно: дизайнерам, фотографам, цифровым художникам и другим пользователям, работающим с изображениями.
Основные функции Lama Cleaner включают в себя:
Удаление объекта: Это ключевая функция, позволяющая пользователям выделить и удалить любой объект на фотографии. Программа использует различные нейросетевые модели для замены удаленного объекта и сохранения естественного вида изображения.
Добавление объекта: Lama Cleaner функцию Inpaint, которая позволяет пользователям добавлять новые объекты на изображение, при помощи моделей Stable Diffusion.
Официальная страница программы тут: GitHub
По просьбе моих подписчиков, подготовил портативную версию данной программы. В отличие от официальной версии, она не требует установки Python и других зависимостей, всё уже идет в комплекте.
Особенности сборки:
- Установлены самые последние версии Torch и Xformers
- Предзагружена базовая модель
Для запуска необходимо:
- Загрузить архив:
Торрент | Яндекс Диск
Полная версия, со всеми загруженными моделями (20 гигабайт):
Торрент | Яндекс Диск
- Распаковать, запустить start_portable_nvidia.bat (для нормальной работы нужна видеокарта Nvidia, в ином случае придется работать на CPU).
После чего, открываем в браузере адрес: http://127.0.0.1:8080
После этого у нас откроется интерфейс для работы. Загружаем изображение, начинаем работу.
Ну, а больше портативных сборок различных нейросетей, а также бесплатный ChatGPT можно найти в моем телеграм канале.
А обсудить программу можно в нашем чате.
Для начала, нам надо скачать приложение клиент. Я искал множество вариантов, и это показалось более менее полходящим. Вот оно в AppStore: https://apps.apple.com/app/id1661529295
После загрузки открываем приложение, переходим в настройки и нажимаете Пользовательский API.
Там пишите адрес нашего сервера: neuroapi.host
В поле KEY укажите любую тарабарщину на англ.
После этого можем идти и создавать чат. Если бот присылает пустой ответ или не ответил, отправьте ваш вопрос снова. К сожалению, иногда прокси чудят.
На данный момент у нас работают модели :
ChatGPT-3.5-Turbo
ChatGPT-3.5-Turbo-16k
Gpt-4 иногда работает, но чаще нет.
Если вы хотите сделать то же самое на ПК, то можете посмотреть наш GitHub: https://github.com/Em1tSan/NeuroGPT
Ну, а больше новостей и информации по нейронным сетям можно у меня в Телеграм канале: https://t.me/neurogen_news
С историей диалога, и возможностью общения через Siri.
Для начала качаем нашего чат бота с iCloud: https://www.icloud.com/shortcuts/d0f4de78d4bb44fdbdb3208dce3...
Бот сделан через приложение Команды и использует наш API сервер проекта NeuroGPT. GitHub проекта: https://github.com/Em1tSan/NeuroGPT
После загрузки нажимаете Настроить, а затем Добавить. Теперь в списке команд у нас появился Нейробот. Для удобства можете добавить его как виджет на рабочий стол.
Для того чтобы начать чат, просто нажмите на виджет и введите свой текст, к примеру мы попросим рассказать его про Нептун.
Если текст отображен не полностью то просто нажмите на сообщение и оно откроется целиком.
Кнопка Отмена закрывает чат, кнопка Готово перейдет к след запросу.
Для активации Siri необходимо сказать "Siri, Нейробот" и она запустит команду.
Будущие обновления будут выходить в моем Telegram канале: https://t.me/neurogen_news
Также можно найти другую информацию по различным нейросетям.
Ну а если у вас возникнут трудности, спросить помощи можно в нашем чате: https://t.me/neurogen_chat
SadTalker - нейросеть от китайских разработчиков, изначально предназначенная для анимации лиц на различных изображениях - от артов до фотографий. Ознакомиться с проектом подробнее можно на их GitHub
SadTalker VideoLip - это форк SadTalker, предназначенный для синхронизации движения губ на видео с аудиодорожкой. Исходный код проекта: GitHub
Обе программы работают на видеокартах от Nvidia и CPU. Но на CPU обработка может занять несколько часов.
Сегодня поговорим о портативных версиях обеих программ, которые я подготовил для вас.
Видеообзор и примеры готовых видео можно посмотреть на YouTube.
Интерфейс простой (представлен выше) и содержит следующие элементы:
Поле загрузки изображения
Поле загрузки аудио
Настройки:
Стиль позы: вариации анимации лица
Разрешение лица - чем больше, тем лучше итоговое качество. Увеличивает потребление видеопамяти
Предобработка влияет на то, в каком формате будет итоговое видео. Кроп - обрезает лицо до квадрата. Full оставляет видео таким каким вы его загрузили. При использовании Full крайне рекомендуется использовать "Режим неподвижного изображения"
Размер пакета (Batch Size) влияет на скорость обработки: выше - лучше - больше видеопамяти потребляется
GFPGAN улучшает качество лица на выходе.
Итоговые файлы сохраняются в папке results.
Интерфейс тоже достаточно прост. Он состоит из следующих элементов:
Поле загрузки видео
Поле загрузки аудио
Выбор режима улучшения (опционально). Можно улучшить качество губ или качество лица, но влияет на потребление видеопамяти и скорость обработки.
Batch Size. В теории - чем выше значение тем лучше, надо выбирать целые числа. Но по факту, чем больше - тем сильнее потребление памяти, а прироста скорости я особо не заметил.
DAIN - экспериментальная и нестабильная функция. Призван улучшить качество липсинка, путем дорисовки кадров.
После конца обработки, результат будет сохранен в папку results внутри папки с программой. Вам нужен будет файл, который заканчивается на full.
Как обычно, я подготовил портативные версии с запуском в 1 клик. Вам надо лишь скачать архив, распаковать и запустить bat файл с названием start.
Скачать их можно тут:
Яндекс Диск
Будущие обновления, а также другие портативные сборки различных нейронок можно найти в моем Телеграм канале.
Ну, а задать вопросы можно в нашем чате.
FaceFusion - это продукт одного из разработчиков популярного дипфейка Roop. Дело в том, что у них произошел разлад, проект Roop закрался, а команда разошлась.
В целом, FaceFusion - это тот же самый Roop, только с интерфейсом на базе Gradio, который многие знают по Stable Diffusion от Automatic1111
Тем не менее множество функций тут вынесены из командной строки в интерфейс.
FRAME PROCESSORS - этот модуль отвечает за обработку кадров.
face_swapper - просто замена лица
face_enhancer - улучшение лица (через GFPGAN)
frame_enhancer - новая опция, апскейлит весь кадр.
EXECUTION PROVIDERS - тут вы выбираете ваш бэкенд, через что будет идти обработка. На видеокартах Nvidia это Cuda либо TensoRT, на AMD это DirectML (DML), если запускать на Windows.
Остальные же параметры в блоке EXECUTION отвечают за скорость обработки. Больше потоков - больше скорость, больше потребление видеопамяти. Поэтому выставляйте в меру, большое количество потоков может привести к вылету либо к замедлению работы.
MAX MEMORY - лимит потребления оперативной памяти.
OUTPUT VIDEO ENCODER - через какой енкодер будут собраны кадры в видео, после замены лица. Для видеокарт Nvidia можно использовать NVENC, так как он базируется на аппаратном ускорении.
KEEP FPS, KEEP TEMP, SKIP AUDIO - Отвечают за то, чтобы Сохранить фпс оригинального видео, оставить временную папку с раскадровками и пропустить аудио.
Средний блок отвечает за выбор файлов с которыми мы будем работать.
SOURCE - фото с лицом, на которое будем менять
TARGET - фото или видео, в котором будем менять лицо
OUTPUT PATH - где будет сохранено видео. Также в Output появится итоговое видео
Третий блок содержит в себе:
PREVIEW - Тут вы можете посмотреть как будет выглядеть замена.
FACE RECOGNITION - выбор распознавания лиц. Либо на основе референса, либо все лица.
REFERENCE FACE - тут как раз и будут лица, распознанные на кадре из превью. Выбирая их, вы выбираете какое лицо будет меняться в кадре.
Оставшиеся параметры отвечают за настройки анализа лиц.
Что касается скорости работы - я не заметил разницы с последней версией Roop. Все примерно точно так же, шустро, но можно и шустрее (Refacer и Rope тому примеры)
Как обычно, я сделал портативную версию с запуском в 1 клик. Пока что готова версия для Nvidia, версия для AMD будет позже, ссылку на нее оставлю у себя в Телеграм канале.
Скачать портативную версию можно по ссылкам:
Мое облако | Яндекс Диск
Особенности портативной сборки:
- Запуск в 1 клик, не надо ничего устанавливать
- Удалена 18+ цензура.
- Обновлены библиотеки CUDA (Cudnn 8.9.4)
После открытия программы, откройте в браузере адрес, который будет написан в консоли (обычно http://127.0.0.1:7860)
Последующие обновления, а так же другие дипфейки можно найти у меня в Телеграм канале, а пообщаться на тематику всего, что связано с нейронками - можно в нашем чате.