Генеративный ИИ с ComfyUI [Udemy] [Sean Bradley]

Складчина: Генеративный ИИ с ComfyUI [Udemy] [Sean Bradley]

Learning the essentials of ComfyUI image and video generation from basic to advanced
Язык английский + субтитры бонусом

screenshot.43.jpg

Изучение основ создания изображений и видео в ComfyUI: от базового до продвинутого уровня

Вы научитесь:

  • Установка ComfyUI и управление
  • Генерация изображений на основе текста
  • Генерация изображений на основе картинок
  • Восстановление утраченных участков изображения
  • Добавление новых элементов к изображению
  • Композиция и работа со слоями
  • Работа с апскейлером ESRGAN — увеличение разрешения и четкости.
  • Как выбирать и сравнивать модели (SD1.5, SDXL, Flux).
  • Особенности работы с моделями Flux Schnell, Dev и Kontext
  • Точное управление позой и формой через ControlNet на основе Canny, Depth and OpenPose
  • IP-адаптеры для SD1.5, SDXL и Flux — перенос стиля и лиц с референсных картинок
  • Stable Video Diffusion (SVD)
  • Интерполяция кадров
  • Video Helper Suite базовые инструменты для загрузки и сохранения видео.
  • ControlNets видео — перенос движения реального человека на ИИ-персонажа.
  • ControlNeXt-SVD управляемая видео-генерация
  • AnimateDiff Создание анимаций из текста и картинок.
  • LTXV создание видео из текста, фото и поз
  • Синхронизация разговора в видео.
  • Изучаем возможности Wan2.2: T2V, I2V, FLF2V, S2V, VACE и Animate
  • Character LoRA Generation: как тренировать и применять микро-модели для своих персонажей.
  • Использование языковых моделей для «умного» описания и правки фото.

Для кого этот курс:

  • Цифровые художники
  • Создатели контента
  • Креативные разработчики
  • Энтузиасты искусственного интеллекта

Материалы курса

  • Вступление 1:45
  • Установка ComfyUI 9:23
  • Базовая схема работы (ворклоу) в ComfyUI
  • Создание изображения из текста
  • Создание изображения на основе другого изображения
  • Инпейнтинг (перерисовка отдельных областей внутри картинки)
  • Аутпейнтинг (дорисовка краев и расширение кадра)
  • Узел для совмещения изображений по маске
  • Подграфы (создание вложенных схем для порядка в ворклоу) 5:29
  • Установка Менеджера ComfyUI (управление узлами)
  • Использование апскейлера ESRGAN для четкости
  • Сравнение различных базовых моделей (чекпоинтов)
  • Увеличение разрешения картинки
  • Работа с моделью видео-диффузии от Stability AI
  • Интерполяция кадров (сглаживание видео, добавление FPS)
  • Контроль по контурам (линиям)
  • Контроль по карте глубины (объему)
  • Контроль по позе человека
  • Перенос стиля и объектов с картинки-референса
  • Управление позой в модели Flux
  • Перенос стиля/лиц в модели Flux
  • Извлечение данных контроля (поз, линий) из готового видео
  • Создание плавной анимации через дообученные модули
  • Набор инструментов для работы с видео (загрузка/выгрузка)
  • Продвинутый контроль для видео-модели SVD
  • Создание видео из текста через модель LTXV
  • Создание видео из картинки через LTXV
  • Контроль позы с использованием контекстных LoRA в LTXV
  • Работа с контекстной версией модели Flux (для правок) (FLUX.1)
  • Использование нескольких референсов в Flux Kontext (FLUX.1)
  • Видео из текста (Wan 2.2)
  • Видео из картинки и управление первым/последним кадром (Wan 2.2)
  • Редактирование через модель Qwen: смена ракурсов камеры
  • Узел для извлечения линий
  • Синхронизация движения губ со звуком (Wan 2.2)
  • Редактирование видео через архитектуру VACE (Wan 2.2)
  • Замена персонажа на видео через Wan 2.2
  • Работа с моделью Flux.2 (версия Klein)
  • Создание (тренировка) LoRA персонажа с помощью модели Qwen
  • Использование LoRA для управления освещением через Qwen
  • Настройка ComfyUI в облаке (Runpod) с постоянным хранилищем данных
  • Приложение: Работа в ComfyUI на старых видео картах

Спойлер: Оригинальное описание What you'll learn
Installing ComfyUI & Manager
Text to Image
Image to Image
Inpainting
Outpainting
Layer Composition
ERSGAN
Model Checkpoint Comparison
Flux Schnell, Dev and Kontext
Canny, Depth and OpenPose ControlNets
IP-Adapters for SD1.5, SDXL and Flux
Stable Video Diffusion (SVD)
Frame Interpolation
Video Helper Suite
ControlNets from Videos
ControlNeXt-SVD
AnimateDiff
LTXV Text, Image & IC Pose to Video
Lip Sync with Sonic
Wan2.2 T2V, I2V, FLF2V, S2V, VACE & Animate
Character LoRA Generation
Qwen Image & Qwen Edit workflows

Course Materials
Foreword1:45
Install ComfyUI9:23
Basic ComfyUI Workflow22:42
Text to Image (T2I)14:58
Image to Image (I2I)9:16
Inpainting8:39
Outpainting4:57
The ImageCompositeMasked Node8:13
Subgraphs5:29
Install ComfyUI Manager5:23
ESRGAN9:21
Model Checkpoint Comparison21:57
Latent Upscaling10:56
Stable Video Diffusion14:40
Frame Interpolation11:40
Canny ControlNet20:06
Depth ControlNet17:26
OpenPose ControlNet15:53
IP-Adapter15:14
OpenPose ControlNet with Flux7:20
IP-Adapter with Flux15:38
ControlNets from Video11:20
AnimateDiff23:44
Video Helper Suite12:59
ControlNeXt SVD21:27
LTXV Text To Video16:43
LTXV Image To Video12:42
LTXV In Context LoRA Pose Control18:40
FLUX.1 Kontext17:12
FLUX.1 Kontext with Multiple Images11:07
Wan 2.2 Text to Video (T2V)12:18
Wan 2.2 Image to Video (I2V & FLF2V)22:24
Qwen Edit — Multiple Camera Angles13:39
Get Line Custom Node5:44
Lip Sync using Wan 2.2 (S2V)19:32
Wan 2.2 VACE Video Editing29:59
Wan 2.2 Animate — Character Replacement20:18
FLUX.2 Klein11:43
Generate a Character LoRA using Qwen18:48
Qwen Lighting LoRA9:18
Setup ComfyUI on Runpod with Persistent Storage14:04
Appendum : Using ComfyUI with a 10 Series Nvidia GPU
Цена 1000 руб. ($11)