🔥 Курс по "AUTOMATIC 1111 и Forge" на сайте stabledif.ru 🔥 Курс по "ComfyUI" на сайте stabledif.ru/comfyui 🔑 Все ссылки и файлы доступны на Boosty: boosty.to/stabledif/posts/d04a30f4-6d06-482e-8899-62c3a7c9cbd8?share=post_link
@@АннаБахмач-б6ъ по ссылке страница разработчика. Остальное всё в видео рассказано. Модели скачиваются автоматически. Т5 через manager. Мои схемы на boosty. Штатные схемы в папке расширения.
На 4060Ti 16gb VRAM генерится примерно 16-18 минут(на стандартных 50 шагах), но у меня всего 16 Gb Ram, и ему не хватает ее, выжирает в 0. Ну и ComfyUI я не использую.
@@StableDiff У меня такая галочка только на text-to-video xD На остальных режимах ее нет. Надо просто оперативки доставить и будет быстрее. У меня при генерации видео всего 4 гб VRAM занято .
Может, но все таки это два разных подхода с разной философией. _AnimateDiff_ это специально обученные темпоральные слои к моделям типа StableDiffusion и он скорее больше похож на особый вид LoRA. По изначальной задумке подразумевалось, что AnimateDiff сам не умеет ничего рисовать, эта модель знает только как делать динамику, а за то как это выглядит должен отвечать базовый SD. Так что, по задумке авторов, AnimateDiff должен давать видео по стилю близкие к выбранной SD модели. Но он работает далеко не со всеми моделями, и по моим ощущениям чем сильнее они по промптам отличаются от базовой тем хуже результат. _CogVideo_ напротив умеет все рисовать сам, а не является «особой приправой» к какой-то существующей модели поэтому у него нет проблем с тем, что разные его части обучались на разных датасетах. Но зато у него могут быть проблемы с анимированием тех вещей которых в его датасете не представлено (впрочем как обычно). P.S. Вообще хотелось бы чтобы модульные системы вроде AnimateDiff хорошо работали, но скорее всего на монолитных моделях вроде CogVideo получится быстрее достичь приемлемого качества.
Автор 20 минут рассказывает и показывает как использовать новые технологии и при этом бесплатно. Это и так уже альтруизм. Чё ещё надо? Чтобы он тебе доплачивал за то, что ты смотришь его контент?
🔥 Курс по "AUTOMATIC 1111 и Forge" на сайте stabledif.ru
🔥 Курс по "ComfyUI" на сайте stabledif.ru/comfyui
🔑 Все ссылки и файлы доступны на Boosty:
boosty.to/stabledif/posts/d04a30f4-6d06-482e-8899-62c3a7c9cbd8?share=post_link
Привет. Перешла по ссылке- файлы не нашла)
@@АннаБахмач-б6ъ по ссылке страница разработчика. Остальное всё в видео рассказано. Модели скачиваются автоматически. Т5 через manager. Мои схемы на boosty. Штатные схемы в папке расширения.
жара ! Олег, ты великий Нейро-Евангелист
Спасибо !!!
Великий Гуру!
Ихняя страница. Евойная )))) Облака двишуться ))))))))))))))
И? Да хоть "твояйная", автор видео прекрасно передаёт информацию. За остальным можешь открыть учебник русского языка.
@@maratnews Как только мне потребуется Ваше мнение, я его обязательно спрошу.
@@tolubizer Держи в курсе, а пока свободен.
а шо не так?
Супер, и обязательно поднять diffusers до версии 0.30.3
как?
@@djivanoff13 ..\python_embeded\python.exe -m pip install diffusers==0.30.3
Интересно видео о том как ускорить генерацию изображений flux в comfyui.
Это видео на подходе
@@StableDiff Супер! Спасибо!
Flux от guuf
@@kookovideo У меня Flux от guuf Q 8 дольше генерирует чем простая Flux Dev.
Подскажите где скачать эту модель CogVideoX-5B-I2V
Она автоматом скачивается при запуске схемы 11гб
\examples
@@TheMaxvin базовые схемы там
На 4060Ti 16gb VRAM генерится примерно 16-18 минут(на стандартных 50 шагах), но у меня всего 16 Gb Ram, и ему не хватает ее, выжирает в 0. Ну и ComfyUI я не использую.
@@ДмитрийВасильев-с7й а галочку если снять, о которой я в видео говорил. Скорость должна существенно вырасти и fastmode тоже можно поставить.
@@StableDiff У меня такая галочка только на text-to-video xD На остальных режимах ее нет. Надо просто оперативки доставить и будет быстрее. У меня при генерации видео всего 4 гб VRAM занято .
Интересно, есть возможность зациклить видео ?
3:23 cog video image encode - mask что можно с ней придумать? Получается только маска будет анимироваться?
Не пробовал с маской работать, но вероятно можно будет выделять объект для анимации
А эта штука не сможет заменить в последствии модели Animatediff?
Может, но все таки это два разных подхода с разной философией.
_AnimateDiff_ это специально обученные темпоральные слои к моделям типа StableDiffusion и он скорее больше похож на особый вид LoRA. По изначальной задумке подразумевалось, что AnimateDiff сам не умеет ничего рисовать, эта модель знает только как делать динамику, а за то как это выглядит должен отвечать базовый SD. Так что, по задумке авторов, AnimateDiff должен давать видео по стилю близкие к выбранной SD модели. Но он работает далеко не со всеми моделями, и по моим ощущениям чем сильнее они по промптам отличаются от базовой тем хуже результат.
_CogVideo_ напротив умеет все рисовать сам, а не является «особой приправой» к какой-то существующей модели поэтому у него нет проблем с тем, что разные его части обучались на разных датасетах. Но зато у него могут быть проблемы с анимированием тех вещей которых в его датасете не представлено (впрочем как обычно).
P.S. Вообще хотелось бы чтобы модульные системы вроде AnimateDiff хорошо работали, но скорее всего на монолитных моделях вроде CogVideo получится быстрее достичь приемлемого качества.
++++
очень жаль что автор окончательно ушел в монетизацию и перестал работать для аудитории
Вы про бусти? Схема бесплатно вместе с нодой идет.
Автор 20 минут рассказывает и показывает как использовать новые технологии и при этом бесплатно. Это и так уже альтруизм. Чё ещё надо? Чтобы он тебе доплачивал за то, что ты смотришь его контент?
Спасибо. 3080Ти 20 минут.
Офигеть. На 3070 даже пробовать не буду