0152 Обработка видео в нейросети Stable Diffusion

Поділитися
Вставка
  • Опубліковано 18 жов 2024

КОМЕНТАРІ • 412

  • @TimesaverVFX
    @TimesaverVFX  9 місяців тому +1

    🔥Друзья, вышла обновленная техника стилизации видео: ua-cam.com/video/8fUxU_RDR_o/v-deo.html

    • @fantastickworld
      @fantastickworld 3 місяці тому +1

      через год, даже скрипт не тот и видимо не туда надо ставить, так что инфа на 24 год уже с ошибками - нужна свежая

  • @TopsyPlay
    @TopsyPlay Рік тому +17

    В идеале нейросеть должна оставлять тот же самый сид для каждого кадра видео, но в итоге каждый кадр разный

  • @KavkazMix
    @KavkazMix 11 місяців тому +1

    В чем может быть проблема?
    Во вкладке img2img, в controlNet - нет окна, куда вставлять картинку/фото.
    Во вкладке Txt2img, далее в controlNet - окно есть.
    Все делал по видео и перепроверял потом

  • @ШколаплаванияКроль

    очень круто! шикарный голос, информация без воды! мотивирует к развитию и экспериментам в творчестве и работе! спасибо!

  • @ОлексійСеливанов
    @ОлексійСеливанов Місяць тому

    "См. ротоскопинг!" Пока что приходится смотреть без практики. Благодарю автора!

  • @ChertovoKoleso
    @ChertovoKoleso Рік тому +13

    Потрясающий канал, шикарные видео!
    Приятно смотреть и слушать!
    Спасибо вам!

    • @olga_radi
      @olga_radi 7 місяців тому

      Удали видео из папки, оно самый первый кадр

  • @ГлебДубровский-д6ъ
    @ГлебДубровский-д6ъ 8 місяців тому +1

    Спасибо! Молодец что каждый шаг объясняешь и говоришь зачем он нужен. Сейчас столько бездарных учителей развелось,: "Ставьте здесь галочку, потому что так нужно". Ещё совести хватает свои обучающие курсы рекламировать=) Но ты красавчик, крепкий лайк!

  • @cap_norton
    @cap_norton Рік тому +7

    Крутецкая тема, и довольно понятный туториал. Спасибо

    • @UraFlight
      @UraFlight Рік тому

      Что значит туториал ?

    • @JasonXxXLive
      @JasonXxXLive Рік тому

      @@UraFlight Ну это по-пиндосовски "инструкция".

  • @DauletAzhdar
    @DauletAzhdar 5 місяців тому

    Спасибоо, за эту неделю столько видео посмотрел по sd, это видео самое понятное🔥🔥🔥

  • @FirenikoTube
    @FirenikoTube Рік тому +7

    Спасибо! как всегда понятным языком, подробно и главное актуально по тому, что в тренде.

  • @dankus88
    @dankus88 Рік тому +2

    спасибо за мастер-класс, вы супер!

  • @Alexandr_Chapurin
    @Alexandr_Chapurin Рік тому +2

    Крутяк, и объяснения очень грамотные 👍🏻

  • @ArtchiFAVN
    @ArtchiFAVN Рік тому

    Хачатур на днях свою новую модель выпустил, очень рекомендую ознакомиться

  • @vechtruba
    @vechtruba Рік тому

    У меня в рендере берет только первую оригинальную картинку и по ней делает остальные действия, т.е. анимации никакой нет, просто вариации рендера именно первого кадра, что может быть не так? Рендер в ReV animated , может ли быть в этом проблема?

  • @PosPictures_
    @PosPictures_ Рік тому +2

    Ты очень крут,спасибо что делаешь видео для нас)

  • @daryhan9429
    @daryhan9429 Рік тому +3

    Ох уж эти нейросети... Сильно облегчает монтаж. НО! Качество у видимо выходит пропорционально стараниям)
    Куда проще не парить себе мозг, в автерэфекте или синема4д поставить трассировку сцены и привязать точки тела к модельке. Делов на 20 минут. А результат в разы лучше.

  • @daniilpr7437
    @daniilpr7437 Рік тому +2

    Отличный голос и подача информации ❤

  • @Але-с8и
    @Але-с8и Рік тому +1

    процентов 75 понятно даже не очень посвященному, спасибо! осталось что-то с видюхой придумать)

  • @nurlanzhanrn
    @nurlanzhanrn Рік тому +24

    Негативный промт:
    deformed, distorted, disfigured, poorly drawn, bad anatomy, wrong anatomy, extra limb, missing limb, floating limbs, mutated hands and fingers, disconnected limbs, mutation, mutated, ugly, disgusting, blurry, amputation

    • @ГРОМ32
      @ГРОМ32 Рік тому +2

      Спасибо)

    • @olonzon
      @olonzon 11 місяців тому

      ебатьь спасибо

    • @vovk_a
      @vovk_a 2 місяці тому

      Спасибо мил человек))

  • @NikolayStorm
    @NikolayStorm Рік тому

    Полезный гайд. Спасибо!

  • @vechtruba
    @vechtruba Рік тому

    Пытался вывести изображения в разрешении 1200х800, выдало ошибку CUDA out of memory. Tried to allocate 42.58 GiB, видеокарта rtx4090, как мне рассчитать разрешение, чтобы хватало видеопамяти на обработку секвенции jpeg?

  • @Dizel2002
    @Dizel2002 Рік тому

    ОЧЕНЬ КРУТОЙ УРОК! Спасибо!

  • @dddodin
    @dddodin Рік тому

    Очень крутой видос, как раз то, что я искал. Спасибо

  • @panarin.marketing
    @panarin.marketing 7 місяців тому

    Александр, здравствуйте. Видео получилось очень подробным и понятным. Буду применять Ваше обучение на практике и пересматривать материал не один раз. Благодарю за Ваши труды.

  • @Comic_AI_Chronicles
    @Comic_AI_Chronicles Рік тому +2

    привет. на 6.06 я бы добавил применить ,а потом уже перезагрузить. рассказываешь зачётно спасибо

    • @oli_box
      @oli_box Рік тому

      Да, точно подмечено, нажимаешь применить и Windows вылетает на_ер

    • @Comic_AI_Chronicles
      @Comic_AI_Chronicles Рік тому

      @@oli_box 😁странно у меня не вылетает😁

  • @neuromaker
    @neuromaker Рік тому +6

    Спасибо! Скрипт и темпоралнет не юзал, буду пробовать) Шум обычно снижал уже в давинчи дефликером, надеюсь скоро появятся способы совсем его исключить, чтоб гладко было, как через абсент.
    Кстати чтобы вручную не подгонять размер, есть специальная кнопка с треугольником рядом) Так же можно поставить доп расширение для удобства выбора различных популярных форматов.

    • @ITsMaxART
      @ITsMaxART Рік тому +1

      Речь идет о разных шумах ) В видео говорится про шум при генерации, вариативность, так сказать... А вы в Давинчи убираете шум-зерно ))

  • @igrovoy_K
    @igrovoy_K Рік тому +61

    Чувствую, видеокарты теперь как после майнинга помирать будут)

    • @stefan_es
      @stefan_es Рік тому +1

      О да

    • @v1perys
      @v1perys Рік тому

      Андерклочь

    • @stefan_es
      @stefan_es Рік тому +1

      Ну 4080 в принципе не так сильно греется. Так что норм у тех кто 4070ti и выше для такого

    • @Airbender131090
      @Airbender131090 Рік тому +12

      Фишка майнинга в том что карты 24/7 работали. Тут это зачем? И карта оч слабо греется от SD. В играх сильнее греется

    • @stefan_es
      @stefan_es Рік тому +5

      @@Airbender131090 ну так если поставишь рендерить видео, то вот тебе и майнинг 2.0
      Видеопамять забьет под 100% и будет молотить до победного

  • @AlexeySamara
    @AlexeySamara Рік тому +7

    При установке Stable Diffusion файлик webui-user-first-run.cmd надо запускать в папке, куда распаковали архив. Автор забыл об этом упомянуть. Можно потерять дохрена времени ))

    • @ЗарядБодрости
      @ЗарядБодрости Рік тому

      а где его ещё можно запустить?

    • @AlexeySamara
      @AlexeySamara Рік тому

      @@ЗарядБодрости там, где исходники, например. Где он и лежит изначально.

    • @ЗарядБодрости
      @ЗарядБодрости Рік тому

      @@AlexeySamara не знаю. проблем не возникало с запуском никогда

  • @daniilpr7437
    @daniilpr7437 Рік тому

    Крутая сборка на самом деле, а то замучился тыкаться в ссылки , а тут скачал и все ❤

  • @igemon4845
    @igemon4845 Рік тому

    Вообще Stable warp fusion сейчас самое простое, но чуваки начали в деформ делать видео, не хуже, а даже лучше

    • @michail_777
      @michail_777 Рік тому

      В Deforum это можно было делать ещё в марте.

  • @liloogames
    @liloogames Рік тому

    огонь, все понятно и без воды, спс

  • @AnnaMagneli
    @AnnaMagneli Рік тому +5

    UnidentifiedImageError: cannot identify image file '/tmp/gradio/da39a3ee5e6b4b0d3255bfef95601890afd80709/20210825_143657_1_000001.jpg'
    Time taken: 0.09sTorch active/reserved: 2946/3452 MiB, Sys VRAM: 4791/15102 MiB (31.72%) не подскажите что это значит?

    • @РоманО-ю4п
      @РоманО-ю4п 7 місяців тому

      нашли решение? у меня такая же проблема.

  • @RRIVALART
    @RRIVALART Рік тому

    Вопрос, а одновременно 2х и больше людей на видео можно так обработать?
    Или в таком случае надо каждого будет сначала ротоскопить и потом композить отдельно после обработки?

  • @PoBoxy_
    @PoBoxy_ Рік тому +2

    спасибо, очень интересно, сразу захотелось нормальную видеокарту:D

    • @KirillPodcast
      @KirillPodcast Рік тому

      Так она всегда нужна была вроде не? 🤷🏻‍♂️😁😅

  • @duckduckov4362
    @duckduckov4362 Рік тому

    Наконец-то нашёл полнейший гайд

  • @Bukaa900
    @Bukaa900 Рік тому

    ПОсмотрел твой ролик один раз) мало че понял буду разбираться ) спасибо.. Я думаю с твоей помошью получится научится

  • @xadjud
    @xadjud Рік тому

    зачёт за туториал!! есть ещё достойные сетки бесплатные что бы делать видео

  • @alexraycan
    @alexraycan Рік тому

    отличное видео, спасибо!

  • @luvr101
    @luvr101 Рік тому

    Вот так на примере стало понятнее

  • @wladradchenko
    @wladradchenko Рік тому +1

    Привет. Сегодня сделал обновление своего проекта с открытым исходным кодом. Теперь можно менять video to video, при помощи промта, при этом за один пробег привязывать промты к разным обьектам на разном таймлайне и программа автоматически будет создавать маску. А результат выглядит стабильнее чем в примере, настроек мало, поэтому легче вникнуть. На каждом кадре остается сид выбранный пользователем, поэтому при запуске с теми же параметрами, получится то же видео. Может интересно будет сделать обзор на Wunjo AI для создания видео. Написал о том как работает на Хабре.

    • @TimesaverVFX
      @TimesaverVFX  Рік тому +1

      Привет, крутая программа, ретушь объектов особенно интересует, обязательно потестирую ее, по поводу стилизации видео, самый стабильный вариант сейчас дает animateddiff+contronet tile, ip2p, там суть в генерации пачки кадров за один раз, ebsynth дает много артефактов на сильных движениях

    • @wladradchenko
      @wladradchenko Рік тому

      ​@@TimesaverVFXда, это правда, при сильных движениях заметны артефакты. Посмотрю на это решение, как его можно будет соединить с моим. Спасибо

  • @rastafar777
    @rastafar777 Рік тому

    Спасибо! Спасибо! Спасибище!🤝

  • @Whitefoxx1
    @Whitefoxx1 6 місяців тому

    Здравствуйте. Скачал сегодня все как показали. За исключением одного момента. В файле shared нет нужной строки т.к. в вашем видео размер файла 47килобайт, а у меня только 3 килобайта. Где еще можно взять данный файл?

  • @silentbobgame
    @silentbobgame Рік тому +1

    Спасибо большое, это просто самое классное видео. Вы всё чётко рассказали, я оторваться от видео не смог.

  • @UCrEdstktTsLwcJR6dk6sMXw2
    @UCrEdstktTsLwcJR6dk6sMXw2 Рік тому +2

    AI заклинатель. Правда часто работа с АI движками похожа на "Если в бутылку напихать мусор и долго трясти, иногда корабли получаются"

    • @TimesaverVFX
      @TimesaverVFX  Рік тому +1

      да, нужно учится трясти бутылку правильно)

    • @mymobigoogle205
      @mymobigoogle205 Рік тому +1

      А если оттуда отпить, то они еще и плавают. А у некоторых даже ходят.

  • @fishing_life
    @fishing_life Рік тому

    Оооооооооочень крутая тема. Просто супер

  • @Dizel2002
    @Dizel2002 11 місяців тому +1

    Спасибо за урок! Где можно скачать сборку Stable Diffusion со всеми установленными плагинами если у меня нет подписки на Boosty?

  • @Daemoniklis
    @Daemoniklis Рік тому +3

    Наконец то от Вас обзор на СД)
    Жаль конечно, что не показано как это делать через Гугл колаб для владельцев мак

    • @STTQ
      @STTQ Рік тому

      Для владельцев мак все точно так же. Уже год генерирую пички и видео на MacOS. Единственное, НО - данный скрипт никак не хочет заводиться. Автор где-то недоговаривает

  • @MrHopeOrLess
    @MrHopeOrLess Рік тому

    Дружище, только зашёл, просто скажу тебе критику сразу, что заметил, надеюсь, она будет конструктивной. Не у всех 720р стоит, и не все на полный экран смотрят. Если бы ты мог приближать ту часть экрана с важной инфой, как имена плагинов, которые ты проговариваешь. Мне бы это точно помогло. Например 2:22 момент, 50% это серый фон. Я надеюсь, я сейчас не душу))))

  • @Lavesta
    @Lavesta Рік тому +2

    Отлично все объяснил по полочкам спасибо 🙏

  • @АндрейВолков-ь2ц8н

    Мега круто, спасибо!)

  • @Johnny_Ash
    @Johnny_Ash Рік тому +4

    Добрый день. Вроде, всё устарновилось, даже рендерит. Но проблема в том, что все фреймы делает одинаковыми, как будто с первого загруженного кадра. Что я упускаю, подскажите, пожалуйста.

    • @RedGrifon02
      @RedGrifon02 Рік тому +3

      Такая же ситуация, даже сид убрал, чтобы не основывалось на 1 генерации, но не меняет ничего от картинки к картинке

    • @denisdomanskii7458
      @denisdomanskii7458 Рік тому

      не надо загружать первую картинку в контролнет, он сам будет брать из img2img.

    • @Johnny_Ash
      @Johnny_Ash Рік тому

      @@denisdomanskii7458 Спасибо, попробую, отпишусь.

    • @kukmax3059
      @kukmax3059 Рік тому

      Тоже столкнулся с этой проблемой. Решилось изменением в скрипте "multi-frame rendering video" самой последней настройки Sampling steps - выставил inputFrame вместо FirstGen.

  • @daniilpr7437
    @daniilpr7437 Рік тому

    Надо будет ещё попробовать добавить промы на 2023

  • @strictly_social
    @strictly_social Рік тому +1

    бро, спасибо за гайд! но не депт, а дэф (depth), и не кат вумэн, а кьют (cute) вумэн😀 ну так, чтобы и ты от нас чему-нибудь научился, как и мы от тебя)))

    • @mymobigoogle205
      @mymobigoogle205 Рік тому +1

      Дэф - это глухой. :) Если уж на русишь транскрибировать, то ДЭПТс.

  • @onebytesiteit30-75
    @onebytesiteit30-75 Рік тому

    буду ждать когда для макбуков будет

  • @Karim3run
    @Karim3run 11 місяців тому

    когда параметр Noise multiplier for img2img ставлю в ноль, получается муть какая-то, практически без изменений относительно исходника, только все блекнет.

  • @nickus9104
    @nickus9104 Рік тому +2

    Урок крутой, спасибо, но беда - рендерит исключительно ту картинку, которую в контрол нет и в I2I вставляет. С папки ни один последующий кадр не хочет брать х(

  • @photoadil
    @photoadil 11 місяців тому

    20 секундный ролик показывает время рендера 7 часов, но генерит 3 фрэйма
    и останавливается (( В чём проблема ?

  • @usachannel1114
    @usachannel1114 Рік тому

    А можно для AMD сборку? Или подскажите где можно взять пожалуйста.

    • @an4e238
      @an4e238 Рік тому +1

      На 4pda пост "Portable Stable Diffusion | Нейронная сеть для создания и обработки изображений" там есть спойлер для установки на amd

  • @ДмитрийКайгородов-ш4ы

    Тема 🔥

  • @LAVRADUR
    @LAVRADUR Рік тому

    Спасибо

  • @servicepnz6622
    @servicepnz6622 Рік тому

    Прикольно

  • @ИльдарУрмантаев

    Здравствуйте! Хотел скачать вашу сборку Stable Diffusion со всеми установленными плагинами ? Для этого надо платно подписаться?

  • @vaysheslavvolkov1581
    @vaysheslavvolkov1581 Рік тому

    Спасибо!)

  • @broncotv76
    @broncotv76 Рік тому

    та ты гений, бро!!!

  • @MartiStr
    @MartiStr Рік тому +1

    а что делать если в интерфейса SD не параметра noise multiplier for img2img, может этот ползунок как то отдельно включается? Помогите плиз

  • @movie-trailer19
    @movie-trailer19 Рік тому

    Sanches, привет. Подскажи какую на сегодняшний момент можно поставить сборку для генерации видео кадров?

  • @alexandergoodkind2620
    @alexandergoodkind2620 Рік тому +1

    Noise multiplier for img2img
    должен всегда стоять на 1, иначе мыло
    фигня каято
    видать не все рассказано
    намекают на буст

    • @serges85468
      @serges85468 Рік тому +1

      Самый лучший комментарий. После всех этих танцев не знал как вернуть нормальный img2img, оказалось нужно лишь выставить этот параметр на1 !

  • @audiobooks_with_translation

    Добрый день. У меня вопрос. У меня есть несколько (более трех десятков по 30 минут) оцифрованных видео с 8 мм кинопленки (моих дедушки и бабушки снятых в 1960-80 годах) Можно ли их как то автоматически (этой технологией) стабилизировать и раскрасить в нормальные естественные цвета, то есть превратить в более менее нормальное видео, потому что, те кадры после оцифровки смотреть практически невозможно, нужно как то обрабатывать. Не подскажите где и как это можно сделать / научиться обработать самому?

    • @ВадимЯковенко-к5м
      @ВадимЯковенко-к5м Рік тому

      Думаю теоретически можно это сделать, но тут есть некоторые проблемы. Для того чтобы подобной технологией улучшить видео длинной более 30 минут, понадобится оооооооочень много времени (к примеру видео 20 секунд длинной может обрабатываться + - 2 часа на ПК с видеопамятью 8+ GB), отсюда следует что нужен оооооочень мощный пк который обойдётся не в одну тысячу долларов, и даже если вы найдете того кто это сделает для вас, то это будет стоить ооооочень дорого. На данный момент это как полёт к звёздам, в теории возможно, но на практике... есть проблемы)) Думаю не за горами времена когда подобные вещи станут доступны всем, надо лишь подождать.

    • @audiobooks_with_translation
      @audiobooks_with_translation Рік тому

      @@ВадимЯковенко-к5мя это решение (восстановления старых видео) и пытаюсь найти. ПК у меня достаточно мощный, а вот про людей которые владеют такими технологиями я только слышу, но найти не могу ...

  • @sergeylucky7113
    @sergeylucky7113 Рік тому

    Что ж... В целом, с основой всё стало понятно, за потраченое время пока благодарность. Задонатить безусловно нужно. Всё получилось, результат если честно, ну так себе ... Сид вроде зафиксирван задний план всё равно скачет (не весь прям, а по мелочам) , при малейшем повороте головы начинается дичь. Для себя , поржать может быть, но не более ... В общем разбор полётов продолжается. Deforum пока лидирует.

  • @21grammov54
    @21grammov54 Рік тому

    Мужик, ты просто бог!
    Это лучшее видео по теме что я встречал с самого начала работы с дифюжн!!

  • @Richard-vv3lg
    @Richard-vv3lg Рік тому +3

    Почему смотря это видео, я чувствую себя дедом, который впервые взял в руки смартфон🤣🤦

    • @skynev
      @skynev Рік тому

      Жиза 🤣

  • @kkonado
    @kkonado Рік тому

    ❤❤❤

  • @dmitriy_fatio9992
    @dmitriy_fatio9992 7 місяців тому

    странно, у меня в файле shared нету такой строки(initial) и содержимое меньше чем на примере в видео, почему так(открываю обычным блокнотом)

  • @Elena-b6w
    @Elena-b6w Рік тому

    Спасибо! Какой программой вы пользуетесь для быстрой вставки пресетов?

  • @Dad-g4h
    @Dad-g4h Рік тому +1

    Очень хороший туториал . Какую видеокарту используешь на видео? Не похоже что в ней 8 гиг. Скрипт этот очень к видеопамяти требовательный.

    • @TimesaverVFX
      @TimesaverVFX  Рік тому +1

      rtx3070 в ноутбуке, я же говорил в видео, оптимизируйте SD, xformers ставьте обязательно

    • @Dad-g4h
      @Dad-g4h Рік тому +1

      @@TimesaverVFX Спасибо, попробую. Сейчас у меня с 2 CN уже на двойной картинке 720 на 405 потребляет 12 МБ Vram. А на тройной до 16.

  • @AndreyVoyager
    @AndreyVoyager Рік тому

    Познавательное видео! Давно хотел сделать что-то подобное, но не знал с помощью чего и как сделать. А что за музыка звучит в ролике? Название трека можно было бы и в описании оставить.

  • @ЕвгенийГригоренко-т3ь

    урок замечательный, Stable Diffusion был уже установлен, остальное делал по Вашему уроку, и застопорился в одном месте, в разделе Settings/User interface в строчке Quicksettings list не могу добавить initial_noise_multiplier, нажимаю на строчку и окно выбора не открывается, из за чего так?

    • @tvcrowd6009
      @tvcrowd6009 Рік тому

      Да просто введите через запятую с клавиатуры

  • @WishNine
    @WishNine Рік тому

    Добрый день. А можно как-то соединить 2 изображения? вот у меня есть файл видео, и второй скажем с нужной моделькой, нужно заставить модельку двигаться как на видео, есть такая возможность?

  • @BADMUSICIANS
    @BADMUSICIANS Рік тому

    HELP! После запуска webui-user-first-run.cmd , во время работы командной строки выдает ошибку "не удается найти ""git_python.part01.exe" Проверьте, правильно ли указано имя и повторите попытку" - в общем дальше этого ничего не идет. Что делать люди добрыя?)))?

  • @granta_met
    @granta_met Рік тому

    🦋

  • @dixilarina_photographer
    @dixilarina_photographer Рік тому

    Вопрос, по какой причине скрипт (beta) multi-frame... рендерит только первый кадр? Что-то явно упущено в вашем видео.

  • @leoniddzhabiev
    @leoniddzhabiev Рік тому

    ты мощный

  • @RulaTwitch
    @RulaTwitch Рік тому

    Подскажите пожалуйста, всё подготовил всё для Multi frame video renderig, и в скрипте всё настроил по вашему уроку, но как только жму кнопке generate, он генерит один и тот же кадр, не идет по остальным, только первое фото, далее оно просто копируется. Что может быть не так?

    • @TimesaverVFX
      @TimesaverVFX  Рік тому +1

      попробуйте закинуть первый кадр в image to image и controlnet и потом запускать скрипт

    • @RulaTwitch
      @RulaTwitch Рік тому

      @@TimesaverVFX так и сделал, всё повторил с вашего видео, но по прежнему) уже даже переустановил всё полностью) буду искать решение) спасибо за ответ)

  • @endryu.creator
    @endryu.creator Рік тому

    Не работает почемуто, генерит только то фото которое на превю( в чём может быть беда?

  • @funnybox9027
    @funnybox9027 Рік тому

    Вот только твоя сборка стоит 5.2 долара. Поотому что столько стоит подписка чтобы скачать твою сборку

  • @sarabgaming3242
    @sarabgaming3242 Рік тому

    Подскажите почему может очень долого генерировать кадры через multi-frame video, 440 кадров, выставил достаточно низкое качество, вроде железо неплохое, но на генерацию уходит 15 часов

  • @msharapov
    @msharapov Рік тому

    Подскажите. Сделал по инструкции из видоса, у меня ИИ почему-то выдал несколько вариантов обработки, я выбрал первый, закрепил, но в итоге всё равно обработал не по примеру одной а по нескольким. Как можно исправить или фиксировать для обработки только один вариант? Спасибо

  • @SergeyCG
    @SergeyCG Рік тому

    Спасибо за урок! Но у меня чет только первый кадр хорошо выводит, потом рандомно все, даже нет персонажей в кадре, тупо пустая комната. Почему так, не подскажете? а кто несколько раз делал по видео, но не получилось.

    • @TomHaevy
      @TomHaevy Рік тому

      Нашли решение?

  • @polinabeautylab
    @polinabeautylab 11 місяців тому

    Подскажите пожалуйста какой ноутбук лучше для работы со SD, спасибо 😊

    • @llirik88
      @llirik88 10 місяців тому +1

      стационарный )

  • @motiondi51
    @motiondi51 Рік тому +4

    Сразу лайк, даже не глядя :)))

  • @andvfxer
    @andvfxer Рік тому

    интересно когда выпустят уже норм расширение для плавной анимации

  • @rukivdele
    @rukivdele 7 місяців тому

    Блин у меня все время получается первый кадр на выходе , да генерит их большое множество и так же берет три кадра на превью , но в папке выходной всегда первый кадр в большом количестве , что не так

  • @boris8340
    @boris8340 Рік тому

    Добрый день, 2:50 пытаюсь установить загруженные модели, но нет папки models/ControlNet, само расширение установлено и отображается.

  • @АннаСергеева-ю2х
    @АннаСергеева-ю2х 9 місяців тому

    Кто нибудь подскажет почему из серии фоток не стилизуются в видео. Вылетает на все эти фото только одна фотография которую я згенирировала, для применения
    в видео?

  • @TheMaxvin
    @TheMaxvin Рік тому

    И еще, вес контролнета понижаем до 0.7 и в тоже время ставим что он более важен. Не противоречие?

  • @Sereggga-videographer
    @Sereggga-videographer 9 місяців тому

    Попытался устновить.
    Пишет что нужен файл api-ms-win-core-path-l1-0.dll

  • @stefan_es
    @stefan_es Рік тому

    Окей, вопрос такой. Как использовать одновременно несколько моделей Control Net? Допустим я хочу взять с одного видео open pose и на его основе сделать со своим пермонажем движения в видео. Это возможно осуществить?

  • @vovasykhorukov4351
    @vovasykhorukov4351 Рік тому +5

    UnidentifiedImageError: cannot identify image file 'C:\\Users\\mrazb\\AppData\\Local\\Temp\\Untitled00000000_000002h_1bs_o1.jpg'
    Не могу победить вот это

  • @АлександрШтуберт

    Спасибо! Очень круто. Понятно и полезно. Только у меня нет ползунка "noise multiplier", на его месте располагается ползунок "clip skip". Как быть?

    • @TheYulyaJuly
      @TheYulyaJuly Рік тому

      тоже не могу найти...(

  • @thekostter
    @thekostter Рік тому

    Можешь подсказать как обработать секвенцию так, чтобы нейросеть глаза закрывала, потому что если написать в промт любой цвет глаз который хочешь, то они всегда будут открыты