В чем может быть проблема? Во вкладке img2img, в controlNet - нет окна, куда вставлять картинку/фото. Во вкладке Txt2img, далее в controlNet - окно есть. Все делал по видео и перепроверял потом
Спасибо! Молодец что каждый шаг объясняешь и говоришь зачем он нужен. Сейчас столько бездарных учителей развелось,: "Ставьте здесь галочку, потому что так нужно". Ещё совести хватает свои обучающие курсы рекламировать=) Но ты красавчик, крепкий лайк!
У меня в рендере берет только первую оригинальную картинку и по ней делает остальные действия, т.е. анимации никакой нет, просто вариации рендера именно первого кадра, что может быть не так? Рендер в ReV animated , может ли быть в этом проблема?
Ох уж эти нейросети... Сильно облегчает монтаж. НО! Качество у видимо выходит пропорционально стараниям) Куда проще не парить себе мозг, в автерэфекте или синема4д поставить трассировку сцены и привязать точки тела к модельке. Делов на 20 минут. А результат в разы лучше.
Пытался вывести изображения в разрешении 1200х800, выдало ошибку CUDA out of memory. Tried to allocate 42.58 GiB, видеокарта rtx4090, как мне рассчитать разрешение, чтобы хватало видеопамяти на обработку секвенции jpeg?
Александр, здравствуйте. Видео получилось очень подробным и понятным. Буду применять Ваше обучение на практике и пересматривать материал не один раз. Благодарю за Ваши труды.
Спасибо! Скрипт и темпоралнет не юзал, буду пробовать) Шум обычно снижал уже в давинчи дефликером, надеюсь скоро появятся способы совсем его исключить, чтоб гладко было, как через абсент. Кстати чтобы вручную не подгонять размер, есть специальная кнопка с треугольником рядом) Так же можно поставить доп расширение для удобства выбора различных популярных форматов.
При установке Stable Diffusion файлик webui-user-first-run.cmd надо запускать в папке, куда распаковали архив. Автор забыл об этом упомянуть. Можно потерять дохрена времени ))
Вопрос, а одновременно 2х и больше людей на видео можно так обработать? Или в таком случае надо каждого будет сначала ротоскопить и потом композить отдельно после обработки?
Привет. Сегодня сделал обновление своего проекта с открытым исходным кодом. Теперь можно менять video to video, при помощи промта, при этом за один пробег привязывать промты к разным обьектам на разном таймлайне и программа автоматически будет создавать маску. А результат выглядит стабильнее чем в примере, настроек мало, поэтому легче вникнуть. На каждом кадре остается сид выбранный пользователем, поэтому при запуске с теми же параметрами, получится то же видео. Может интересно будет сделать обзор на Wunjo AI для создания видео. Написал о том как работает на Хабре.
Привет, крутая программа, ретушь объектов особенно интересует, обязательно потестирую ее, по поводу стилизации видео, самый стабильный вариант сейчас дает animateddiff+contronet tile, ip2p, там суть в генерации пачки кадров за один раз, ebsynth дает много артефактов на сильных движениях
Здравствуйте. Скачал сегодня все как показали. За исключением одного момента. В файле shared нет нужной строки т.к. в вашем видео размер файла 47килобайт, а у меня только 3 килобайта. Где еще можно взять данный файл?
Для владельцев мак все точно так же. Уже год генерирую пички и видео на MacOS. Единственное, НО - данный скрипт никак не хочет заводиться. Автор где-то недоговаривает
Дружище, только зашёл, просто скажу тебе критику сразу, что заметил, надеюсь, она будет конструктивной. Не у всех 720р стоит, и не все на полный экран смотрят. Если бы ты мог приближать ту часть экрана с важной инфой, как имена плагинов, которые ты проговариваешь. Мне бы это точно помогло. Например 2:22 момент, 50% это серый фон. Я надеюсь, я сейчас не душу))))
Добрый день. Вроде, всё устарновилось, даже рендерит. Но проблема в том, что все фреймы делает одинаковыми, как будто с первого загруженного кадра. Что я упускаю, подскажите, пожалуйста.
Тоже столкнулся с этой проблемой. Решилось изменением в скрипте "multi-frame rendering video" самой последней настройки Sampling steps - выставил inputFrame вместо FirstGen.
бро, спасибо за гайд! но не депт, а дэф (depth), и не кат вумэн, а кьют (cute) вумэн😀 ну так, чтобы и ты от нас чему-нибудь научился, как и мы от тебя)))
когда параметр Noise multiplier for img2img ставлю в ноль, получается муть какая-то, практически без изменений относительно исходника, только все блекнет.
Урок крутой, спасибо, но беда - рендерит исключительно ту картинку, которую в контрол нет и в I2I вставляет. С папки ни один последующий кадр не хочет брать х(
Добрый день. У меня вопрос. У меня есть несколько (более трех десятков по 30 минут) оцифрованных видео с 8 мм кинопленки (моих дедушки и бабушки снятых в 1960-80 годах) Можно ли их как то автоматически (этой технологией) стабилизировать и раскрасить в нормальные естественные цвета, то есть превратить в более менее нормальное видео, потому что, те кадры после оцифровки смотреть практически невозможно, нужно как то обрабатывать. Не подскажите где и как это можно сделать / научиться обработать самому?
Думаю теоретически можно это сделать, но тут есть некоторые проблемы. Для того чтобы подобной технологией улучшить видео длинной более 30 минут, понадобится оооооооочень много времени (к примеру видео 20 секунд длинной может обрабатываться + - 2 часа на ПК с видеопамятью 8+ GB), отсюда следует что нужен оооооочень мощный пк который обойдётся не в одну тысячу долларов, и даже если вы найдете того кто это сделает для вас, то это будет стоить ооооочень дорого. На данный момент это как полёт к звёздам, в теории возможно, но на практике... есть проблемы)) Думаю не за горами времена когда подобные вещи станут доступны всем, надо лишь подождать.
@@ВадимЯковенко-к5мя это решение (восстановления старых видео) и пытаюсь найти. ПК у меня достаточно мощный, а вот про людей которые владеют такими технологиями я только слышу, но найти не могу ...
Что ж... В целом, с основой всё стало понятно, за потраченое время пока благодарность. Задонатить безусловно нужно. Всё получилось, результат если честно, ну так себе ... Сид вроде зафиксирван задний план всё равно скачет (не весь прям, а по мелочам) , при малейшем повороте головы начинается дичь. Для себя , поржать может быть, но не более ... В общем разбор полётов продолжается. Deforum пока лидирует.
Познавательное видео! Давно хотел сделать что-то подобное, но не знал с помощью чего и как сделать. А что за музыка звучит в ролике? Название трека можно было бы и в описании оставить.
урок замечательный, Stable Diffusion был уже установлен, остальное делал по Вашему уроку, и застопорился в одном месте, в разделе Settings/User interface в строчке Quicksettings list не могу добавить initial_noise_multiplier, нажимаю на строчку и окно выбора не открывается, из за чего так?
Добрый день. А можно как-то соединить 2 изображения? вот у меня есть файл видео, и второй скажем с нужной моделькой, нужно заставить модельку двигаться как на видео, есть такая возможность?
HELP! После запуска webui-user-first-run.cmd , во время работы командной строки выдает ошибку "не удается найти ""git_python.part01.exe" Проверьте, правильно ли указано имя и повторите попытку" - в общем дальше этого ничего не идет. Что делать люди добрыя?)))?
Подскажите пожалуйста, всё подготовил всё для Multi frame video renderig, и в скрипте всё настроил по вашему уроку, но как только жму кнопке generate, он генерит один и тот же кадр, не идет по остальным, только первое фото, далее оно просто копируется. Что может быть не так?
Подскажите почему может очень долого генерировать кадры через multi-frame video, 440 кадров, выставил достаточно низкое качество, вроде железо неплохое, но на генерацию уходит 15 часов
Подскажите. Сделал по инструкции из видоса, у меня ИИ почему-то выдал несколько вариантов обработки, я выбрал первый, закрепил, но в итоге всё равно обработал не по примеру одной а по нескольким. Как можно исправить или фиксировать для обработки только один вариант? Спасибо
Спасибо за урок! Но у меня чет только первый кадр хорошо выводит, потом рандомно все, даже нет персонажей в кадре, тупо пустая комната. Почему так, не подскажете? а кто несколько раз делал по видео, но не получилось.
Блин у меня все время получается первый кадр на выходе , да генерит их большое множество и так же берет три кадра на превью , но в папке выходной всегда первый кадр в большом количестве , что не так
Кто нибудь подскажет почему из серии фоток не стилизуются в видео. Вылетает на все эти фото только одна фотография которую я згенирировала, для применения в видео?
Окей, вопрос такой. Как использовать одновременно несколько моделей Control Net? Допустим я хочу взять с одного видео open pose и на его основе сделать со своим пермонажем движения в видео. Это возможно осуществить?
UnidentifiedImageError: cannot identify image file 'C:\\Users\\mrazb\\AppData\\Local\\Temp\\Untitled00000000_000002h_1bs_o1.jpg' Не могу победить вот это
Можешь подсказать как обработать секвенцию так, чтобы нейросеть глаза закрывала, потому что если написать в промт любой цвет глаз который хочешь, то они всегда будут открыты
🔥Друзья, вышла обновленная техника стилизации видео: ua-cam.com/video/8fUxU_RDR_o/v-deo.html
через год, даже скрипт не тот и видимо не туда надо ставить, так что инфа на 24 год уже с ошибками - нужна свежая
В идеале нейросеть должна оставлять тот же самый сид для каждого кадра видео, но в итоге каждый кадр разный
В чем может быть проблема?
Во вкладке img2img, в controlNet - нет окна, куда вставлять картинку/фото.
Во вкладке Txt2img, далее в controlNet - окно есть.
Все делал по видео и перепроверял потом
очень круто! шикарный голос, информация без воды! мотивирует к развитию и экспериментам в творчестве и работе! спасибо!
brazil
lol aqui
"См. ротоскопинг!" Пока что приходится смотреть без практики. Благодарю автора!
Потрясающий канал, шикарные видео!
Приятно смотреть и слушать!
Спасибо вам!
Удали видео из папки, оно самый первый кадр
Спасибо! Молодец что каждый шаг объясняешь и говоришь зачем он нужен. Сейчас столько бездарных учителей развелось,: "Ставьте здесь галочку, потому что так нужно". Ещё совести хватает свои обучающие курсы рекламировать=) Но ты красавчик, крепкий лайк!
Крутецкая тема, и довольно понятный туториал. Спасибо
Что значит туториал ?
@@UraFlight Ну это по-пиндосовски "инструкция".
Спасибоо, за эту неделю столько видео посмотрел по sd, это видео самое понятное🔥🔥🔥
Спасибо! как всегда понятным языком, подробно и главное актуально по тому, что в тренде.
спасибо за мастер-класс, вы супер!
Крутяк, и объяснения очень грамотные 👍🏻
Хачатур на днях свою новую модель выпустил, очень рекомендую ознакомиться
У меня в рендере берет только первую оригинальную картинку и по ней делает остальные действия, т.е. анимации никакой нет, просто вариации рендера именно первого кадра, что может быть не так? Рендер в ReV animated , может ли быть в этом проблема?
Ты очень крут,спасибо что делаешь видео для нас)
Ох уж эти нейросети... Сильно облегчает монтаж. НО! Качество у видимо выходит пропорционально стараниям)
Куда проще не парить себе мозг, в автерэфекте или синема4д поставить трассировку сцены и привязать точки тела к модельке. Делов на 20 минут. А результат в разы лучше.
Отличный голос и подача информации ❤
процентов 75 понятно даже не очень посвященному, спасибо! осталось что-то с видюхой придумать)
Негативный промт:
deformed, distorted, disfigured, poorly drawn, bad anatomy, wrong anatomy, extra limb, missing limb, floating limbs, mutated hands and fingers, disconnected limbs, mutation, mutated, ugly, disgusting, blurry, amputation
Спасибо)
ебатьь спасибо
Спасибо мил человек))
Полезный гайд. Спасибо!
Пытался вывести изображения в разрешении 1200х800, выдало ошибку CUDA out of memory. Tried to allocate 42.58 GiB, видеокарта rtx4090, как мне рассчитать разрешение, чтобы хватало видеопамяти на обработку секвенции jpeg?
ОЧЕНЬ КРУТОЙ УРОК! Спасибо!
Очень крутой видос, как раз то, что я искал. Спасибо
Александр, здравствуйте. Видео получилось очень подробным и понятным. Буду применять Ваше обучение на практике и пересматривать материал не один раз. Благодарю за Ваши труды.
привет. на 6.06 я бы добавил применить ,а потом уже перезагрузить. рассказываешь зачётно спасибо
Да, точно подмечено, нажимаешь применить и Windows вылетает на_ер
@@oli_box 😁странно у меня не вылетает😁
Спасибо! Скрипт и темпоралнет не юзал, буду пробовать) Шум обычно снижал уже в давинчи дефликером, надеюсь скоро появятся способы совсем его исключить, чтоб гладко было, как через абсент.
Кстати чтобы вручную не подгонять размер, есть специальная кнопка с треугольником рядом) Так же можно поставить доп расширение для удобства выбора различных популярных форматов.
Речь идет о разных шумах ) В видео говорится про шум при генерации, вариативность, так сказать... А вы в Давинчи убираете шум-зерно ))
Чувствую, видеокарты теперь как после майнинга помирать будут)
О да
Андерклочь
Ну 4080 в принципе не так сильно греется. Так что норм у тех кто 4070ti и выше для такого
Фишка майнинга в том что карты 24/7 работали. Тут это зачем? И карта оч слабо греется от SD. В играх сильнее греется
@@Airbender131090 ну так если поставишь рендерить видео, то вот тебе и майнинг 2.0
Видеопамять забьет под 100% и будет молотить до победного
При установке Stable Diffusion файлик webui-user-first-run.cmd надо запускать в папке, куда распаковали архив. Автор забыл об этом упомянуть. Можно потерять дохрена времени ))
а где его ещё можно запустить?
@@ЗарядБодрости там, где исходники, например. Где он и лежит изначально.
@@AlexeySamara не знаю. проблем не возникало с запуском никогда
Крутая сборка на самом деле, а то замучился тыкаться в ссылки , а тут скачал и все ❤
Вообще Stable warp fusion сейчас самое простое, но чуваки начали в деформ делать видео, не хуже, а даже лучше
В Deforum это можно было делать ещё в марте.
огонь, все понятно и без воды, спс
UnidentifiedImageError: cannot identify image file '/tmp/gradio/da39a3ee5e6b4b0d3255bfef95601890afd80709/20210825_143657_1_000001.jpg'
Time taken: 0.09sTorch active/reserved: 2946/3452 MiB, Sys VRAM: 4791/15102 MiB (31.72%) не подскажите что это значит?
нашли решение? у меня такая же проблема.
Вопрос, а одновременно 2х и больше людей на видео можно так обработать?
Или в таком случае надо каждого будет сначала ротоскопить и потом композить отдельно после обработки?
спасибо, очень интересно, сразу захотелось нормальную видеокарту:D
Так она всегда нужна была вроде не? 🤷🏻♂️😁😅
Наконец-то нашёл полнейший гайд
ПОсмотрел твой ролик один раз) мало че понял буду разбираться ) спасибо.. Я думаю с твоей помошью получится научится
зачёт за туториал!! есть ещё достойные сетки бесплатные что бы делать видео
отличное видео, спасибо!
Вот так на примере стало понятнее
Привет. Сегодня сделал обновление своего проекта с открытым исходным кодом. Теперь можно менять video to video, при помощи промта, при этом за один пробег привязывать промты к разным обьектам на разном таймлайне и программа автоматически будет создавать маску. А результат выглядит стабильнее чем в примере, настроек мало, поэтому легче вникнуть. На каждом кадре остается сид выбранный пользователем, поэтому при запуске с теми же параметрами, получится то же видео. Может интересно будет сделать обзор на Wunjo AI для создания видео. Написал о том как работает на Хабре.
Привет, крутая программа, ретушь объектов особенно интересует, обязательно потестирую ее, по поводу стилизации видео, самый стабильный вариант сейчас дает animateddiff+contronet tile, ip2p, там суть в генерации пачки кадров за один раз, ebsynth дает много артефактов на сильных движениях
@@TimesaverVFXда, это правда, при сильных движениях заметны артефакты. Посмотрю на это решение, как его можно будет соединить с моим. Спасибо
Спасибо! Спасибо! Спасибище!🤝
Здравствуйте. Скачал сегодня все как показали. За исключением одного момента. В файле shared нет нужной строки т.к. в вашем видео размер файла 47килобайт, а у меня только 3 килобайта. Где еще можно взять данный файл?
Спасибо большое, это просто самое классное видео. Вы всё чётко рассказали, я оторваться от видео не смог.
AI заклинатель. Правда часто работа с АI движками похожа на "Если в бутылку напихать мусор и долго трясти, иногда корабли получаются"
да, нужно учится трясти бутылку правильно)
А если оттуда отпить, то они еще и плавают. А у некоторых даже ходят.
Оооооооооочень крутая тема. Просто супер
Спасибо за урок! Где можно скачать сборку Stable Diffusion со всеми установленными плагинами если у меня нет подписки на Boosty?
Наконец то от Вас обзор на СД)
Жаль конечно, что не показано как это делать через Гугл колаб для владельцев мак
Для владельцев мак все точно так же. Уже год генерирую пички и видео на MacOS. Единственное, НО - данный скрипт никак не хочет заводиться. Автор где-то недоговаривает
Дружище, только зашёл, просто скажу тебе критику сразу, что заметил, надеюсь, она будет конструктивной. Не у всех 720р стоит, и не все на полный экран смотрят. Если бы ты мог приближать ту часть экрана с важной инфой, как имена плагинов, которые ты проговариваешь. Мне бы это точно помогло. Например 2:22 момент, 50% это серый фон. Я надеюсь, я сейчас не душу))))
Отлично все объяснил по полочкам спасибо 🙏
Мега круто, спасибо!)
Добрый день. Вроде, всё устарновилось, даже рендерит. Но проблема в том, что все фреймы делает одинаковыми, как будто с первого загруженного кадра. Что я упускаю, подскажите, пожалуйста.
Такая же ситуация, даже сид убрал, чтобы не основывалось на 1 генерации, но не меняет ничего от картинки к картинке
не надо загружать первую картинку в контролнет, он сам будет брать из img2img.
@@denisdomanskii7458 Спасибо, попробую, отпишусь.
Тоже столкнулся с этой проблемой. Решилось изменением в скрипте "multi-frame rendering video" самой последней настройки Sampling steps - выставил inputFrame вместо FirstGen.
Надо будет ещё попробовать добавить промы на 2023
бро, спасибо за гайд! но не депт, а дэф (depth), и не кат вумэн, а кьют (cute) вумэн😀 ну так, чтобы и ты от нас чему-нибудь научился, как и мы от тебя)))
Дэф - это глухой. :) Если уж на русишь транскрибировать, то ДЭПТс.
буду ждать когда для макбуков будет
когда параметр Noise multiplier for img2img ставлю в ноль, получается муть какая-то, практически без изменений относительно исходника, только все блекнет.
Урок крутой, спасибо, но беда - рендерит исключительно ту картинку, которую в контрол нет и в I2I вставляет. С папки ни один последующий кадр не хочет брать х(
20 секундный ролик показывает время рендера 7 часов, но генерит 3 фрэйма
и останавливается (( В чём проблема ?
А можно для AMD сборку? Или подскажите где можно взять пожалуйста.
На 4pda пост "Portable Stable Diffusion | Нейронная сеть для создания и обработки изображений" там есть спойлер для установки на amd
Тема 🔥
Спасибо
Прикольно
Здравствуйте! Хотел скачать вашу сборку Stable Diffusion со всеми установленными плагинами ? Для этого надо платно подписаться?
Спасибо!)
та ты гений, бро!!!
а что делать если в интерфейса SD не параметра noise multiplier for img2img, может этот ползунок как то отдельно включается? Помогите плиз
Sanches, привет. Подскажи какую на сегодняшний момент можно поставить сборку для генерации видео кадров?
Noise multiplier for img2img
должен всегда стоять на 1, иначе мыло
фигня каято
видать не все рассказано
намекают на буст
Самый лучший комментарий. После всех этих танцев не знал как вернуть нормальный img2img, оказалось нужно лишь выставить этот параметр на1 !
Добрый день. У меня вопрос. У меня есть несколько (более трех десятков по 30 минут) оцифрованных видео с 8 мм кинопленки (моих дедушки и бабушки снятых в 1960-80 годах) Можно ли их как то автоматически (этой технологией) стабилизировать и раскрасить в нормальные естественные цвета, то есть превратить в более менее нормальное видео, потому что, те кадры после оцифровки смотреть практически невозможно, нужно как то обрабатывать. Не подскажите где и как это можно сделать / научиться обработать самому?
Думаю теоретически можно это сделать, но тут есть некоторые проблемы. Для того чтобы подобной технологией улучшить видео длинной более 30 минут, понадобится оооооооочень много времени (к примеру видео 20 секунд длинной может обрабатываться + - 2 часа на ПК с видеопамятью 8+ GB), отсюда следует что нужен оооооочень мощный пк который обойдётся не в одну тысячу долларов, и даже если вы найдете того кто это сделает для вас, то это будет стоить ооооочень дорого. На данный момент это как полёт к звёздам, в теории возможно, но на практике... есть проблемы)) Думаю не за горами времена когда подобные вещи станут доступны всем, надо лишь подождать.
@@ВадимЯковенко-к5мя это решение (восстановления старых видео) и пытаюсь найти. ПК у меня достаточно мощный, а вот про людей которые владеют такими технологиями я только слышу, но найти не могу ...
Что ж... В целом, с основой всё стало понятно, за потраченое время пока благодарность. Задонатить безусловно нужно. Всё получилось, результат если честно, ну так себе ... Сид вроде зафиксирван задний план всё равно скачет (не весь прям, а по мелочам) , при малейшем повороте головы начинается дичь. Для себя , поржать может быть, но не более ... В общем разбор полётов продолжается. Deforum пока лидирует.
Мужик, ты просто бог!
Это лучшее видео по теме что я встречал с самого начала работы с дифюжн!!
Почему смотря это видео, я чувствую себя дедом, который впервые взял в руки смартфон🤣🤦
Жиза 🤣
❤❤❤
странно, у меня в файле shared нету такой строки(initial) и содержимое меньше чем на примере в видео, почему так(открываю обычным блокнотом)
Спасибо! Какой программой вы пользуетесь для быстрой вставки пресетов?
Очень хороший туториал . Какую видеокарту используешь на видео? Не похоже что в ней 8 гиг. Скрипт этот очень к видеопамяти требовательный.
rtx3070 в ноутбуке, я же говорил в видео, оптимизируйте SD, xformers ставьте обязательно
@@TimesaverVFX Спасибо, попробую. Сейчас у меня с 2 CN уже на двойной картинке 720 на 405 потребляет 12 МБ Vram. А на тройной до 16.
Познавательное видео! Давно хотел сделать что-то подобное, но не знал с помощью чего и как сделать. А что за музыка звучит в ролике? Название трека можно было бы и в описании оставить.
урок замечательный, Stable Diffusion был уже установлен, остальное делал по Вашему уроку, и застопорился в одном месте, в разделе Settings/User interface в строчке Quicksettings list не могу добавить initial_noise_multiplier, нажимаю на строчку и окно выбора не открывается, из за чего так?
Да просто введите через запятую с клавиатуры
Добрый день. А можно как-то соединить 2 изображения? вот у меня есть файл видео, и второй скажем с нужной моделькой, нужно заставить модельку двигаться как на видео, есть такая возможность?
HELP! После запуска webui-user-first-run.cmd , во время работы командной строки выдает ошибку "не удается найти ""git_python.part01.exe" Проверьте, правильно ли указано имя и повторите попытку" - в общем дальше этого ничего не идет. Что делать люди добрыя?)))?
🦋
Вопрос, по какой причине скрипт (beta) multi-frame... рендерит только первый кадр? Что-то явно упущено в вашем видео.
ты мощный
Подскажите пожалуйста, всё подготовил всё для Multi frame video renderig, и в скрипте всё настроил по вашему уроку, но как только жму кнопке generate, он генерит один и тот же кадр, не идет по остальным, только первое фото, далее оно просто копируется. Что может быть не так?
попробуйте закинуть первый кадр в image to image и controlnet и потом запускать скрипт
@@TimesaverVFX так и сделал, всё повторил с вашего видео, но по прежнему) уже даже переустановил всё полностью) буду искать решение) спасибо за ответ)
Не работает почемуто, генерит только то фото которое на превю( в чём может быть беда?
Вот только твоя сборка стоит 5.2 долара. Поотому что столько стоит подписка чтобы скачать твою сборку
Подскажите почему может очень долого генерировать кадры через multi-frame video, 440 кадров, выставил достаточно низкое качество, вроде железо неплохое, но на генерацию уходит 15 часов
Подскажите. Сделал по инструкции из видоса, у меня ИИ почему-то выдал несколько вариантов обработки, я выбрал первый, закрепил, но в итоге всё равно обработал не по примеру одной а по нескольким. Как можно исправить или фиксировать для обработки только один вариант? Спасибо
Спасибо за урок! Но у меня чет только первый кадр хорошо выводит, потом рандомно все, даже нет персонажей в кадре, тупо пустая комната. Почему так, не подскажете? а кто несколько раз делал по видео, но не получилось.
Нашли решение?
Подскажите пожалуйста какой ноутбук лучше для работы со SD, спасибо 😊
стационарный )
Сразу лайк, даже не глядя :)))
интересно когда выпустят уже норм расширение для плавной анимации
Блин у меня все время получается первый кадр на выходе , да генерит их большое множество и так же берет три кадра на превью , но в папке выходной всегда первый кадр в большом количестве , что не так
Добрый день, 2:50 пытаюсь установить загруженные модели, но нет папки models/ControlNet, само расширение установлено и отображается.
Кто нибудь подскажет почему из серии фоток не стилизуются в видео. Вылетает на все эти фото только одна фотография которую я згенирировала, для применения
в видео?
И еще, вес контролнета понижаем до 0.7 и в тоже время ставим что он более важен. Не противоречие?
Попытался устновить.
Пишет что нужен файл api-ms-win-core-path-l1-0.dll
Окей, вопрос такой. Как использовать одновременно несколько моделей Control Net? Допустим я хочу взять с одного видео open pose и на его основе сделать со своим пермонажем движения в видео. Это возможно осуществить?
UnidentifiedImageError: cannot identify image file 'C:\\Users\\mrazb\\AppData\\Local\\Temp\\Untitled00000000_000002h_1bs_o1.jpg'
Не могу победить вот это
Спасибо! Очень круто. Понятно и полезно. Только у меня нет ползунка "noise multiplier", на его месте располагается ползунок "clip skip". Как быть?
тоже не могу найти...(
Можешь подсказать как обработать секвенцию так, чтобы нейросеть глаза закрывала, потому что если написать в промт любой цвет глаз который хочешь, то они всегда будут открыты