Photomontage in Stable Diffusion in 5 minutes
Вставка
- Опубліковано 28 бер 2023
- Consider how to quickly make a photomontage in Stable Diffusion to change: background, clothes, hairstyle. Let's improve the quality of the original image in Photoshop. And all this can be done in 5 minutes. By changing Prompt, you can make hundreds of images from one photo in different places, in different looks and styles. It is very exciting. And you do NOT need to train the model. Just take any photo and do it!
We will explore two useful extensions (Extensions):
Canvas Zoom - for convenient work in Inpaint and Sketch;
Rembg - for automatic background removal.
In the VK group, I will attach 4 styles to the post: - Наука та технологія
🔑 Boosty с видеоуроками: boosty.to/stabledif
🔥Подписывайтесь на Телеграм-канал: t.me/stable_dif_lesson
📌 Telegram ЧАТ: t.me/stable_dif
✔VK Prompts: vk.com/stabledif
Не обижайтесь пожалуйста, но это получается просто к случайной картинке прилепливание фрагмента лица с явными швами и несовпадением по цвету. Если делать по такому методу, то надо закидывать результат в PS, вырезать лицо и применять Image>Ajustments>Match Color по фрагменту сгенерированной кожи. И затем смешивать, вклеивать и добавлять шум/текстуру. Оставлять просто "апликацию" после SD и говорить "готово" - это не дело совершенно.
Тык он же говорил про это в конце видео
Ух ты, круто, понятно) спасибо за видео, давай ещё интересные техники)
Спасибо. Низкий Вам поклон.
спасибо большое за видео! Подскажите, пожалуйста, версию используемого фотошопа
спасибо за видео, оно очень полезно!
Очень хорошая идея с контрол нет и опенпоз, единственное он как то налепил лицо на шею...как будто в фотошопе кто то приладил неумело. Может маску нужно пошире сделать, чтобы шею захватило. нужно попробовать в общем. Вот еще бы был какой то плагин, чтобы SD тень реалистичную рисовал к вставленному объекту, вообще отлично было бы. 👍
клево, но при создании карты глубины, можно только ее использовать в контрол нете не создавая их заново каждый раз, то же самое и опен поз. В итоге можно было создать и позу и карту глубины и использовать или одно или другое. Наверное автор не совсем разобрался как работает. Но за видос однозначно лайк
То что вы показываете хорошая штука. Особенно силуэт. Так удобней анимацию делать.Просто лицо.
Я себе так же установил расширение "Depth" тоже удаляет фон и наоборот. Только в расширении больше настроек. Создаёт карты глубины,тепловые, стереоизображения,маски создаёт. Можно даже создавать формат PLY это 3D из фото и небольшой эффект приближения объекта на фото,как гиф. Так же появилось расширение ModelScopeText2Video- генерирует небольшие 1-5 секундные видео.Но ещё не очень. Полагаю месяца через 3-5 можно будет отличные видео создавать из текста.
Спасибо. Будем пробовать.
Лица "вклеенные" получаются, как избавится от этого эффекта и что бы тело сливалось идеально с картинкой и дорабатывалось пока не понять. Особенно если исходник лица плохого качества, он сразу бросается в глаза в отношении генерации сд, и получается диссонанс, не нравится людям не красиво. Нужен какой то метод что бы лицо перерабатывалось под генерацию но сохраняло естевственность
Здравствуйте, спасибо большое за видео! После удачной установки и запуска когда нажимаю Generate, пишет "not enough GPU memory", у меня AMD Radeon RX 5700 XT, i Intel i9 9900KF. Даже на минимальных расширениях через 5 секунд ошибку выдаёт...подскажите пожалуйста что можно сделать кроме покупки новой видеокарты?
Хотел бы немного помочь,если вам понадобиться.Добавить ползунок,там где выбор модели (в самом верху интерфейса) можно добавить ещё один ползунок: "Noise multiplier for img2img". Для этого надо просто перейти в настройки (Setting) далее "User Interface" и в строке "Quicksettings list" будет вот так sd_model_checkpoint , но вам надо дописать самому что-бы получилось вот так: sd_model_checkpoint, initial_noise_multiplier,img2img_color_correction и тогда появиться этот ползунок. Регулирует цвет на изображении. Не забудьте нажать на сохранить и перезагрузить.
Огромное спасибо. Это полезная штука. Обязательно попробую.
Михаил, а где можно посмотреть обучающие уроки по этой ии
@@alpi_back Если вы про Стабильную Диффузию/ Stable Diffusion очень много видео в ютубе есть.Как пользоваться.
А как создать свою модель до тренировать на Своих изображениях? Где-то находил видео подробное но у меня не получилось. Тем более может ещё из-за того что карта AMD
Спасибо
Для такого рисования есть отдельная модель sd-inpainting-512. Попробуйте использовать её сравнить результат.
Стандартная и ваша модель выризают кусок с маской и грубо вклеивают в нарисованные изображение.
А inpainting, как я заметил, сразу помещает лицо на холст, разбирает его и с ним уже рисует цельное изображение (получается более мягкий переход и точный цвет с тенями), затем ещё раз перекидывает маскированный участок на полученное изображение.
Вы ошибаетесь. Inpaint model это всего лишь модель. Никаких дополнительных операций она не делает. Сливание контролируется blure и masking
@@StableDiff возможно и так, но по личному опыту, она лучшая для панели inpaint.
Спустя 5 месяцев уже наверное все знают что для таких работ только инпейнт и подходит. А тогда видимо было не все так однозначно )
Здравствуйте. Подскажите пожалуйста, возможно ли "одеть" на фотомодель другую одежду с помощью Ai, может быть в несколько итераций. То есть, на фото девушка в нижнем белье, а нужная одежда - фото на вешалке или на столе. И фото одежды нужно адаптировать - одеть на фото девушки.
Такой же вопрос. Не нашли ответ?
@@marinagaeva2400 Нет.Делаем свою нейронку.
Здравствуйте! Скажите, пожалуйста, вы не знаете, как настроить removebg, чтобы он выдавал мне результат в png, а не jpg? Звучит смешно, но он действительно выдает склеенный с черным фоном jpg. И, кстати, модель "isnet-general-use" работает в разы лучше, чем "u2net", он сделал четкий контур, а u2net оставил контурное "свечение" от цвета фона.
Спасибо за ваши материалы!
В settings - saving grid/image - File format for images выбрать png
@@StableDiff Ааа, у него общие настройки со всем функционалом SD! Спасибо большое за помощь, я почему-то не догадалась. :)
Здравствуйте, подскажите, а как кнопочки установить с настройками разрешения??? Которые у Вас под Posex
Расширение sd-webui-ar
@@StableDiff спасибо, дорогой человек
А на каком сайте Вы работаете? Можно ссылку на нейросеть? В Dream Studio нет таких функций!
Это не сайт. Это Automatic1111. Он на ПК ставится. Но нужна хорошая видеокарта и видеопамяти минимум 6Гб
Скиньте пожалуйста ссылку на фотошопе, это случайно не adobe photoshop?
а возможно ли заданное лицо незначительно поворачивать? другими словами чтобы девушки формировались с заданным лицом с некой вариативностью в направлении взгляда/ракурса?
Это уже требует обучение собственной модели.
Пробуйте ControlNet
Скажите пожалуйста а как лицо одного любого человека заменить на другое КОНКРЕТНОЕ лицо? Именно в таком порядке.
нашел как это сделать?
тоже интересно@@ventagualinae2248
не рекомендовал бы использовать абсолютно белый и черный фон для последующей замены. Его обчень сложно сети заменить на какое-либо изображение. Так же лучше использовать инпент модели, для инпейнта, они могут даже на максимальном деноизе без контролнета вклеить адекватно зону инпента. В идеале серый градиент, или какой-нибудь цвет\атмосферу задать замыленным бекграундом. Я лично в фейсапе проплаченом задаю фон и заодно подготавливаю лицо для инпейнта. Там это в 2 клика делается. Заодно подгоняет цветокоррекцию под бэекграунд.
Спасибо
Я просто под вырезанную модель в фотошопе подкладываю разные фоны лучше что то абстрактное. И потом создаю карту глубины из которой получаются красивые фоны какие мне надо
Когда закидываю вырезанное изображение с белым фоном, что при попытке сгенерить фон - выдает пересветы, либо что-то близкое к белому фону, как это исправить?
Меня тут поправляли. Что белый фон не лучший вариант. Вместо белого фона лучше вставить цветной шум или размытый фон или боке. Так машине будет легче делать объекты.
@@StableDiff с фоном понял, либо в инпэинте его полностью обводить, но это тот ещё гемор, да и результат зачастую хуже чем просто изначальная генерация. Но вот незадача, после того как получил нужное изображение, расширив его влево и вправо - начал апскейл, а апскейл каким то образом начал генериться через контронет, постоянно вставляя openpose, в итоге получил около 5 openpose на картинке вместо апскейльного изображения - не знаете как решить?
Контролнет после получение нужного изображение выключил и поставил везде none
А что делать, если этих двух кнопок, слева от Generate, вообще нет?
возник вопрос. Controlnet загружается без моделей, а где собственно их взять?
В этом уроке есть в описании ua-cam.com/video/GJxByuT6eII/v-deo.html
Openpose Model none. Где их взять и как установить?
В этом видео все о controlnet ua-cam.com/video/GJxByuT6eII/v-deo.html
А если нету в настройках контрол нет? Не знаю где искать, что бы подключить
Его нужно скачивать
А можно ли генерировать позы животных?
попробуйте через карту глубины с животного позу снять
Благодарю , очень интересно и полезно 👍
Может мне кажется , но лицо девушки не совсем естественно в конце
отлично! спасибо)
спасибо.
интересно, подписался.
а можно сделать девушку в стиле Мона Лиза, например?
Да легко. Возьмите картину Мона Лизы и вставьте его в ControlNet. Вместо Depth используйте Canny чтобы сохранить черты. Но фотографию придется подобрать с таким же положением головы. Остальное все так же.
@@StableDiff понял, спасибо
в настройках нет controlnet
Надо отдельно установить
@@nickynick1331 но сказать же в видосе об этом нахер не надо, догадайся
выставил control net 2, но окно все равно одно ( одна вкладка) в чем соль?
Тоже самое
Магия, блин
Может я придираюсь, может это только мне, но я вижу как лицо сильно выделяется относительно всего изображения, вот прям сразу бросается в глаза что оно вырезано и вставлено из другого изображения
Класс, я тоже так делал 😊
rembg установил но он не отображается в extras
Apply and restart UI сделайте или перезапустите automatic. Если не помогла обновите Automatic
@@StableDiff не появилось(((
А не проще закинуть в Inpaint, выделить ту девушку, инвертировать маску выделения и сгенерировать новый фон?
Скажите, а голос где генерируете?
Голос живой. Но микрофон плохой и шумно постоянно. Приходится его прогонять через podcast.adobe.com/enhance.
@@StableDiff хорошо, спасибо, а не подскажите что-то примерно похожее на ди айди? чтобы была русская речь
@@valeronjohn Вот этим пользовался раньше. texttospeechrobot.com/tts/ru/sintezator-rechi-onlayn/
@@StableDiff спасибо, но не - этоже колхоз 00х)) типа мэйджик гудди=)
@@valeronjohn я тоже так решил. Да и долго это все набирать, загонять и склеивать с видео потом упорно.
Огонь!
У меня нет control net
Спасибо, помогли!
Ну если показываешь и учишь кого то как делать. неужели сразу нельзя написать что нужно грузить сначала,чтобы сделать также?
а зачем, главное высрать видео, остальное не важно...
Спасибо за урок. Такой вопрос к Вам - не генерирует из im2im - выдает черный квадрат....
Могу посоветовать проверить vae, поменять модель. И банально обновится и перезагрузить sd. Отключить расширения.
Если во вкладку img2img загрузить девушку с вырезаеным фоном то генерится только она на белом фоне
При низком Denise strength да. Лучше фон делать не белым, а приближенным к тому что нужно. Если цель - сплошной белый фон то как в видео.
@@StableDiff так я про ваше видео и говорю.
У вас после обработки в Фотошопе генерится то что в промте, а у меня нет.
А подскажите пожалуйста кто знает. Как сделать тоже самое только для видео. Человек стоит ровно и говорит на видео. Как бы тот же вроде метод но должна быть пакетная обработка многих кадров.
не могу найти как изменить прозрачность маски(( она у меня полупрозрачная
Маска не имеет степени прозрачности в automatic. Та прозрачность которую вы видите сделана специально, чтобы видеть, что обводите.
@@StableDiff спасибо!
Брейкеры все равно скажут что это шиномонтаж
Техника прикольная кроме лица. Лицо супер-палится)
только не расширение а разрешение
всё это можно делать силами и2и и импейнтом
но всё равно спасибо за видос, интересно посмотреть на другие пути и подходы
что за инструменты? можешь на английском полное название дать
@@user-ui9be5kd7z img2img, inpaint в automatic1111
@@panbacchus9657 спасибо!
У меня нет таких плагинов в списке(( и Canvas тоже не находит
Нейросетевые плагины в photoshop появились в последних версиях.
@@StableDiff вы же говорите о расширениях в стэйбл, чтобы их проинсталировать мы должны их прогрузить по ссылке с гитхаба, нажимая кнопочку Available
@@StableDiffНа nvidia работают или на AMD можно запустить, или на проце?
@@vrphoto5502 на видюхах точно можно, но жеалательно иметь 8гб видеопамяти, на 3гб больше половины фильтров отказываются работать
@@nekitocka на видюхе от AMD (RX580 8gb) будет работать?
Или только на Nvidia?
Никак не разберу название расширения для увеличения изображения перед накладыванием маски
canvas-zoom
github.com/richrobber2/canvas-zoom
Чет как то люто получается если честно, фото выглядит так как будто вырелаз лицо и приклеил на картинку.
хорошее видео, лайк автору, некоторые блогеры за эту информацию деньги берут) в целом все верно, но controlnet скорее лишний, inpaint достаточно: и позу можно сохранить и каждый элемент сцены настроить, по крайней мере, мне ни разу для такой работы не пригодился)
А если нет контроль нета в настройках?
голос шикарный до мурашек, слушала бы и слушала🥰
вообще много ненужных манипуляций, фотошоп тут лишний от слова совсем! все действия совершаемые в фотошопе быстрее и качественее делать в стейбл дифьюжен
боже какой же приятный у вас голос!
Подскажите, как сделать курящего человека с сигаретой или сигарой
Ну не за 5 минут точно!
тэга nude_breast не хватает для теста
Сохранять лицо с помощью маски - это такой ужас можно получить! Яркости и цвет лица и генерации могут вообще не совпасть.
выглядит по итогу стремно в некоторых местах. даже позорно
можно было сделать лучше
Самый убогий микрофон в мире. Вообще ничего не понятно
круть