🔥 Мой структурированный курс по "AUTOMATIC 1111" с моей поддержкой на сайте stabledif.ru 🔑 Схема для ComfyUi и все ссылки на Boosty: 🍀 boosty.to/stabledif ✔Телеграм-канал: t.me/stabledif_lesson ✔ Telegram ЧАТ: t.me/stable_dif ✔VK Prompts: vk.com/stabledif
Спасибо за инструкцию, все получилось. Но Topaz AI делает это лучше и быстрее. Сравнил результаты от вашего метода и от Топаза. Stable сделал фото рисованным и отчасти исказил черты лица. А Топаз сохранил естественность, добавил немного текстуры на кожу, не исказил черты. У меня апскейл в Стэбле длился около 8 или 10 минут, а в Топазе секунд 20 на обработку и секунды 2-3 на сохранение. Выбор очевиден, но за альтернативу спасибо.
@@EverythinggnihtyrevE "- за сколько? - за 3 года, условно." Это крайне маловероятно, но не дай Бог заграницей проверят твой пиратский сундук. (Дома еще ладно, это станет просто поводом посадить. А по факту плевать, так как если есть желание, то посадят и без пиратства.) Ну и ответ на твоем наречье: Что за орки тебя воспитали, в какой пещере ты рос и при каком африканском государственном строе? Конечно же все пиратят, но имеющие голову не говорят об этом прямо и тем более не призывают к этому. Но видимо там уже ни ума, ни совести. Вот так получилось, не принято у людей воровать, так родители воспитывают людей. А если видят, что растет бестолочь, хотя бы учат не кичиться нарушениями законов, не записывать видео вандализма, не писать о своем воровстве.
Классный метод апскейла. На gtx 1060 6gb работает, апскейлит даже при Encoder Tile Size 3072 и Decoder Tile Size 256э. Занимает по времени примерно минут 10.
Для моей картинки (450x450) при дефолтных значениях не хватило 2 гиг (на карте 16). Уменьшил Encoder Tile Size -- качество не то. Вернул обратно. Уменьшил "Decoder Tile Size" до 128. Памяти хватило, качество улучшилось.
На рисовке, заметно, если светлое на темном фоне, у меня например яркая луна в ореоле на темно-синем ночном небе, оно отрисовывает контур ровным четким черным кругом, как циркулем, там где в оригинале замыливание по краям.
После 2х дней различных тестов складывается мнение, что StableSR нормально работает только с крупными портретами и слабодеталезированым бекграундом. Стоит попробовать прогнать через него фото, где портрет по пояс и на заднем плане природа например, предварительно чуток заблюрив в фотошопе, так вылазит какая то пиксельная мозаика.
Помогите пожалуйста решить проблему, сделал установил StableSR как вы рассказали, но при запуске генерации выдает ошибку AttributeError: 'NoneType' object has no attribute 'items'
при попытке выбрать скачанную модель 2.1 и так далее... выдает просто тонну ошибок и модель сбрасывается на предыдущую, не дает ее выбрать. NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs: query : shape=(1, 64, 5, 64) (torch.float32) key : shape=(1, 64, 5, 64) (torch.float32) value : shape=(1, 64, 5, 64) (torch.float32) attn_bias : p : 0.0 `decoderF` is not supported because: device=cpu (supported: {'cuda'}) attn_bias type is `flshattF@v2.3.6` is not supported because: device=cpu (supported: {'cuda'}) dtype=torch.float32 (supported: {torch.float16, torch.bfloat16}) `tritonflashattF` is not supported because: device=cpu (supported: {'cuda'}) dtype=torch.float32 (supported: {torch.float16, torch.bfloat16}) operator wasn't built - see `python -m xformers.info` for more info triton is not available `cutlassF` is not supported because: device=cpu (supported: {'cuda'}) `smallkF` is not supported because: max(query.shape[-1] != value.shape[-1]) > 32 device=cpu (supported: {'cuda'}) unsupported embed per head: 64
прямо сейчас тестирую этот метод, и у меня переключилось на нужную модель только после того как добавил в comman arguments строку "--no-half" в файде webui-user.bat
модель выбираю - грузится, но в итоге сбрасывается до изначальной, та же хня с вае рядом. При генерации выдает ошибку Runtime error: input type (torch.cuda.halftensor) and weight type (torch.halftensor) should be the same
Большинство же зрителей-читателей, послухав все эти "танцы с бубнами", сказали примерно так: Ни фига себе - это какие же железячно-программные ресурсы надо поиметь, чтобы всего навсего проапскейлить чью-то рожу! Не легче ли проделать все это на каком-то он лайн ресурсе - нейросети, каковых топерича туёва хуча? Нет, автору, конечно, спасибо - он проделал хорошую работу. Но все же это напоминает, когда бедняку-середняку по денежным возможностям предлагают сменить его старенький "Запорожець" на "Мерседес, мать его, Бенц - купи, мол, и поезжай с комфортом. Но вряд ли сегодня рядовой и даже продвинутый пользователь готов (и может!) выложить полмиллиона рублев за то, чтобы комфортно апскейлить мордашки! Так что остается читать всё это, да облизываться!
А если нужна детализация текстуры лица? Сейчас учусь апскейлить с помощью ControlNet+Ultimate SD Upscale, но не всегда получается хороший результат. Тяжело заходит обучение без того, кто подскажет, но прям очень надо научиться вытаскивать хорошую кожу т.к. это надо для ретуши
Я уже второй заход делаю по этому грёбаному StableSR, и на выходе получается какая-то шляпа. Изображение в какой то паутине, или больше похоже на губку губчатого гриба, за какое-то улучшение хотя бы лица и вовсе говорить не приходится. Не знаю в чём причина.
А как эта штука восстанавливает, скажем, сканы со старых пленок? Вот, например, у меня есть скан групповой школьной фотографии из 1995 года. Справится с такой задачей?
Некоторые комментаторы - странные. Им бесплатно всё рассказали, показали как скачать и установить, научили и объяснили настройки - а они недовольны и грузят нытьем автора. Не понимаю. У меня, кстати, на 3070 Ti RTX с 8 гигами видеопамяти вполне бодренько работает при Encoder file size 1536 а Decoder file size 192. И текстуру кожи вполне воспроизводит, особенно на блестящих её участках. Пробуйте несколько генераций, не с первого раза может получится хороший результат. Но, у меня почему-то не записывается результат генерации в OUTPUT, даже принудительно через кнопку Save Image. При переключении модели на другую и другой скрипт (типа SD Upscale) - всё записывает. А на этом не хочет почему-то... Тем кто говорит. что ремини проще и круче - ну она восстанавливает нормально только лицо и к тому-же стоит денех, либо смотри рекламу на каждой генерации.
запстила по инструкции encoder небольшой стоял, dec size 96, в итоге насчитал мне по времени больше часа)) я сразу же закрыла генерацию и SD)) видяха 3070
0:48 на исходнике глаза карие, а на выходе голубые и всё остальное по классике. человек становится другим. нужен новый подход в работе нейросетей. чтобы материал для их обучения ты мог ему давать сам.
Более трех лет занимаюсь реставрацией фотографий и этот метод в сравнении с ремини уступает во всем, начиная со сложности использования и заканчивая результатом. Все примеры фотографий в начале этого видео не похожи на стоковые фото, то есть лица значительно искажены, на изображениях совсем другие люди с другими чертами лиц. К сожалению стейблу пока далеко до ремини и до других апскейлеров.
Я реставрацией года 3 или 4 занимаюсь. Могу сказать, что Ремини меняет черты лица (глаза, нос, рот). И если увеличить исходник и результат обработки в Ремини, то различия бросаются в глаза. Поэтому я им давно не пользуюсь, хотя мне нравится как он делает текстуру кожи и волосы. Но есть программы, которые почти не меняют черты лица (изменения в пределах 2-4%). Правда, они текстуру кожи неважно делают. Возможно, надо комбинировать. Жаль только, что Ремини уже бесплатно не воспользуешься, а платить жаба душит.
Хм. Автор говорит, что проявляется текстура лица и вообще, какая она хорошая. Но ведь как раз таки текстуры кожи и нет, одно мыло. Текстуру либо через каналы от донора в ФШ добавлять, либо долго инпейнтить, чтобы проявились поры и именно ТЕКСТУРА ЛИЦА, а не то, о чем говорит автор ролика. Ну, пока не вижу преимуществ этого метода, раз всё равно придется ТЕКСТУРУ ЛИЦА (кожи) добавлять вручную.
Автор втирает нам какую-то дичь. У меня эта шляпа даже такого результата как у автора выдавать не хочет. Да и на результатах автора фотореализмом и не пахнет.
@@wiwwiw2890кого там нейросеть заменила? Тот кто зарабатывал на восстановлении, тот и продолжает зарабатывать, хоть в фотошопе, хоть в нейронке. Обычный "клиент" по прежднему это сам не сделает, даже если посмотрит это видео. Что даст ему этот просмотр? Видуху на 24 гига? Знания фотомонтажа? Если человек хочет делать это сам, то он и без нейронки это сделает. А если ему чтоб восстановить 20 фото из архива проще заплатить кому-то деньги, чем самому в этом колупаться, то он так и сделает, и нейронки тут вообще не причём...
а ты не знаешь как сделать чтоб из автоматика в comfy пути к моделям не только базовые прописать но еще и animatediff, faceid, и прочее что тоже не мало весит, чтоб дубли моделей не хранить?
Могу такой вариант предложить в Windows (и не только) есть жесткие ссылки или соединения. Т.е. вы со создаёте папку в корне например "D:\Models" кладёте туда все нужные модели и создаёте соединение для каждой папки нейросети. Пример папка StableDiffusion модели находятся в папке "D:\StableDiffusion\Models" тогда удаляем папку в ней Models (предварительно переписав её содержимое в "D:\Models" и выполняем команду mklink /J "D:\StableDiffusion\Models" "D:\Models" теперь StableDiffusion будет думать что модели хранятся у неё в папке а это будет всего лишь ссылка на папку "D:\Models"
Делаю всё также как в видео, но изображение на выходе дает какой-то жесткий зеленый психодел. Карточка RTX 4080. Галочки в hypertyle отключены. Если кто с таким встречался, как фиксили?
У меня 4070, и почти сразу получился приемлемый результат. В консоли иногда проскакивала строчка "Error fixing color", и на выходе была цветовая мешанина. Можно попробовать отключить/включить опцию "Save Original" в пункте меню "Color Fix", и повыбирать разные режимы в выпадающей строчке "Color Fix". Или поиграться с размером плиток Latent tile height_Latent tile width.
Разобрался, не переключилась моделька на нужную. Все работает но результат очень странный, все в мелких точках и царапинах при приближении. Но это на фото с джипег артефактами. Наверное если их убрать царапин и точек не будет
К сожалению не работает. Куча ошибок вылетает. Наверное видеокарта слабая rtx4060 не подходит NansException: A tensor with NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check. set COMMANDLINE_ARGS=--no-half не решает проблему с AttributeError: 'NoneType' object has no attribute 'parameters' Скорее всего что то с моделью...
@@jconnar тут всегда компромис есть. Больше памяти больше возможностей. Старше серия карты - больше скорость. 4070 быстрее 4060. Но если памяти не хватит быстрее будет 4060
Ну вообще копить на 4070 super это опционально. 10 линейка очень и очень устарела. 30 линейка это очень хороший вход для работы в любой индустрии. Но нужно 12гб и это или 3060 (что после 1080 не особо много смысла имеет) или уже тогда копить на 4070 super или выше. Сейчас куда не пойди, хоть 3D разработка, синематики в UE5 и т.п. везде нужны RT
@@stefan_es 3060 12гб после 1080 ещё как имеет смысл. Так же рассуждал, пока не пересел с 1080 на 3060, скорость генерации возросла в 4-5 раз. Сам был в шоке.
честно, апскейла не увидел. обычный ресайз, который в ФШ делается за 5 секунд без всего вообще. и на выходе будет точно такое же мыло. 0 деталей вообще.
@@StableDiff Не работает, так как не получается активировать multidiffusion-upscaler-for-automatic1111, Forge его сразу отключает. Предположу что там есть внутренние аналоги по функционалу но как их использовать непонятно...
Ну нееет. Это выходит ретушь аля 15 летней дальности. Замыленно все в хлам. В названии написано убийца… а в чем убийца? Магнифик рисует текстуру. Короч тупо кликбейт из за которого я потратил на тебя 10 минут.
Полная ерунда. Нет пока ничего лучше sd upscale + 3 модели контрол нета. Upscale хоть в 8 к делай, и лица не будут вообще изменены, и детали будут на высшем уровне, и кожа будет такая, ято в порах можно микробов разглядеть.
Убийца REMINI?????? В Remini можно спокойно загружать фото высокого разрешения, а тут ты говоришь что нужно уменьшить? И это убийца??? Дизлайк тебе жирный и огроменный!!!
🔥 Мой структурированный курс по "AUTOMATIC 1111" с моей поддержкой на сайте stabledif.ru
🔑 Схема для ComfyUi и все ссылки на Boosty:
🍀 boosty.to/stabledif
✔Телеграм-канал: t.me/stabledif_lesson
✔ Telegram ЧАТ: t.me/stable_dif
✔VK Prompts: vk.com/stabledif
Добрый день. Спасибо огромное за ваши ролики.
Спасибо за инструкцию, все получилось. Но Topaz AI делает это лучше и быстрее. Сравнил результаты от вашего метода и от Топаза. Stable сделал фото рисованным и отчасти исказил черты лица. А Топаз сохранил естественность, добавил немного текстуры на кожу, не исказил черты. У меня апскейл в Стэбле длился около 8 или 10 минут, а в Топазе секунд 20 на обработку и секунды 2-3 на сохранение. Выбор очевиден, но за альтернативу спасибо.
@@havemoney этой программе года 2 примерно, а то и меньше.
tiled установлено, в расширения показано оно есть, но во вкладках генерации так и не появляется
низкий поклон, почет и уважение
Как всегда - круто!
Это магия какая то !👍
Автор, от душа, спасибо!!!!
Привет! Что думаешь по апскейлеру SUPIR? Был бы интересен обзор.
Topaz Ptoto AI закрывает эти вопросы без танцев с бубном.
За сколько денег он это закрывает?
@@desidler торрент версия бесплатно.
@@EverythinggnihtyrevE "- за сколько? - за 3 года, условно." Это крайне маловероятно, но не дай Бог заграницей проверят твой пиратский сундук. (Дома еще ладно, это станет просто поводом посадить. А по факту плевать, так как если есть желание, то посадят и без пиратства.)
Ну и ответ на твоем наречье: Что за орки тебя воспитали, в какой пещере ты рос и при каком африканском государственном строе? Конечно же все пиратят, но имеющие голову не говорят об этом прямо и тем более не призывают к этому. Но видимо там уже ни ума, ни совести. Вот так получилось, не принято у людей воровать, так родители воспитывают людей. А если видят, что растет бестолочь, хотя бы учат не кичиться нарушениями законов, не записывать видео вандализма, не писать о своем воровстве.
@@EverythinggnihtyrevEа ты из страны попрошаек, что богатый стал что ли ?
@@desidlerэто можно делать за 1\10 стоимости видеокарты, так как в топазе это делается даже на встройке от intel-uhd
результат становится мультяшным, в топку!
Классный метод апскейла. На gtx 1060 6gb работает, апскейлит даже при Encoder Tile Size 3072 и Decoder Tile Size 256э. Занимает по времени примерно минут 10.
Для моей картинки (450x450) при дефолтных значениях не хватило 2 гиг (на карте 16). Уменьшил Encoder Tile Size -- качество не то. Вернул обратно. Уменьшил "Decoder Tile Size" до 128. Памяти хватило, качество улучшилось.
кстати это методу можно использовать для акскейла секвенций, уже не так рябит как просто апскейл моделью для генерации
Что насчёт апскейлера SUPIR от китайцев? Интересно было бы посмотреть сравнение
Как всегда просто и понятно! 💯👍
подскажите, у меня отключается галочка в extensions - multidiffusion-upscaler-for-automatic1111 как исправить?
Спасибо! А это только для лиц работает или предметы, украшения, насекомых тоже можно с успехом увеличивать?
Процесс обрывается. Пишет "JSONDecodeError("Expecting value", s, err.value) from None", подскажите, пожалуйста, что это может быть?
На рисовке, заметно, если светлое на темном фоне, у меня например яркая луна в ореоле на темно-синем ночном небе, оно отрисовывает контур ровным четким черным кругом, как циркулем, там где в оригинале замыливание по краям.
После 2х дней различных тестов складывается мнение, что StableSR нормально работает только с крупными портретами и слабодеталезированым бекграундом. Стоит попробовать прогнать через него фото, где портрет по пояс и на заднем плане природа например, предварительно чуток заблюрив в фотошопе, так вылазит какая то пиксельная мозаика.
Помогите пожалуйста решить проблему, сделал установил StableSR как вы рассказали, но при запуске генерации выдает ошибку AttributeError: 'NoneType' object has no attribute 'items'
при попытке выбрать скачанную модель 2.1 и так далее... выдает просто тонну ошибок и модель сбрасывается на предыдущую, не дает ее выбрать. NotImplementedError: No operator found for `memory_efficient_attention_forward` with inputs:
query : shape=(1, 64, 5, 64) (torch.float32)
key : shape=(1, 64, 5, 64) (torch.float32)
value : shape=(1, 64, 5, 64) (torch.float32)
attn_bias :
p : 0.0
`decoderF` is not supported because:
device=cpu (supported: {'cuda'})
attn_bias type is
`flshattF@v2.3.6` is not supported because:
device=cpu (supported: {'cuda'})
dtype=torch.float32 (supported: {torch.float16, torch.bfloat16})
`tritonflashattF` is not supported because:
device=cpu (supported: {'cuda'})
dtype=torch.float32 (supported: {torch.float16, torch.bfloat16})
operator wasn't built - see `python -m xformers.info` for more info
triton is not available
`cutlassF` is not supported because:
device=cpu (supported: {'cuda'})
`smallkF` is not supported because:
max(query.shape[-1] != value.shape[-1]) > 32
device=cpu (supported: {'cuda'})
unsupported embed per head: 64
прямо сейчас тестирую этот метод, и у меня переключилось на нужную модель только после того как добавил в comman arguments строку "--no-half" в файде webui-user.bat
модель выбираю - грузится, но в итоге сбрасывается до изначальной, та же хня с вае рядом. При генерации выдает ошибку Runtime error: input type (torch.cuda.halftensor) and weight type (torch.halftensor) should be the same
Большинство же зрителей-читателей, послухав все эти "танцы с бубнами", сказали примерно так: Ни фига себе - это какие же железячно-программные ресурсы надо поиметь, чтобы всего навсего проапскейлить чью-то рожу! Не легче ли проделать все это на каком-то он лайн ресурсе - нейросети, каковых топерича туёва хуча? Нет, автору, конечно, спасибо - он проделал хорошую работу. Но все же это напоминает, когда бедняку-середняку по денежным возможностям предлагают сменить его старенький "Запорожець" на "Мерседес, мать его, Бенц - купи, мол, и поезжай с комфортом. Но вряд ли сегодня рядовой и даже продвинутый пользователь готов (и может!) выложить полмиллиона рублев за то, чтобы комфортно апскейлить мордашки! Так что остается читать всё это, да облизываться!
Remini апскейлит лица значительно лучше. В этом видео апскейл на 2 из 10
А если нужна детализация текстуры лица? Сейчас учусь апскейлить с помощью ControlNet+Ultimate SD Upscale, но не всегда получается хороший результат. Тяжело заходит обучение без того, кто подскажет, но прям очень надо научиться вытаскивать хорошую кожу т.к. это надо для ретуши
привет. у меня нет в settings параметра hypertile. где его искать?
интересно, а как это всё сработает если на восстанавливаемой картинке будет текст? тоже все перерисует в нечитаемые хаотичные символы?
Я уже второй заход делаю по этому грёбаному StableSR, и на выходе получается какая-то шляпа. Изображение в какой то паутине, или больше похоже на губку губчатого гриба, за какое-то улучшение хотя бы лица и вовсе говорить не приходится. Не знаю в чём причина.
А как эта штука восстанавливает, скажем, сканы со старых пленок? Вот, например, у меня есть скан групповой школьной фотографии из 1995 года. Справится с такой задачей?
Tiled VAE will not run if dimensions are smaller than what you selected with slider, you can leave it off
ua-cam.com/video/RIIdNyqs6mI/v-deo.html
Спасибо,всё супер😅
топ
Было интересно, спасибо!
Сегодня вышла уже версия 1.8.0 в Автоматике1111.
Некоторые комментаторы - странные. Им бесплатно всё рассказали, показали как скачать и установить, научили и объяснили настройки - а они недовольны и грузят нытьем автора. Не понимаю.
У меня, кстати, на 3070 Ti RTX с 8 гигами видеопамяти вполне бодренько работает при Encoder file size 1536 а Decoder file size 192. И текстуру кожи вполне воспроизводит, особенно на блестящих её участках. Пробуйте несколько генераций, не с первого раза может получится хороший результат.
Но, у меня почему-то не записывается результат генерации в OUTPUT, даже принудительно через кнопку Save Image. При переключении модели на другую и другой скрипт (типа SD Upscale) - всё записывает. А на этом не хочет почему-то...
Тем кто говорит. что ремини проще и круче - ну она восстанавливает нормально только лицо и к тому-же стоит денех, либо смотри рекламу на каждой генерации.
Вы решили проблему с записью результата в папку OUTPUT ? Я наблюдаю такую же проблему как у вас
@@sharksgangs увы, нет. Приходится сохранять нужные генерации через ПКМ на картинке и "сохранить изображение как..."
за "бесплатно", это можно сделать в фотошопе. тремя примерно кликами, за 5 или 7 секунд. без всяких танцев вокруг ссаного питона.
запстила по инструкции encoder небольшой стоял, dec size 96, в итоге насчитал мне по времени больше часа)) я сразу же закрыла генерацию и SD)) видяха 3070
RuntimeError: mat1 and mat2 must have the same dtype, but got Float and Half что делать?
Спасибо за видео! Подскажите, а готовая схема работает только фото людей или можно увеличить любое изображение, например предмет?
StableSR на Forge установить можно?
У вас наверное очень мощный компьютер. За 2 секунды сгенерировал. Я ждал несколько минут.
В чем может быть причина при выборе модели v2-1_768-ema-pruned она не грузится,а соскакивает на предыдущую?
Такая же проблема.
Оперативы не хватает . Добавь файл подкачки или докупи RAM
@@StableDiff 64 гигов оперативы это мало?))и файл подкачки 30 гигов
+1 тоже самое происходит и оперативки 64 Гб тоже-куча ошибок с сброс на предыдущую модель...
@@djivanoff13 У меня на 3060 все заработало. Добавил в файл webui-user следущее --no-half --disable-nan-check
0:48 на исходнике глаза карие, а на выходе голубые и всё остальное по классике. человек становится другим. нужен новый подход в работе нейросетей. чтобы материал для их обучения ты мог ему давать сам.
А почему он может постоянно выдавать только чёрный квадрат как ни крути?
Установка Tiled Diffusion прошла, но на основном экране этого нет. Как и нет Tiled VAE
Получилось их проявить? У меня тоже нет
Пожалуйста, сделайте еще инструкцию по SUPIR. На их сайте просто фантастические результаты, но установка такая же по сложности.
оперативнуая память (60 Гб) и VRAM (30 Гб x2) в SUPIR . Есть столько на компе?
Более трех лет занимаюсь реставрацией фотографий и этот метод в сравнении с ремини уступает во всем, начиная со сложности использования и заканчивая результатом. Все примеры фотографий в начале этого видео не похожи на стоковые фото, то есть лица значительно искажены, на изображениях совсем другие люди с другими чертами лиц. К сожалению стейблу пока далеко до ремини и до других апскейлеров.
Я реставрацией года 3 или 4 занимаюсь. Могу сказать, что Ремини меняет черты лица (глаза, нос, рот). И если увеличить исходник и результат обработки в Ремини, то различия бросаются в глаза. Поэтому я им давно не пользуюсь, хотя мне нравится как он делает текстуру кожи и волосы. Но есть программы, которые почти не меняют черты лица (изменения в пределах 2-4%). Правда, они текстуру кожи неважно делают. Возможно, надо комбинировать. Жаль только, что Ремини уже бесплатно не воспользуешься, а платить жаба душит.
@@gurufrilansa ремини полностью бесплатный, просто накладываешь ремини на сток и стираешь моменты которые не нравятся мягким ластиком.
@@rockstark4620 в каком месте он бесплатный?
Спасибо!
Хм. Автор говорит, что проявляется текстура лица и вообще, какая она хорошая. Но ведь как раз таки текстуры кожи и нет, одно мыло. Текстуру либо через каналы от донора в ФШ добавлять, либо долго инпейнтить, чтобы проявились поры и именно ТЕКСТУРА ЛИЦА, а не то, о чем говорит автор ролика. Ну, пока не вижу преимуществ этого метода, раз всё равно придется ТЕКСТУРУ ЛИЦА (кожи) добавлять вручную.
Автор втирает нам какую-то дичь. У меня эта шляпа даже такого результата как у автора выдавать не хочет. Да и на результатах автора фотореализмом и не пахнет.
SUPIR пишут что смогут оптимизировать до 24гб видеопамяти, будет еще более крутая штука
Зачем снова сохранять в JPEG, если только что избавились от артефактов? PNG побольше объемом, но гарантированно без артефактов.
Модель v2-1_768-ema-pruned.safetensors не загружается :(
Мыльное мыло, далекое от фотокачества.
Пишет тот кто раньше делал деньги на восстановлении фотографии. Нейросеть вас заменила, смирись 😃
@@wiwwiw2890кого там нейросеть заменила? Тот кто зарабатывал на восстановлении, тот и продолжает зарабатывать, хоть в фотошопе, хоть в нейронке. Обычный "клиент" по прежднему это сам не сделает, даже если посмотрит это видео. Что даст ему этот просмотр? Видуху на 24 гига? Знания фотомонтажа? Если человек хочет делать это сам, то он и без нейронки это сделает. А если ему чтоб восстановить 20 фото из архива проще заплатить кому-то деньги, чем самому в этом колупаться, то он так и сделает, и нейронки тут вообще не причём...
@@wiwwiw2890Я не зарабатывал на восстановлении фото, но всё равно вижу мыльнейшее мыло. Что со мной не так?
@@wiwwiw2890 они теперь зарабатывают в х раз быстрее)
а ты не знаешь как сделать чтоб из автоматика в comfy пути к моделям не только базовые прописать но еще и animatediff, faceid, и прочее что тоже не мало весит, чтоб дубли моделей не хранить?
Могу такой вариант предложить в Windows (и не только) есть жесткие ссылки или соединения. Т.е. вы со создаёте папку в корне например "D:\Models" кладёте туда все нужные модели и создаёте соединение для каждой папки нейросети. Пример папка StableDiffusion модели находятся в папке "D:\StableDiffusion\Models" тогда удаляем папку в ней Models (предварительно переписав её содержимое в "D:\Models" и выполняем команду mklink /J "D:\StableDiffusion\Models" "D:\Models" теперь StableDiffusion будет думать что модели хранятся у неё в папке а это будет всего лишь ссылка на папку "D:\Models"
Делаю всё также как в видео, но изображение на выходе дает какой-то жесткий зеленый психодел. Карточка RTX 4080. Галочки в hypertyle отключены.
Если кто с таким встречался, как фиксили?
У меня 4070, и почти сразу получился приемлемый результат. В консоли иногда проскакивала строчка "Error fixing color", и на выходе была цветовая мешанина. Можно попробовать отключить/включить опцию "Save Original" в пункте меню "Color Fix", и повыбирать разные режимы в выпадающей строчке "Color Fix". Или поиграться с размером плиток Latent tile height_Latent tile width.
Разобрался, не переключилась моделька на нужную. Все работает но результат очень странный, все в мелких точках и царапинах при приближении. Но это на фото с джипег артефактами. Наверное если их убрать царапин и точек не будет
как сделать ползунки в интерфейсе нейронки синего цвета, они у меня серые почему-то
Купить
@@howtobehappy404 ты вообще безмозглый походу
А у меня в скриптах не появляется stableSR, хотя при повторной установке пишет что уже установлено.
Что это может быть, как исправить?
аналогично((
Не получается, фон и девушка стало общим зелёным, хотя, делал как в уроке показано.
К сожалению не работает. Куча ошибок вылетает. Наверное видеокарта слабая rtx4060 не подходит
NansException: A tensor with NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.
set COMMANDLINE_ARGS=--no-half
не решает проблему с AttributeError: 'NoneType' object has no attribute 'parameters'
Скорее всего что то с моделью...
мне помогло включение Upcast cross attention layer to float32 в настройках
спасибо за видео. Напишите пожалуйста сколько ставить Encoder Tile Size и Decoder Tile Size если у меня 8 гб. видео памяти?
1024 и 128
@@StableDiff большое спасибо
спасибо, а как установить на портабельную версию?
А теперь на стандартном Вае что ли можно работать,специальный не надо?
Специальный не нужен
Делаем так, чтобы было хуже, удаляем детали через децимации, устраняем артефакты в Photoshop, УВЕЛИЧИВАЕМ разрешение 😂
Так же выдает ошибку при попытке выбрать модель. ОЗУ 128 Гб.
32ГБ все сработало замечательно
Извините но это не upscale а шляпа какая-то те же настройки на rtx 3090 , три мин на картинку
у меня не появился Tiled :(
Дешевле купить подписку чем карту купить на 24гигов
Выдает пока слишком мультяшный апскейл на фотках, так что пока еще далеко
Эффект потрескавшейся кожи.. Не знаю в чем дело.🙃
Зрители , на что пересесть с 1080 8гб? тока не советуйте 4800 и 3900. что нить понароднее
4090, 4080, 3090, 4070, 4060 (24Гб, 16Гб, 12Гб) В порядке приоритета и обратнопропорционально цене.
@@StableDiff 4060 Ti 16 Gb а вот такой сабж. надо же чем больше оперативки
@@jconnar тут всегда компромис есть. Больше памяти больше возможностей. Старше серия карты - больше скорость. 4070 быстрее 4060. Но если памяти не хватит быстрее будет 4060
Ну вообще копить на 4070 super это опционально. 10 линейка очень и очень устарела. 30 линейка это очень хороший вход для работы в любой индустрии. Но нужно 12гб и это или 3060 (что после 1080 не особо много смысла имеет) или уже тогда копить на 4070 super или выше. Сейчас куда не пойди, хоть 3D разработка, синематики в UE5 и т.п. везде нужны RT
@@stefan_es 3060 12гб после 1080 ещё как имеет смысл. Так же рассуждал, пока не пересел с 1080 на 3060, скорость генерации возросла в 4-5 раз. Сам был в шоке.
у меня почему-то нет на верху sd vae
ua-cam.com/video/RIIdNyqs6mI/v-deo.html
лицо похоже на пластик. Не вижу превосхосдва над ремини.
Убийца magnific конечно чистый кликбайт) все-таки даже близко не подошли к его результату.
честно, апскейла не увидел. обычный ресайз, который в ФШ делается за 5 секунд без всего вообще. и на выходе будет точно такое же мыло. 0 деталей вообще.
А в Forge будет работать?
Не пробовал.
@@StableDiff после установки Tiled - не отображается опция
@@StableDiff Не работает, так как не получается активировать multidiffusion-upscaler-for-automatic1111, Forge его сразу отключает. Предположу что там есть внутренние аналоги по функционалу но как их использовать непонятно...
Не работает, не отображается Tiled Vae
Ну нееет. Это выходит ретушь аля 15 летней дальности. Замыленно все в хлам.
В названии написано убийца… а в чем убийца? Магнифик рисует текстуру. Короч тупо кликбейт из за которого я потратил на тебя 10 минут.
У меня все в Артефактах :(
Таже фигня :(
да. что только не делал, все в артефактах (64ram, 4090)
В Remini качество выше, здесь много мыла
Cuba77 на 3 фото откуда?
Аниме который озвучивает?
Ну хз - на примерах апскейл выглядит прям как генерация. Topaz иной раз даже лучше делает
Интересно получается. Для Автоматика бесплатно, для Комфи по платной подписке. Типа пользователи Комфи особо богатые.
Я даже не знаю что сказать. Скажу - пожалуйста.
типа в Комфи в один клик, платишь за это
К сожалению до remini ещё далеко)
Да не.... Сразу видно, что не естественно, как будто ИИ делал. Это чисто для школьников подойдет, развлекаться🤷♂️
SUPIR намного лучше
Полная ерунда. Нет пока ничего лучше sd upscale + 3 модели контрол нета. Upscale хоть в 8 к делай, и лица не будут вообще изменены, и детали будут на высшем уровне, и кожа будет такая, ято в порах можно микробов разглядеть.
Подскажи, пожалуйста, этот метод.
Подскажите, как он в сравнении с leonardo?
StableSR один из лучших
огого! мем про супер-зум перестал быть мемом =))
з.ы. 5-кратный лучше картинку выдаёт.
14:18 plz plz Workfolw
Гемор какой-то...
Морока какая-то жуткая
один глаз голубой, другой серый, по глазам видно что генерация!! глаза ужасные! ну нахер оно надо:?
Короче очередной не работающий шлак.
Убийца REMINI?????? В Remini можно спокойно загружать фото высокого разрешения, а тут ты говоришь что нужно уменьшить? И это убийца??? Дизлайк тебе жирный и огроменный!!!
слово install - произношение - инстол - ударение на второй слог на букву О
И что? Это не школа, иди нах учитель!
этот метод устарел и даже на вашем видео ужасный результат
А что уновело? Желательно на коллабе
У меня нет раздела SD VAE.
Как его добавить, чтобы потом выбрать vae-ft-mse-840000--ema-pruned.ckpt ?
Присоединяюсь
@@МаксимШтыков-ю3з ua-cam.com/video/RIIdNyqs6mI/v-deo.html