Для тех кто хочет себе эту модель, но по ссылке ничего не находит: Автору пришлось удалить старую версию, так как возникли проблемы с правами на нейминг. Новая версия лежит на том же сайте, найти её можно вбив в поиске "Illuminutty Diffusion"
Лайкос, полезная модель, не видел ее еще.. Жаль никто не выложил на ютубе до сих пор нейронку для синтеза речи бесплатную, которую можно натренировать, видел несколько штук, но не осилил настроить, а это прям круто помогло бы в создании видео контента..
@@Dchannelone Есть. whisper, sova ai, еще какие-то находил, но не осилил настроить. У них еще и датасеты есть обученные. Если чего выйдет по этим или еще каким - отпишись по контактам в акке)
Спасибо. Интересная модель. Как ярый фанат МЖ, могу сказать, чем она хороша по сравнению с СД и почему именно ее я использую в повседневной работе. Разумеется я говорю чисто за себя, но думаю что для большинства это тоже верно. Их отличие очень простое и в тоже время фундаментальное. Простота получения минимально годного изображения. В МЖ это как правило небрежно составленный промт, дефолтные параметры и пара реролов, тогда как в СД это целая игра разума. Расставление весов, подбор нужных формулировок, выбор порядка слов, сэмплера и колва семплов, CFG и бог знает чего еще. В общем, никакая модель не починит этот Линукс, в глазах любителя МакОС. =)))
стейбл очень активно развивается, сейчас в нем есть очень крутые инструменты которые выходят за рамки генерации картинок,например генератор карт глубины, автоматическая анимация фотографий, стилизация видео, редактор поз, реставрация фотографий, апскейлинг, инпеинтинг, исправление кривых пальцев рук и ног, стилизация текста...можно еще продолжить этот список, и все это в одном графическом интерфейсе, кодить уже ничего не нужно. Но если вам миджорни позволяет решать ваши рабочие задачи это прекрасно, могу только порадоваться)
@@AlexandrTverskoy вы видели те видео? Можно сказать сд тоже не умеет. ) что-то более менее адекватное, это ндавнее rock paper scissors от corridor crew, но там такой пайплайн, что назвать это «умеет» язык не повернется. Хотя как направление, вы правы. Думаю скоро научится. Кстати, видели сетку GEN-1, чисто под видео заточена. Видосы с нее выглядят хорошо, но она в закрытой бете пока. Я еще не пробовал, может там тоже целый видео продакшн нужен, чтоб качество получить.
@@TimesaverVFX вы абсолютно правы, от части об этом я и говорю. Все эти «возможности» делают сд очень универсальным инструментом, со всеми вытекающими из этого минусами.
Попробовал я эту Illuminati Diffusion, многое она умеет делать примерно на уровне MJ, изредка лучше. Но с некоторыми видами артов не справляется, например кибернетические интерфейсы, HUD и т.п. Большинство промтов использовал от MJ, без изменений, во многих случаях результат был очень похож. В общем, с этой моделью + использование других + полезные инструменты: это уже весомый аргумент присмотреться к этой сборке.
Flonix MJ Style лучше генерит, чем illuminat. Немного по другому обучалась, но более точнее генерит. Можешь попробовать также. Для вообще супер эффекта можно юзать модель illuminati, добавляя flonix лору. Результаты шикарные
У кого не работает, методом тыка и просмотра индусов помогло 1) в батнике webui-user дополнить строку чтобы было так: "set COMMANDLINE_ARGS=--api --no-half" и сохранить 2) закинул модель 768, стяла 512, вроде обе 2.1 но это не точно по этому на всякий случай докинул её и заработало
Привет, у меня вопрос. У вас есть видео "Ромео и Джульетта", как вы сделали так что-бы они двигались? Это "Скрипт Stable Diffusion Loopback Wave" делает так что они двигаются?. Я просто так и не понял,как они головы поворачивают. Попытался найти,но толкового ничего пока не нашёл.Я просто могу с видео так сделать. Разбиваешь на кадры и вперёд. Это работает. Но как просто сгенерировать одно изображение и потом заставить это двигаться,так и не понял. Можете просто ответить- Да или Нет?
Спасибо за информацию. Такой вопрос - Вы в видео сказали, что эта модель натренирована на разрешение 768x768. Тогда при генерации эффективнее его выбрать, или можно и большие разрешения?
Ни разу ни от кого не слышал что миджорни круче чем стабильная диффузия. Они обе далеки от совершенства, но в сд есть куча инструментов, позволяющие приблизиться к этому совершенству
MJ сильно поднялась с 4-й версии, это где-то с ноября. И в сравнении с MJ, SD конечно же отстает в большинстве случаев, тут даже спорить не о чем, речь о базовой SD разумеется. А отдельные специализированные модели, в узконаправленных задачах действительно могут быть круче MJ. Но их нужно устанавливать, для каждый свои нюансы. В общем, MJ - это сбалансированное и более простое универсальное решение достойного качества.
@@neurostudio7312 миджорни к короткому промпту при генерации добавляет кучу дополнительных - для получения максимально красочного арта, сделать фотореалистичные изображения в мд практически нереально и она все так же плохо рисует тела (а обнаженку вообще не умеет) и если ты сделал картинку и хочешь что-то исправить то тут только фш в помощь, так что мое мнение что мд уступает сд (если сопоставить плюсы и минусы)
@@stphnsn218 я согласен, MJ именно для артов, но зато каких! И да, некорректно сравнивать обе нейронки, они все же разные очень во всем. Но с появлением этой модели, SD стала еще более универсальной.
Пыталась запустить SD через коллаб на стареньком макбуке. Весь процесс установки проходит хорошо, но по ссылке получаю пустую страницу. Подскажите пожалуйста, в чем может быть причина? Бьюсь уже несколько дней
жаль автор удалил, я посмотрел работы .... и я афигел насколько красиво, но не могу попробовать :( а у меня столько идей есть ... так ещё даже я похожих не нашёл ...
Интересно-но очень сложно сгенерировать что-то разное(пока не очень понял,необычная модель и текстовые подсказки по другому работают?) Видел,что кроме обычных негативных подсказок,еще используют дополнения( lora &...) Вы не в курсе где они должны находится и как их использовать??
в своих примерах я не использовал никаких дополнений, самое главное это ПРОМТЫ, это нужно изучать в первую очередь, а лоры, хайпернерворки и прочие дополнения не так влияет на результат
Попробовал работает. Но почему-то полностью игнорирует подключенную, натренированную на фотографии hypernetworks. В других моделях такого явного игнорирования не видел. Жаль хотел друзей в этом жанре сделать 😕
добавь в файле webui-user.bat (простым текстовым редактором) вот это --theme dark в строке set COMMANDLINE_ARGS (обычно третья строка снизу и должно получиться что - то типа set COMMANDLINE_ARGS=--xformers --autolaunch --theme dark
нет ни одной сгенерированной фотографии фоторелазима! там до фотореизма как до Марса раком (или примеры не удачные). кто хоть раз держал РЕАЛЬНУЮ камеру (как минимум фотоаппарат) в руках тот это увидит. кто не держал и такое сойдет.
@@TimesaverVFX "создавать профессионального качества фотографии еды, напитков" - это в видео было сказано. К сожалению, примеры скорее отпугивают, чем привлекают. Клубника вообще взорвала мозг, там всё неправильно.
У меня все установилось. но при генере выдает следующую ошибку: "NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try using --no-half commandline argument to fix this." Что с этим сделать кто нибудь подскажет?
@@RedMoon-666 да вот с другими моделями всё ок, читал инструкцию от автора помимо видео, смотрел логи консольные, проверил на какие ссылается, всё с сайта скачивалось
фигня какая-то! генерируются только чёрные квадраты. а папки embeddings вообще нет в структуре stable-diffusion! да и по видосу видно, что структура у тебя сильно отличается от той, что ты ранее рекомендовал установить
Для тех кто хочет себе эту модель, но по ссылке ничего не находит:
Автору пришлось удалить старую версию, так как возникли проблемы с правами на нейминг.
Новая версия лежит на том же сайте, найти её можно вбив в поиске "Illuminutty Diffusion"
дай бог тебе здоровья
Лайкос, полезная модель, не видел ее еще.. Жаль никто не выложил на ютубе до сих пор нейронку для синтеза речи бесплатную, которую можно натренировать, видел несколько штук, но не осилил настроить, а это прям круто помогло бы в создании видео контента..
Есть free? Видел только условно-бесплатные.
@@Dchannelone Есть. whisper, sova ai, еще какие-то находил, но не осилил настроить. У них еще и датасеты есть обученные. Если чего выйдет по этим или еще каким - отпишись по контактам в акке)
@@AchieveVibes Конечно. Попробую протестить, надеюсь получится что-то стоящее.
Silero, Multi-Tacotron Voice Cloning
Ребята, нашли что - нибудь рабочее?
Спасибо. Интересная модель. Как ярый фанат МЖ, могу сказать, чем она хороша по сравнению с СД и почему именно ее я использую в повседневной работе. Разумеется я говорю чисто за себя, но думаю что для большинства это тоже верно. Их отличие очень простое и в тоже время фундаментальное. Простота получения минимально годного изображения.
В МЖ это как правило небрежно составленный промт, дефолтные параметры и пара реролов, тогда как в СД это целая игра разума. Расставление весов, подбор нужных формулировок, выбор порядка слов, сэмплера и колва семплов, CFG и бог знает чего еще.
В общем, никакая модель не починит этот Линукс, в глазах любителя МакОС. =)))
стейбл очень активно развивается, сейчас в нем есть очень крутые инструменты которые выходят за рамки генерации картинок,например генератор карт глубины, автоматическая анимация фотографий, стилизация видео, редактор поз, реставрация фотографий, апскейлинг, инпеинтинг, исправление кривых пальцев рук и ног, стилизация текста...можно еще продолжить этот список, и все это в одном графическом интерфейсе, кодить уже ничего не нужно. Но если вам миджорни позволяет решать ваши рабочие задачи это прекрасно, могу только порадоваться)
Миджорни не умеет видео, диф умеет.
@@AlexandrTverskoy вы видели те видео? Можно сказать сд тоже не умеет. ) что-то более менее адекватное, это ндавнее rock paper scissors от corridor crew, но там такой пайплайн, что назвать это «умеет» язык не повернется.
Хотя как направление, вы правы. Думаю скоро научится.
Кстати, видели сетку GEN-1, чисто под видео заточена. Видосы с нее выглядят хорошо, но она в закрытой бете пока. Я еще не пробовал, может там тоже целый видео продакшн нужен, чтоб качество получить.
@@TimesaverVFX вы абсолютно правы, от части об этом я и говорю. Все эти «возможности» делают сд очень универсальным инструментом, со всеми вытекающими из этого минусами.
Попробовал я эту Illuminati Diffusion, многое она умеет делать примерно на уровне MJ, изредка лучше. Но с некоторыми видами артов не справляется, например кибернетические интерфейсы, HUD и т.п. Большинство промтов использовал от MJ, без изменений, во многих случаях результат был очень похож. В общем, с этой моделью + использование других + полезные инструменты: это уже весомый аргумент присмотреться к этой сборке.
Flonix MJ Style лучше генерит, чем illuminat. Немного по другому обучалась, но более точнее генерит. Можешь попробовать также.
Для вообще супер эффекта можно юзать модель illuminati, добавляя flonix лору. Результаты шикарные
Спасибо! Я пару дней назад скачал Модель и эмбединги, но даже не знал что нужен еще и конфиг :))
Спасибо, сегодня все работает!
какой вкусный канал однако
Спасибо, что рассказываете, как пользоваться подобными вещами! модель пропала с сайта, кто успел скачать, можете поделиться?)
Большое вам спасибо, всё четко! 👍
Спасибо!
stable diffusion куда более крутой и мощный инструмент
Спасибо
Спасибо за полезную информацию! 👍
Спасибо! Всё работает, оказалось и гораздо проще, чем кажется на первый взгляд. Не буду убивать видеокарту
Т.е. задачи делаются автономно на сервере? И бесплатно?) А то я видел, что где то нужно платить
@@shvetsov4 Да. Автономно на гугл-диске. Платить придётся в том случае, если на нём нет места. Это единственное ограничение.
@@EDOPUNKTUBE понял) спасибо! у меня там куплено место больше 15гб) значит можно входить в игру)
Спасибо за вашу работу!
У кого не работает, методом тыка и просмотра индусов помогло
1) в батнике webui-user дополнить строку чтобы было так: "set COMMANDLINE_ARGS=--api --no-half" и сохранить
2) закинул модель 768, стяла 512, вроде обе 2.1 но это не точно по этому на всякий случай докинул её и заработало
Круто
Можно ли в Stable Diffusion загрузить фото лица и сгенерировать из него без потери похожести любой арт, например в стиле киберпанк?
Надо тренировать модель на массиве фото. Гайды есть на Ютубе - ищите
Круто! Спасибо за инфу! Крутой софт!
Не могу найти эту модель, поделитесь ссылкой, пожалуйста.
Как всегда топ контент. Спасибо!
Привет, у меня вопрос. У вас есть видео "Ромео и Джульетта", как вы сделали так что-бы они двигались? Это "Скрипт Stable Diffusion Loopback Wave" делает так что они двигаются?. Я просто так и не понял,как они головы поворачивают. Попытался найти,но толкового ничего пока не нашёл.Я просто могу с видео так сделать. Разбиваешь на кадры и вперёд. Это работает. Но как просто сгенерировать одно изображение и потом заставить это двигаться,так и не понял. Можете просто ответить- Да или Нет?
Google Collab выходило у вас что лимит изчерпан и не запускается потом?
Спасибо за информацию. Такой вопрос - Вы в видео сказали, что эта модель натренирована на разрешение 768x768. Тогда при генерации эффективнее его выбрать, или можно и большие разрешения?
можно и больше, там в описании к модели есть рекомендации по разрешению
в этих нейросетках же постоянно разный результат, даже с одинаковыми запросами? т.е. нельзя сделать комикс с одним персонажем?
Исползайте сид номер, и генерируйте похожее.
Если у кого то не генерируется, я сделал одну галочку и всё заработала (Upcast cross attention layer to float32)
Подскажете, как на CIVITAI добавить изображения к отзыву? Там ссылки только можно вставить, пытался так подгрузить, но не получилось.
Ни разу ни от кого не слышал что миджорни круче чем стабильная диффузия. Они обе далеки от совершенства, но в сд есть куча инструментов, позволяющие приблизиться к этому совершенству
MJ сильно поднялась с 4-й версии, это где-то с ноября. И в сравнении с MJ, SD конечно же отстает в большинстве случаев, тут даже спорить не о чем, речь о базовой SD разумеется.
А отдельные специализированные модели, в узконаправленных задачах действительно могут быть круче MJ. Но их нужно устанавливать, для каждый свои нюансы. В общем, MJ - это сбалансированное и более простое универсальное решение достойного качества.
@@neurostudio7312 миджорни к короткому промпту при генерации добавляет кучу дополнительных - для получения максимально красочного арта, сделать фотореалистичные изображения в мд практически нереально и она все так же плохо рисует тела (а обнаженку вообще не умеет) и если ты сделал картинку и хочешь что-то исправить то тут только фш в помощь, так что мое мнение что мд уступает сд (если сопоставить плюсы и минусы)
@@stphnsn218 я согласен, MJ именно для артов, но зато каких!
И да, некорректно сравнивать обе нейронки, они все же разные очень во всем. Но с появлением этой модели, SD стала еще более универсальной.
блин круто..спасиб
спасибо, очень круто! Лайк, або и всем рекоммендую, чувак!😎Могёш!😂
запили видос (если еще не), в каких нейросетях можно свои исходники приукрасить 😉
Привет. Помоги пожалуйста. Как заставить не рисовать две похожие модели при широкой картинки. Всякие Ван персон и ноу ту персон не помогает..
Ссылка больше не работает, может кто- то опубликовать?
Пыталась запустить SD через коллаб на стареньком макбуке. Весь процесс установки проходит хорошо, но по ссылке получаю пустую страницу. Подскажите пожалуйста, в чем может быть причина? Бьюсь уже несколько дней
Существует ли нейросеть которая рисует изображение с текстом ? Правильно написаном
см предыдущее видео
Вышел, DeepFloyd IF
жаль автор удалил, я посмотрел работы .... и я афигел насколько красиво, но не могу попробовать :( а у меня столько идей есть ... так ещё даже я похожих не нашёл ...
Есть вариант даже лучше civitai.com/models/27739/artius-v21
Ребят, скажите пожалуйста, сколько по времени длятся ограничение google collab после того как ограничивает доступ?
Интересно-но очень сложно сгенерировать что-то разное(пока не очень понял,необычная модель и текстовые подсказки по другому работают?) Видел,что кроме обычных негативных подсказок,еще используют дополнения( lora &...) Вы не в курсе где они должны находится и как их использовать??
в своих примерах я не использовал никаких дополнений, самое главное это ПРОМТЫ, это нужно изучать в первую очередь, а лоры, хайпернерворки и прочие дополнения не так влияет на результат
@@TimesaverVFX Ясно спасибо! Да с промтами которые идеально работают на других моделях-здесь работают совсем по другому,спасибо за ответ!
как сделать, чтобывебитерфейс автоматик1111 стал темно-сине-филетовый?
в автомномной нету папки embeddings, самому создать?
не работает негативный промт nfixer и остальные подчеркнут красным в чем может быть проблема
Hé man, kun je deze drie insluitingen delen sinds de auteur hun Illuminati-model heeft verwijderd. Bedankt broer.
Люди добрые, подскажите, как в stable diffusion отключить автостарт в окне? Мне нужно, чтоб он давал ссылку и я сам запускал бы его
не понимаю почему, но у меня не видит СД модель и расширение у модели не ckpt, я видимо совсем далек >_
Попробовал работает.
Но почему-то полностью игнорирует подключенную, натренированную на фотографии hypernetworks.
В других моделях такого явного игнорирования не видел.
Жаль хотел друзей в этом жанре сделать 😕
А для 1.5 нет такой модели?
портрет-плюс-1.0 Модель SD-1.5, обученная портретам людей с близкого расстояния; реалистичные люди получаются даже с первого раз
Н нашел такую модель. Как она правильно на английском пишется?
@@shishkimnark Так и пишется,только на английском.
У меня Чертов Stable Diffusion не устанавливается прочит обнову нажимаю обновить и не когда не может загрузить обнову и выдает ошибку
как для 1.5 будет!напиши
Блин, у меня ведь SSD не резиновый😁, но придется качать модельку🤩
А как сделать темную тему для Стейбла, как в этом ролике?
добавь в файле webui-user.bat (простым текстовым редактором) вот это --theme dark в строке set COMMANDLINE_ARGS (обычно третья строка снизу и должно получиться что - то типа set COMMANDLINE_ARGS=--xformers --autolaunch --theme dark
@@yarikbeatz Огромное спасибо! Сработало! 🙏🤝
нет модели на сайте, 404 пишет
получаю черный квадрат Малевича, что я делаю не так?
почему может генерировать черные квадраты?
у меня тоже самое, хз что не так.
извините, а как Illuminati Diffusion устанавливать ? нужно сначала Stable Diffusion установить?
да
@@TimesaverVFX 1.5 версия Stable Diffusion нужна?
@@play_game-i7h 2.1 и если вас не 12 гиг памяти, то эта модель начнет выдавать ошибку памяти.
@@НаташаМальцева-т4ь спасибо, а память в видеокарте или ддр ?
@@play_game-i7h видеокарта
Модели нет по ссылке. Походу она была слишком хороша, и её удалили
есть модель поинтереснее: civitai.com/models/27739/artius-v21
@@TimesaverVFX спасибо
Страница с моделью 404 The page you are looking for doesn't exist
а где же HDR? цветопередача слишком насыщено, будто смотрю лг или сони тв ыыыыыыыыыы
Ссылка на модель битая, не работает.
автор удалил модель с сайта, но есть вариант получше: civitai.com/models/27739/artius-v21
не работает, что делать?
Все ,краски в этом приложении тёмные, и картинки почти одинаковые!
нет ни одной сгенерированной фотографии фоторелазима! там до фотореизма как до Марса раком (или примеры не удачные).
кто хоть раз держал РЕАЛЬНУЮ камеру (как минимум фотоаппарат) в руках тот это увидит.
кто не держал и такое сойдет.
Фотореализм это жанр в живописи) en.wikipedia.org/wiki/Photorealism
@@TimesaverVFX "создавать профессионального качества фотографии еды, напитков" - это в видео было сказано. К сожалению, примеры скорее отпугивают, чем привлекают. Клубника вообще взорвала мозг, там всё неправильно.
OK
У меня все установилось. но при генере выдает следующую ошибку: "NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try using --no-half commandline argument to fix this." Что с этим сделать кто нибудь подскажет?
Try using --no-half commandline argument to fix this. Написали же что делать.
@@Vitaliy_zl ну для меня это не несет особой информации) Подскажете что делать?
@@ndmitrienkov5083 сам долго искал, мне помогло, надеюсь и тебе: Settings > Stable Diffusion > Enable option "Upcast cross attention layer to float32"
2:25
Установил, ничего не генерируется. Со стандартной моделью всё ок. Негативы установил и прописал, хз в чём дело
Если не генерируется, нужно сесть и подумать.
@@RedMoon-666 да вот с другими моделями всё ок, читал инструкцию от автора помимо видео, смотрел логи консольные, проверил на какие ссылается, всё с сайта скачивалось
Здорова, школьники писяться от такого.
вот они щас набегут миджорни защищать)
привет
Сколько места нужно на диске для SD ?
Это для жидкого диска только.🙄
что-то у меня все люди худые с ввалившимися щеками, худые как зомби, да и лица у всех одинаковые
фигня какая-то! генерируются только чёрные квадраты. а папки embeddings вообще нет в структуре stable-diffusion! да и по видосу видно, что структура у тебя сильно отличается от той, что ты ранее рекомендовал установить
что бы натренировать норм модель - нужно около 50 миллиардов картинок. а не 80к.
Натренировать можно и с несколькими картинками, у тебя базовая модель есть.