🔥 Канал о нейросетях: авторские обзоры, новости, мемы - t.me/alchemist_tm 🔥 Курс по Stable Diffusion - sponsr.ru/technomagix/54859/Navigaciya_pokursu_Stable_Diffusion 🔥 Чат поддержки - t.me/+EOhMG42mlywxNWMy 🔥 Поддержать автора - sponsr.ru/technomagix/ ua-cam.com/play/PLiNFDOo-cka29iSJb1IPd8gwn23AiBkJt.html
Дождались,что-ж пойду тестить. Попрошу за всех,как можно больше видео. Тема машинного обучения сейчас бежит семимильными шагами, так что не отставай ) спасибо за работу
Не успеваю за ходом ваших мыслей. Первый раз вижу такой интерфейс. Хорошо бы помедленнее. Хочу вникнуть и разобраться. Важно все: какая прога, какая закладка, какая кнопка. Общий зачет, лайк и подписка.
Как и у некоторых других посетителей при включении Train и минуты- другой работы возникает сообщение Exception training model: 'No executable batch size found, reached zero.'. Нельзя бы в самых общих чертах дать ответ - в чем состоит проблема и как ее можно было бы решить
Ребята, у кого постоянные вылеты CUDA - это не видеокарты слабые, а софт не донастроили под себя. Попробуйте поставьте в лаунчере такие параметры: set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6,max_split_size_mb:24 set COMMANDLINE_ARGS=--xformers --medvram --autolaunch Train перестал вылетать. Спокойно учится. Думаю, что плагин Dreambooth тоже не будет особо возникать, потому что это и есть этот же Train, просто в другой обёртке.
я не поняла, где дообучать модель. где загружать картинки для обучения. у меня есть картинки условного Пети. Куда грузить картинки с Петей чтобы дообучить модель генерировать фотки Пети?
Как я понял ошибка памяти. Но у меня 6Гб видеопамяти (GTX 1660), а в одном из предыдущих видео вы говорили про то что у вас всего 2Гб. Добавил все комманды для уменьшения нагрузки на память что и у вас, н овсё равно эта ошибка вылазит. Что ещё можно сделать? на реддит и гитхаб посмотрел, но ничего новго предложить не могутю В текущей версии галочки работать только через процессор не вижу
Как не пытался, после установки dreambooth не запускается, куча непонятных ошибок. А если его из папки extentions удалить, запускается нормально. В чем может быть проблема?
Жму установку Dreambooth, появляется надпись Loading. Но Установка не завершается. При этом в папке extensions появляется Dreambooth. Но при перезапуске Stable Diffusion всё зависает на этапе Installing requirements for Web UI. Что делать?
у меня было подобное. Там в консоли перед обрывом установки строчки с предупреждениями и пути к папке и файлу были. Я почитал, что это типа мусор при установке/обновлении PIP (ХЗ что такое). В общем удалил я их и установка прошла. Правда обучение на 6 gb запустить всё равно не могу(((
Вроде все по видео, а ловлю CUDA out of memory 6Гб видеопамяти и 32 оперативы. Делал настройку для видюх с малым количеством видеопамяти, но все равно. Отжирает 6Гб и падает сразу
Есть пара вопросов: Можно ли использовать майнинговые видеокарты, которые без видеовыходов? Они сейчас очень дешевые. Можно ли увеличить детализацию сгенерированного варианта и его разрешение, скажем до 4000х4000 пикселей?
Об использовании майнинговых видюх со Stable Diffusion не слышал и не встречал обсуждения на форумах. Увеличить детализацию 4000х4000 можно. В SD есть разные алгоритмы для масштабирования изображений. В качестве альтернативы есть мощная программа на ПК для масштабирования изображений Topaz gigapixel
Upscaling можно делать любой, но детали будут как на исходной картинке, для 800 пикселей вообще детальность отличная, куда больше то. Чтобы предсказывать большие разрешения надо на них обучить, а это около 1млн$ стоит.
спасибо. но все же непонятно почему на 24 фотки вы используете 5200.... ведь сами говорили 100-200 шагов на фотку. а где-то сказали 100-150. у меня фотосессия из одной локации 20 шт. мне ставить 150х20? где-то на форумах читал что 165 хороший результат будет
Кроме шагов ещё важна скорость обучения. Скорость обучение оставьте по умолчанию. На 20 фотографий поставьте 2000-2500 шагов. 5200 шагов я использовал потому что обучал модель на трех концептах
@@TechnoMagix в коллабе хуже результат? по вашему гайду пока на коллабе делаю, там скорость не знаю где выставлять, но результат устраивает. только шаги тестирую. спасибо огромное. вот если бы еще сделали видос на колаб который использует версию 2.0-2.2 то был бы рад. ведь там модели лучше для тренировки. но почему-то automatic 1111 и SD UI выдают ошибку если использовать ckpt натренированный на версии 2.0 и выше. почему то только 1.5 стандартную хавает.
Ещё никто не написал код под 2.0. А в автоматике обязательно нужно рядом с чекпоинтом положить config.yaml, где config - надо заменить на такое же имя, как твой чекпоинт. Читай Вики у автоматика
можно то же самое, только в colab и не с оригинальной моделью stable diffusion 1.5, а форком (например dreamlike-photoreal) а то что-то ошибки выдает постоянно и интерфейс другим стал
Для обучения нужно 16Gb видеокарта, а если через процессор то будет рендерить будет неделю. В онлайн версии все обученные готовые модели весят 2 gb, хотя раньше весили по 6 gb и генерят совсем не то что нужно
Как бы я не старался 8Gb vram памяти не хватает. Выдаёт ошибку нехватки памяти. :с Как-то даже больно осознавать, что твоя 2070 Super уже слабая карточка.
версии dreambooth уже видимо разные, интерфейс отличается, делаю вроде плюс минус по видео но на выходе бегемоты получаются даже по ключевому запросу - как бомж горошок в примере, не понимаю куда копать -(
Скажи, а что будет если картинки нет в модели, а ты задаешь промт по такой картинке? Он ищет её в интернете, создает модель и затем использует? Или как это работает?
У модели нет доступа к интернету. Какую-то картинку в любом случае сгенерирует. Нейросеть воспринимает промпт как набор токенов. Токен не равен слову. В одном слове может быть несколько токенов. Например, вы напишете несуществующее слово "atsucat". Нейросеть не знает такого слова, но видит в нем токен "cat" и еще несколько знакомых ей токенов и просто сгенерирует картинку с котом.
@@TechnoMagix понятно, а загруженная модель доступна только в твоей версии фаила или она делится со всеми участниками, что-то вроде объединенной базы данных? Я так понял, что нейросеть не может сразу из картинки подхватить и создать модель, ей нужно пройти стадию обучения. А вообще кто её обучает, там же нужно миллионы картинок, кто этим занимается?
Спасибо за видео. Кто знает, подскажите пожалуйста, у меня карта GeForce 780m, но SD не видит её, и работает только за счёт процессора. Как это можно пофиксить?
У меня вопрос: смотрю у всех ютуберов stable diffusion с тёмной темой и функционал несколько отличается от моего. Как мне сделать такую же тёмную тему и получить точно такой же функционал?
Если добавить текст "git pull" в батник для запуска, то программа сама будет обновляться. Так вы получить актуальный функционал. Темная тема у меня установлена в самом браузере.
@@TechnoMagix ну тут пруфы нужны, споров вокруг данной темы много... А вот для меня курочить модели или создавать новые уже не варик, с гипернетворком, правда я слышал что через дримбуф можно делать лора модели...
Привет всем !!! Кто начинает осваивать нейросетях. Для меня это пока немного сложновато!!?Хотел обратиться с просьбой: возможно сделать "волшебное" появление человека (по фотографии) по пояс сидящего в кинотеатре на фоне хромакея. Длительность действия 3-5 секунд. Я монтирую фильм "Мой Иллюзион" и появление человека с использованием нейросети было бы гораздо смотрительнее. По сюжету человек из любительского фильма попадает в сегодняшнюю реальность.Фильм монтирую в Vegase. Буду рад любому ответу. Михаил
сделай видос как stable diffusion на гугл колабе запускать на webui(automatic1111),я гайд нашел, немного помучился, но все работает и гораздо быстрее чем на моей 1650, из минусов долгий запуск, невозможность накачать много моделей(ограничение памяти гугл диска)
Оо здравствуйте, а если не сложно можете пожалуйста кинуть гайд как это делать через Гугл коллаб? Очень нужно, номинации не могу где объяснят, а то видеокарта на ноуте очень слабая
А куда копать, если объема памяти видеокарты не хватает? ) Или тут только искать более мощное решение свыше 8gb RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.20 GiB already allocated; 0 bytes free; 7.28 GiB reserved in total
@@MIOAlexey я скачал, но она же не в формате ckpt, да и структура файлов папок в ней не совсем как в моделях dreambooth (выдает ошибки при выборе в закладке dreambooth). Что с ней сделать и куда сохранить чтобы с ней работать локально?
Видел генерации людей, обученных с классом dog и они давали нормального человека. Нужен еще один эксперимент с фиксированным сидом чтобы понять влияние классов girl/woman/person
Было бы очень круто, если бы ты такой сделал. Класс должен влиять, потому что датасет изначальный сильно влияет (он, конечно, не чистый. Например, я заметил, что в версии 1.5 женщин генерирует сильно хуже, чем мужчин только потому, что у мужчин изначально датасет намного чище. Вот так вот. В 2.0 ещё не смотрел.)
Слишком много телодвижений. Но всё равно за видео лайк. Любопытно было узнать как это всё работает. Впрочем Может я бы его и не смотрел Если бы всегда работали другие более новые и простые гайды. Там ничего Не объясняют показывают как ну вот как не получается
Это не портрет, автор. Это отретушированное и раскрашенное фото из витрины фотоателье города Самарканда, помещённое туда в 1956году. Убери свой пафос и скажи честно " Я не умею рисовать и связался со всем этим чтобы хоть чуть😀-чуть выглядеть художником".
А вот и ноунейм обиженки подъехали. Каково это - осознавать, что ты никогда не сможешь нарисовать то, на что автору потребовался лишь мощный пека и пятнадцать секунд введения промтов?
@@alpwl3523 Похоже, вам никак не попасть в город Самарканд в 1956 год в то самое фотоателье, где побывал ваш приятель? Не расстраивайтесь - тот же вчерашний и позовчерашний день который вы тупо продолжаете воспринимать как завтрашний.
🔥 Канал о нейросетях: авторские обзоры, новости, мемы - t.me/alchemist_tm
🔥 Курс по Stable Diffusion - sponsr.ru/technomagix/54859/Navigaciya_pokursu_Stable_Diffusion
🔥 Чат поддержки - t.me/+EOhMG42mlywxNWMy
🔥 Поддержать автора - sponsr.ru/technomagix/
ua-cam.com/play/PLiNFDOo-cka29iSJb1IPd8gwn23AiBkJt.html
Дождались,что-ж пойду тестить. Попрошу за всех,как можно больше видео. Тема машинного обучения сейчас бежит семимильными шагами, так что не отставай ) спасибо за работу
++
Не успеваю за ходом ваших мыслей. Первый раз вижу такой интерфейс. Хорошо бы помедленнее. Хочу вникнуть и разобраться. Важно все: какая прога, какая закладка, какая кнопка. Общий зачет, лайк и подписка.
Огромное спасибо за детальный разбор этой темы! Пора тестить)
Пушка. Очень вовремя.
Бро, спасибо за видос полезный. Недавно окунулся в SD, радует, что много всяких настроек. Бум учиться )
Как и у некоторых других посетителей при включении Train и минуты- другой работы возникает сообщение Exception training model: 'No executable batch size found, reached zero.'. Нельзя бы в самых общих чертах дать ответ - в чем состоит проблема и как ее можно было бы решить
Спасибо за ролик, очень круто)
пожалуй, единственный, кто делает делает четкие туториалы по SD, с хорошим голосом и культурой речи
Спасибо ☺
Получилось по "туториалу" сделать?
Крутой канал, друг, без тебя хрен разберешься, пока все еще такое сырое
Спасибо за контент
Большое спасибо, невероятно полезно, много нового узнал без напрягов с переводом
EMA - это Exponential Moving Average, модель весов, в которой вес нового элемента (например изображения) больше весов предыдущих.
У меня выдает такую ошибку Exception training model: 'No executable batch size found, reached zero.'.
Ребята, у кого постоянные вылеты CUDA - это не видеокарты слабые, а софт не донастроили под себя.
Попробуйте поставьте в лаунчере такие параметры:
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6,max_split_size_mb:24
set COMMANDLINE_ARGS=--xformers --medvram --autolaunch
Train перестал вылетать. Спокойно учится. Думаю, что плагин Dreambooth тоже не будет особо возникать, потому что это и есть этот же Train, просто в другой обёртке.
Не помогло, спасибо)
как понять какую sb я использую?
я не поняла, где дообучать модель. где загружать картинки для обучения.
у меня есть картинки условного Пети. Куда грузить картинки с Петей чтобы дообучить модель генерировать фотки Пети?
А через train пытались делать?
а есть смысл сжимать по итогу ckpt? ведь места валом. зачем делать модель хуже? или это на другое влияет вес в два раза меньше обычной ckpt
При попытке обучить, ошибка
RuntimeError: No executable batch size found, reached zero.
Как я понял ошибка памяти. Но у меня 6Гб видеопамяти (GTX 1660), а в одном из предыдущих видео вы говорили про то что у вас всего 2Гб. Добавил все комманды для уменьшения нагрузки на память что и у вас, н овсё равно эта ошибка вылазит. Что ещё можно сделать? на реддит и гитхаб посмотрел, но ничего новго предложить не могутю В текущей версии галочки работать только через процессор не вижу
Как не пытался, после установки dreambooth не запускается, куча непонятных ошибок. А если его из папки extentions удалить, запускается нормально. В чем может быть проблема?
такая же проблема, если удалить папку dreambooth из папки extensions,то всё опять работает
Но как нормально dreambooth поставить не могу разобраться(
Что может означать Exception training model: 'No executable batch size found, reached zero? Почему не идёт создание модели??
Сейчас все опции и менюшки уже по другому! Что-то нет уже а что-то добавилось новое- не могу настроить....
Жму установку Dreambooth, появляется надпись Loading. Но Установка не завершается. При этом в папке extensions появляется Dreambooth. Но при перезапуске Stable Diffusion всё зависает на этапе Installing requirements for Web UI. Что делать?
у меня было подобное. Там в консоли перед обрывом установки строчки с предупреждениями и пути к папке и файлу были. Я почитал, что это типа мусор при установке/обновлении PIP (ХЗ что такое). В общем удалил я их и установка прошла. Правда обучение на 6 gb запустить всё равно не могу(((
у меня в настройках Dreambooth вообще нет use cpu only параметра. При том что всё самое свежее
Что такое модель? Я только начинаю изучать нейросети
А можно на мак ос такой же видос а то винда кака
Спасибо за видео. Можешь показать как в дифюжене замиксовать 2 картинки в одну. Типа котохлеб и ТД)
Вроде все по видео, а ловлю CUDA out of memory
6Гб видеопамяти и 32 оперативы. Делал настройку для видюх с малым количеством видеопамяти, но все равно. Отжирает 6Гб и падает сразу
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6,max_split_size_mb:24
set COMMANDLINE_ARGS=--xformers --medvram --autolaunch
Под моделью у меня еще Lora Model Custom Model Name Lora Weight Lora Text Weight
там то что делать? в версии на видео этого нет!
Где сервер с видюхой арендовать?) Чтобы цена была доступная
runpod.io?ref=27hxibcy
20 центов в час за видеокарту RTX 3090, 24ГБ vram
У меня перестает обучаться, появляется ползунок 0/7500 и пропадает
Есть пара вопросов:
Можно ли использовать майнинговые видеокарты, которые без видеовыходов? Они сейчас очень дешевые.
Можно ли увеличить детализацию сгенерированного варианта и его разрешение, скажем до 4000х4000 пикселей?
Об использовании майнинговых видюх со Stable Diffusion не слышал и не встречал обсуждения на форумах.
Увеличить детализацию 4000х4000 можно. В SD есть разные алгоритмы для масштабирования изображений. В качестве альтернативы есть мощная программа на ПК для масштабирования изображений Topaz gigapixel
Можно использовать, но в майнинговой видюхе меньше видеопамяти, тут надо хотя бы 16гб видео
Upscaling можно делать любой, но детали будут как на исходной картинке, для 800 пикселей вообще детальность отличная, куда больше то.
Чтобы предсказывать большие разрешения надо на них обучить, а это около 1млн$ стоит.
спасибо. но все же непонятно почему на 24 фотки вы используете 5200.... ведь сами говорили 100-200 шагов на фотку. а где-то сказали 100-150. у меня фотосессия из одной локации 20 шт. мне ставить 150х20? где-то на форумах читал что 165 хороший результат будет
Кроме шагов ещё важна скорость обучения. Скорость обучение оставьте по умолчанию. На 20 фотографий поставьте 2000-2500 шагов.
5200 шагов я использовал потому что обучал модель на трех концептах
@@TechnoMagix в коллабе хуже результат? по вашему гайду пока на коллабе делаю, там скорость не знаю где выставлять, но результат устраивает. только шаги тестирую. спасибо огромное. вот если бы еще сделали видос на колаб который использует версию 2.0-2.2 то был бы рад. ведь там модели лучше для тренировки. но почему-то automatic 1111 и SD UI выдают ошибку если использовать ckpt натренированный на версии 2.0 и выше. почему то только 1.5 стандартную хавает.
Ещё никто не написал код под 2.0. А в автоматике обязательно нужно рядом с чекпоинтом положить config.yaml, где config - надо заменить на такое же имя, как твой чекпоинт. Читай Вики у автоматика
можно то же самое, только в colab и не с оригинальной моделью stable diffusion 1.5, а форком (например dreamlike-photoreal) а то что-то ошибки выдает постоянно и интерфейс другим стал
Для обучения нужно 16Gb видеокарта, а если через процессор то будет рендерить будет неделю. В онлайн версии все обученные готовые модели весят 2 gb, хотя раньше весили по 6 gb и генерят совсем не то что нужно
а что значит "генерят не то что нужно"? из них часть "ума" убрали?
Он же тебе правильно объяснил. EMA это усреднённые веса чекпоинтов, которые ты задал. Иногда это даёт стабильности сетке в плане метрик.
Но это для долгих тренировок как метод регуляризации
Как бы я не старался 8Gb vram памяти не хватает. Выдаёт ошибку нехватки памяти. :с
Как-то даже больно осознавать, что твоя 2070 Super уже слабая карточка.
версии dreambooth уже видимо разные, интерфейс отличается, делаю вроде плюс минус по видео но на выходе бегемоты получаются даже по ключевому запросу - как бомж горошок в примере, не понимаю куда копать -(
а как создать нескольких людей на одной картинке?
Скажи, а что будет если картинки нет в модели, а ты задаешь промт по такой картинке? Он ищет её в интернете, создает модель и затем использует? Или как это работает?
У модели нет доступа к интернету. Какую-то картинку в любом случае сгенерирует. Нейросеть воспринимает промпт как набор токенов. Токен не равен слову. В одном слове может быть несколько токенов. Например, вы напишете несуществующее слово "atsucat". Нейросеть не знает такого слова, но видит в нем токен "cat" и еще несколько знакомых ей токенов и просто сгенерирует картинку с котом.
@@TechnoMagix понятно, а загруженная модель доступна только в твоей версии фаила или она делится со всеми участниками, что-то вроде объединенной базы данных? Я так понял, что нейросеть не может сразу из картинки подхватить и создать модель, ей нужно пройти стадию обучения. А вообще кто её обучает, там же нужно миллионы картинок, кто этим занимается?
@@John_Johnson746 Меня это тоже очень интересует
Спасибо за видео. Кто знает, подскажите пожалуйста, у меня карта GeForce 780m, но SD не видит её, и работает только за счёт процессора. Как это можно пофиксить?
Ну где же долгожданное про обучение стилям?)
Лежу овощем с температурой. Обучение стилям будет позже)
@@TechnoMagix Как ваше самочувствие? с новым годом вас
У меня вопрос: смотрю у всех ютуберов stable diffusion с тёмной темой и функционал несколько отличается от моего. Как мне сделать такую же тёмную тему и получить точно такой же функционал?
Если добавить текст "git pull" в батник для запуска, то программа сама будет обновляться. Так вы получить актуальный функционал.
Темная тема у меня установлена в самом браузере.
Как использовать облачные системы, вместо своего компа?
С криптой придётся повозиться. Об аренде облачных вычислений будет следующий ролик
По идее можно отечественные сервисы использовать, которые дают рабочий стол
@@TechnoMagix буду ждать с нетерпением
не могу зайти в тг чат
все таки гипернетворк проще и лучше, н е надо модель терять, или делать новую...
Гипернетворк дает меньшее сходство с человеком чем дримбуф
@@TechnoMagix ну тут пруфы нужны, споров вокруг данной темы много... А вот для меня курочить модели или создавать новые уже не варик, с гипернетворком, правда я слышал что через дримбуф можно делать лора модели...
нормально
Привет всем !!! Кто начинает осваивать нейросетях. Для меня это пока немного сложновато!!?Хотел обратиться с просьбой: возможно сделать "волшебное" появление человека (по фотографии) по пояс сидящего в кинотеатре на фоне хромакея. Длительность действия 3-5 секунд. Я монтирую фильм "Мой Иллюзион" и появление человека с использованием нейросети было бы гораздо смотрительнее. По сюжету человек из любительского фильма попадает в сегодняшнюю реальность.Фильм монтирую в Vegase. Буду рад любому ответу. Михаил
сделай видос как stable diffusion на гугл колабе запускать на webui(automatic1111),я гайд нашел, немного помучился, но все работает и гораздо быстрее чем на моей 1650, из минусов долгий запуск, невозможность накачать много моделей(ограничение памяти гугл диска)
Оо здравствуйте, а если не сложно можете пожалуйста кинуть гайд как это делать через Гугл коллаб? Очень нужно, номинации не могу где объяснят, а то видеокарта на ноуте очень слабая
@@leilagi1345 да гайдов на это в интернете полно, могу просто свой документ дать тогда
А куда копать, если объема памяти видеокарты не хватает? ) Или тут только искать более мощное решение свыше 8gb
RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.20 GiB already allocated; 0 bytes free; 7.28 GiB reserved in total
Обучи на Гугл колабе по первому видео автора по теме, а предсказывать можешь своей карточкой
@@MIOAlexey я скачал, но она же не в формате ckpt, да и структура файлов папок в ней не совсем как в моделях dreambooth (выдает ошибки при выборе в закладке dreambooth). Что с ней сделать и куда сохранить чтобы с ней работать локально?
Person как класс очень плохо работает, лучше делать man/woman
Видел генерации людей, обученных с классом dog и они давали нормального человека. Нужен еще один эксперимент с фиксированным сидом чтобы понять влияние классов girl/woman/person
Было бы очень круто, если бы ты такой сделал. Класс должен влиять, потому что датасет изначальный сильно влияет (он, конечно, не чистый. Например, я заметил, что в версии 1.5 женщин генерирует сильно хуже, чем мужчин только потому, что у мужчин изначально датасет намного чище. Вот так вот. В 2.0 ещё не смотрел.)
Слишком много телодвижений. Но всё равно за видео лайк. Любопытно было узнать как это всё работает. Впрочем Может я бы его и не смотрел Если бы всегда работали другие более новые и простые гайды. Там ничего Не объясняют показывают как ну вот как не получается
подари свой канал👉👈
Картинки выходят совсем неживые и с недоумением смотрю на рожи, простите. Похожи на зомби, перестарались, верните картинкам воплощение живого...
Это не портрет, автор. Это отретушированное и раскрашенное фото из витрины фотоателье города Самарканда, помещённое туда в 1956году. Убери свой пафос и скажи честно " Я не умею рисовать и связался со всем этим чтобы хоть чуть😀-чуть выглядеть художником".
А вот и ноунейм обиженки подъехали.
Каково это - осознавать, что ты никогда не сможешь нарисовать то, на что автору потребовался лишь мощный пека и пятнадцать секунд введения промтов?
@@alpwl3523 Похоже, вам никак не попасть в город Самарканд в 1956 год в то самое фотоателье, где побывал ваш приятель? Не расстраивайтесь - тот же вчерашний и позовчерашний день который вы тупо продолжаете воспринимать как завтрашний.
@@РОМАНЗАВЯЗКИН-з2е что ты несешь, какой Самарканд, какое ателье? Опять забыл таблетки от шизы принять?
Продолжайте комментировать. Мне нравится читать вашу чепуху 🤓
@@TechnoMagix а вам, автор, спасибо за подробный гайд :*