Мне в версии нейросети больше всего не хватило эмоций у персонажей, остальные моменты (немного дерганая картинка и тд) ещё можно игнорировать, но, на мой взгляд, конкретно в этой анимации были очень важны эмоции, чтобы передать историю верно (спасибо за видео, всегда очень интересно смотреть, на что способны нейросети сейчас)
А вообще, если изначально делать отдельно все - фоны, персонажей и прочее, обрабатывать на основе черновиков и потом собирать, то можно делать классные мульты. Нейросети это инструмент и пользоваться им надо грамотно)
Эмоции нейронка не передала. В оригинале девушка смотрит себе в тарелку с неким принебрижением. В нейронке - вообще без эмоциональный персонаж. Оригинал лучше, в нём чувствуется, что девушке тоскливо и скучно, она смотрит в тарелку а не куда-то там и взгляд такой: "опять эта еда...". Нейросеть эмоциональную часть вообще не проработала.
Это займет три бесконечности, но вообще можно сделать более плавно: покадрово прогонять генерацию, в img2img, а в controlnet в reference загонять предыдущие кадры. Можно делать это с низким денойзом, с каким-нибудь простым промптом, типа anime style, тогда можно просто запустить это все в batch и пойти попить чай (все три бесконечности). Я не спец, просто много экспериментировал.
А мне понравились оба варианта. Еще пара прикольных моментов. Шарик, мигающий у детеныша призрака. То есть цветочки, то нет. И Серый призрак рядом с четыреухим котом. Мигает то серый призрак, то серый котик. Все это играло на общую картину в целом. Очень атмосферно.
Классный эксперимент и возможности - но для меня нейронки это больше про источник идей. А ваша оригинальная работа всё равно лучше по многим аспектам. Классно что вы сказали о том что делали ее в фотошопе.
Причина мучений с нейросетью было то что она не видела всей картины целиком а отрисовывала каждый кадр заново. Я уверен есть такие нейронки которым можно скормить видео целиком, она его оценит и отрисует. А сейчас это выглядит так как будто мы ей даём маленькие кусочки фото, а потом пытаемся из него слепить целое.
КРУТЕЙШЕЕ ВИДЕО! Есть нюанс в том , что если кадры из нейронки, то их надо редактировать точечно. МАКСИМАЛЬНО. Я какое-то время работал 2D аниматором персонажей и пробовал ( в свободное время) прогонять кадры анимаций через... Количество кадров им увеличивать. Выяснилось, что некоторые анимации становились свежее. Некоторые... частично... Я понял, что некоторые части анимаций ( только персонажи) можно прогонять на расширение кадров ( и т.д.) и вставлять удачные моменты в своб анимацию, а полу-удачные - дорабатывать. Другими словами - нейросеть может стать помошником. Лично мне - порой сложно было сделать первый кадр, а потооом работа уже шла бы) И референсы тоже важны, например Арты персонажей, которых уже надо анимировать. Вы большая молодец. Я видел превью этого видео, а потом потерял - искал в пучинах Ютуба. Интересное видео, хочется видеть побольше такого. Буду следить за вашим каналом.
С самого детства я была окружена различными культурами. Я слушала музыку разных жанров, смотрела фильмы разных стран и читала книги разных авторов. Все это оказало большое влияние на мое мировоззрение и восприятие мира. Например, музыка научила меня чувствовать и понимать эмоции других людей. Фильмы научили меня сопереживать и проявлять эмпатию. Книги научили меня думать, анализировать и делать выводы. Кроме того, в школе я изучала историю искусства, мировую историю и иностранные языки, что помогло мне лучше понять культуру разных стран. Все это вместе повлияло на то, что я стала более толерантной, открытой и любознательной.
Кристина, не расстраивайтесь, самое главное идея! Сейчас есть программы которые достраивают интерполяцию пропущенных кадров.. даже с 15 кадров сами дорисуеют до 60.. сейчас не помню как называется, но есть!
Забавлялся я с Kandinski - та же фигня. Когда-то я видел книгу по психиатрии, там были иллюстрации с рисунками шизофреников. Их просили нарисовать, то что они видят во время приступов. Ребята, у меня есть для вас плохая новость: Нейросети серьёзно больны. В общем, я сделал вывод, что проще и быстрее научиться рисовать, чем добиться от нейросети требуемого результата. Однако, нейросети можно использовать, как помощь в генерации идей, образов и т.п.
Мне кажется, проблема в том, что нужно отделить кадры по фпс например начальные кадры можно делать 6-8 а под конец, нужно ускорить до 24 кадров придать динамики! И мне кажется еще не хватает звуков особенно, аудио кафе чтобы казалось, что там много посетителей!😂
Мне оригинал больше нравится, но с учетом того, что нейросеть вначале своего развития, результат вполне неплохой. Но нейросети пока еще есть к чему стремиться в плане анимации. Думаю, в будущем нам не придется так мучиться, и этот вопрос будет автоматизирован и упрощен.
Спасибо за видео! Интересный вышел эксперимент. Интрига что получится в итоге держала до конца. Соглашусь с вами, что уже склеенный ролик смотреть тяжело. Возможно кому-то заходит, но мне что-то мешает получать удовольствие от просмотра, все время хочется сказать оператору, чтобы стабилизировал камеру, получается эффект съемок на мобилку, который лично я не очень люблю. Но при этом, если бы шум в кадре чуть уменьшился это бы напоминало замечательные мультфильмы нарисованные от руки по типу "Моя любовь" А.Петрова. И в эмоцию кстати сетке тоже тяжеловато, перед трансформацией лицо героини стало испуганным. Хоть ваш первый анимационный мультфильм простой, но в нем есть какая-то ламповая приятность для глаза.
Для анимации роликов в начале видео используется дополнительный плагин для Stable Diffusion - Deforum, экономит кучу времени, без нужды разбивать видео на кадры и при правильной настройке можно добиться ооочень плавного и не менее качественного результата, НО тут уже всё от мощности компьютера зависит, при желании можно и частоту кадров искусственно повысить
Прикольно вышло, по идее нужно больше тегов писать, например для стола, чтобы он был чистым, без цветочков и прочего + указывать где конкретно на столе должна быть посуда и так со всем. Думаю через пару лет нейросети обучатся и всё будет проще.☺️👍
Глядя на один целый результат , основываясь на пробах и ошибках поставленной задачи . Для первочка в анимации это тяжкий труд ,одной так учится с нуля . (в раскадровке и ещё машину научить ,что от неё хотят ) . Реально здорово . 👍👍👍. К стати , по поводу ошибок ,это тоже коласальный урок . Уже знаешь что не так ," повторенье мать ученья " и на этих знаниях пропускаешь мимо ушей не нужные левые действия . Что в разы укорачивают заморочки по обработке материала . Сам недавно начал осваивать замену фото , тк там полно нюансов как вырезать фото не полчаса вытыкиваясь , а большими штрихами выделить , мелочь подчистить и всё в другой фон . А тут нейросеть сама ещё фоны и изображения обрабатывает . Хоть и тёмный лес но красиво !
7:55 а можно было бы по подробнее про методы и подходы в подборе тегов для генерации? Результат обработки, этоиконечно интересно, но основной принцип работы с нееросетями, это правильное скармливание ей своих мыслей в виде тегов и ползунков с рамками
Кристина, восторг и восхищение! Это же такой труд... Вы супер! Молодец, так держать!) Ваша работа и "работа" искусственного интелекта - это как говорится "небо и земля") Мне кажется за это время, пока вы его настраивали, подгоняли - вы еще три раза создали бы это творение с нуля)
Мне вариант нейронки больше нравится. Конкретно под этот сюжет такие немного психоделические картинки очень даже подходят и создают что-то типа эффекта зловещей долины :)
В целом можно избежать эффекта разного кадра если выбрать Seed и Control net как референс первого кадра. Но не идеально конечно. Думаю как только нейронки смогут без флика будет все по другому
6:31 вау. Я предугадал решение проблемы 😅 6:01 видимо, что бы это сделать правильно нужно разложить анимацию на слои и в место одного кадра сувать три с задником, персонажем и призраком. То есть в три раза работы, так еще и время на то что бы обратно совместить в анимацию
По поводу stable defusion мне кажется надо было уменьшать шум, он же denoising, для того чтобы нейросеть лучше поняла что к чему. К тому же необходимо использовать inpaint для того чтобы анимировать только те части изображения которые двигаются, а статику можно взять просто из первого удачного кадра, ощущение что при анимации где она просто сидит за столом это было использовано, но потом про это забыли. Может сделать еще кадров в stable video defusion, которая подходит для анимации статичных задников. Так же есть мысли про интерполяцию соседних кадров для уменьшения резкости переходов, но это я пока не пробовал. Плюс было бы неплохо еще и использовать что-то на подобии pico lab для движения. Увы пока не выйдет просто загрузить исходник и нажать кнопку "сделать красиво". Да, работа с нейросетями это не так просто.
Почему? Veo(Google), Sora (OpenAi)- пока не выпустили. Kling( Китайцы ) - уже есть. Github - Open Sora,MagicTime,... Ну а тут можно через колаб запустить. удивительно то что сейчас можно 3д делать и анимировать . Китайцы уже выпускают новые ИИ но они чуть-чуть хуже чем американские.
Я не аниматор от слова совсем, но я бы анимировал фон и персожей отдельно, чтобы минимизировать эффект дрибезжания. Фон всё равно по большей части статичный, либо изменяется только его масштаб
Прикольно 🎉 Это профессия будущего называется погонщик нейросетей. Это когда человек должен уметь объяснить нейросети что нужно сделать и какой результат получить на выходе 😊
Кристина, меня очень давно не было на твоём канале. Я помню, с каким восторгом смотрела твои первые видео. С того времени много воды утекло, я успела поступить в университет, хаха 😅Я очень рада, что ты продолжаешь делать контент! Творческих успехов тебе и всего наилучшего! Стоит, наверное, наверстать упущенное и посмотреть все те видео, которые я успела пропустить. Как оказалось, у меня всё это время была подписка на твой канал, но почему-то видео не появлялись в рекомендациях... До сегодняшнего дня! Спасибо за видео 💟
Если честно, я бы дребезжание заднего плана сократила бы в кадрах минимум вдвое и перевела бы в фейд или вовсе бы переделала задник в статичный. Тогда плановость и глубина результата бы возрасла
Спасибо за видео! Но на самом деле мощность нейронок задействована не полностью ) такой результат выходит не потому что СД не модет, а потому что не хочет:) чтобы он расматривал психовизуальную модель в цепи кадров, а не один, его надо на это настроить. Стейбл Дифьюжен может обрабатывать *серию* изображений используя контекст и сид избранной картинки. Для этого есть расширение Batch раздела img2img, ControlNet для управления контекстом силуэта и тд. Далее, самый важный тул - специальная нейронка EbSynth. Которая между опорными кадрами дорисовывает контекст-сохранные кадры анимации. Собственно для этого и создавался он, рисовать анимированное действо, в котором нет темпорального и имаджинарного шума из-за скачков денойза и CFG )
Могу порекомендовать расширение для фотошопа, которое подключаясь к твоему Stable Diffusion позволяет генерить отдельно взятые элементы. К примеру выделил зубик, пояснил в промте - зуб - тот его отгенерил, нарисовал локон волос, уточнил - локон - и тот прекрасно его генерит. То есть можно прорабатывать до мелочей изображения любых размеров.
Чтобы исправить звук в видео из неподготовленного помещения, убрать эхо от стен и шум, звуковую дорожку можно закинуть в Adobe Enhance Podcast AI. Звук станет как со студийного микрофона, даже уж слишком вылизанный. Чтобы добавить голосу обработанному AI жизни, нужно добавить немного фона. Для этого подмешать к AI-версии дорожки, старую необработанную, убавив громкость этой необработанной дорожки процентов до тридцати. И звук станет отличным! Пользуйтесь!
Наверное уже написали кучу коментов про то что во многих нейросетях можно писать ключи, типа "No hands", чтоб на видео в том примере где у монстра появляется рука, она как раз не появлялась бы. Так же же у каждой генерации есть что-то вроде семени, выраженого в числах, если его добавлять к каждой новой генерации то нейрсеть будет рисовать все в одном стиле.
Вот такие эксперименты! Как вам анимация от нейросети?
Во👍
Прикольно)❤
Супер ❤
Круто❤
Ну и намучились вы же с этой нейронкой😂❤
Мне не очень.
Всё равно это выглядит очень необычно❤
Да!
Согл 😄
Обычно
@@A_fox_with_a_cigarette ладно, это ваше мнение, не буду спорить ^^
@@Mikunia456ВААААЙЙ, никогда не видела настолько добрых людей в комментариях. 😍😍😍🥰🥰🥰 Счастья и здоровья тебе, солнышко♥♥♥♥♥♥♥♥
Ничего не знаю, но своеобразное мелькание картинки ,как раз для такой анимации и с таким сюжетом, прям хорошо подходит) Прикольно, но так муторно
Мне в версии нейросети больше всего не хватило эмоций у персонажей, остальные моменты (немного дерганая картинка и тд) ещё можно игнорировать, но, на мой взгляд, конкретно в этой анимации были очень важны эмоции, чтобы передать историю верно (спасибо за видео, всегда очень интересно смотреть, на что способны нейросети сейчас)
Жду реанимации этого мультика в новом стиле Кристины!!❤
Лайк чтобы Крис заметила)
Поддерживаю!
Думаю что она не умеет анимации делать, в одном из видео она говорила что не делала их уже давно, а у анимациях нужно дозера монтажа
@@Eimambouu ну так она же делала влпрос ответ, у неё так классно вышло, надеюсь что и с этим мультиком было бы классно
Пж заметь
Реанимация?
Вышло круто, особенно призраки в начяле и приближения к девочке когда она сидит за столом😎
А вообще, если изначально делать отдельно все - фоны, персонажей и прочее, обрабатывать на основе черновиков и потом собирать, то можно делать классные мульты. Нейросети это инструмент и пользоваться им надо грамотно)
Кстати, да. Хотелось бы глянуть на результаты в таким более фрагментарным подходом.
аж захотелось попробовать
Представляю сколько миллионов часов это займет)
@@chuchu5923 не говори ерунды
@@AAAndroid89 на самом деле это не мало времени уходит
Эмоции нейронка не передала. В оригинале девушка смотрит себе в тарелку с неким принебрижением. В нейронке - вообще без эмоциональный персонаж. Оригинал лучше, в нём чувствуется, что девушке тоскливо и скучно, она смотрит в тарелку а не куда-то там и взгляд такой: "опять эта еда...". Нейросеть эмоциональную часть вообще не проработала.
Хз, в оригинале большинство паразитов такими и были, максимально без эмоциональные
Это займет три бесконечности, но вообще можно сделать более плавно: покадрово прогонять генерацию, в img2img, а в controlnet в reference загонять предыдущие кадры.
Можно делать это с низким денойзом, с каким-нибудь простым промптом, типа anime style, тогда можно просто запустить это все в batch и пойти попить чай (все три бесконечности).
Я не спец, просто много экспериментировал.
Ты чё удалил все видео я твой подпишите !???!!
🤬🤬🤬🤬
А мне понравились оба варианта. Еще пара прикольных моментов. Шарик, мигающий у детеныша призрака. То есть цветочки, то нет. И Серый призрак рядом с четыреухим котом. Мигает то серый призрак, то серый котик. Все это играло на общую картину в целом. Очень атмосферно.
0:30 Вау,старая твоя анимация так классно выглядит,хоть такой простой,но прекрасен как твои анимации сейчас :)
Нейросети - это что-то невероятное, столько всего можно создать, узнать!
Всем приятного просмотра ❤️
Кристина: показывает финальную версию
Я: афигеть, это реально круто!
Также Кристина: ну и фигня
Хд
Классный эксперимент и возможности - но для меня нейронки это больше про источник идей. А ваша оригинальная работа всё равно лучше по многим аспектам. Классно что вы сказали о том что делали ее в фотошопе.
А я в восторге, и от оригинала и от задумки💜💜💜) Нейросеть тоже сделала прикольно) Видео безумно интересное)
Причина мучений с нейросетью было то что она не видела всей картины целиком а отрисовывала каждый кадр заново. Я уверен есть такие нейронки которым можно скормить видео целиком, она его оценит и отрисует. А сейчас это выглядит так как будто мы ей даём маленькие кусочки фото, а потом пытаемся из него слепить целое.
КРУТЕЙШЕЕ ВИДЕО!
Есть нюанс в том , что если кадры из нейронки, то их надо редактировать точечно. МАКСИМАЛЬНО. Я какое-то время работал 2D аниматором персонажей и пробовал ( в свободное время) прогонять кадры анимаций через... Количество кадров им увеличивать. Выяснилось, что некоторые анимации становились свежее. Некоторые... частично...
Я понял, что некоторые части анимаций ( только персонажи) можно прогонять на расширение кадров ( и т.д.) и вставлять удачные моменты в своб анимацию, а полу-удачные - дорабатывать.
Другими словами - нейросеть может стать помошником.
Лично мне - порой сложно было сделать первый кадр, а потооом работа уже шла бы) И референсы тоже важны, например Арты персонажей, которых уже надо анимировать.
Вы большая молодец. Я видел превью этого видео, а потом потерял - искал в пучинах Ютуба.
Интересное видео, хочется видеть побольше такого. Буду следить за вашим каналом.
Всем приятного просмотра❤
Я тоже очень люблю творчество хаяо миадзаки!
и да, всем приятного просмотра!
Кристина, я рада что ты не забываешь про нас и снимаешь видео для нас! Вы молодец❤
С самого детства я была окружена различными культурами. Я слушала музыку разных жанров, смотрела фильмы разных стран и читала книги разных авторов. Все это оказало большое влияние на мое мировоззрение и восприятие мира.
Например, музыка научила меня чувствовать и понимать эмоции других людей. Фильмы научили меня сопереживать и проявлять эмпатию. Книги научили меня думать, анализировать и делать выводы.
Кроме того, в школе я изучала историю искусства, мировую историю и иностранные языки, что помогло мне лучше понять культуру разных стран.
Все это вместе повлияло на то, что я стала более толерантной, открытой и любознательной.
Я конечно рад за тебя, а информация касающаяся видео будет?
Шок! Художники отнимают работу у нейросети!
Кристина для следуещего артабсурда из крана текут две сестры горячая и холодная вода .Залайкайте пж
«Она не видит призраков»😂
Всё нормально, я тоже их не вижу😅
Ура новое видео, всем приятного просмотра!
Мне очень нравится анимация Кристины, а нейросеть не понимает передать чувств и эмоций и не может их передать😅
Интересная тема ❤ 0:19
Кристина, не расстраивайтесь, самое главное идея! Сейчас есть программы которые достраивают интерполяцию пропущенных кадров.. даже с 15 кадров сами дорисуеют до 60.. сейчас не помню как называется, но есть!
Забавлялся я с Kandinski - та же фигня. Когда-то я видел книгу по психиатрии, там были иллюстрации с рисунками шизофреников. Их просили нарисовать, то что они видят во время приступов. Ребята, у меня есть для вас плохая новость: Нейросети серьёзно больны. В общем, я сделал вывод, что проще и быстрее научиться рисовать, чем добиться от нейросети требуемого результата. Однако, нейросети можно использовать, как помощь в генерации идей, образов и т.п.
Мне кажется, проблема в том, что нужно отделить кадры по фпс например начальные кадры можно делать 6-8 а под конец, нужно ускорить до 24 кадров придать динамики! И мне кажется еще не хватает звуков особенно, аудио кафе чтобы казалось, что там много посетителей!😂
Мне оригинал больше нравится, но с учетом того, что нейросеть вначале своего развития, результат вполне неплохой. Но нейросети пока еще есть к чему стремиться в плане анимации. Думаю, в будущем нам не придется так мучиться, и этот вопрос будет автоматизирован и упрощен.
Необычно. Но именно твоя старая версия мне безумно нравится, она какая-то невинно-наивно-душевная)
Круто получилось! А когда будет арт абсурд?
3:26 реклама закончилась (это для тех, кому лень её смотреть и проматывать)
😊❤🎉 Дикий восторг и восхищение. Вы укротительница нейросети.
Спасибо за видео! Интересный вышел эксперимент. Интрига что получится в итоге держала до конца. Соглашусь с вами, что уже склеенный ролик смотреть тяжело. Возможно кому-то заходит, но мне что-то мешает получать удовольствие от просмотра, все время хочется сказать оператору, чтобы стабилизировал камеру, получается эффект съемок на мобилку, который лично я не очень люблю. Но при этом, если бы шум в кадре чуть уменьшился это бы напоминало замечательные мультфильмы нарисованные от руки по типу "Моя любовь" А.Петрова. И в эмоцию кстати сетке тоже тяжеловато, перед трансформацией лицо героини стало испуганным. Хоть ваш первый анимационный мультфильм простой, но в нем есть какая-то ламповая приятность для глаза.
Сколько же тут кропотливой работы! Супер)
Для анимации роликов в начале видео используется дополнительный плагин для Stable Diffusion - Deforum, экономит кучу времени, без нужды разбивать видео на кадры и при правильной настройке можно добиться ооочень плавного и не менее качественного результата, НО тут уже всё от мощности компьютера зависит, при желании можно и частоту кадров искусственно повысить
10:07 нейросеть прекрасно исполнила этот момент!
1:16 ааха, вот это комбо - два моих любимых аниме в одном мультике. Очень клёвый сюжет!
Прикольно вышло, по идее нужно больше тегов писать, например для стола, чтобы он был чистым, без цветочков и прочего + указывать где конкретно на столе должна быть посуда и так со всем. Думаю через пару лет нейросети обучатся и всё будет проще.☺️👍
Отличное видео, за исключением звука который бьёт по ушам своим эхом. А вот в рекламной интеграции звук получше
А мне нравится нейросеть, особенно в видео, выглядит прикольно ;)
Привет 😊 какую приложению вы используете для этого АИ?
Так она сказала, стейбл дифьюжн
Глядя на один целый результат , основываясь на пробах и ошибках поставленной задачи . Для первочка в анимации это тяжкий труд ,одной так учится с нуля . (в раскадровке и ещё машину научить ,что от неё хотят ) . Реально здорово . 👍👍👍.
К стати , по поводу ошибок ,это тоже коласальный урок . Уже знаешь что не так ," повторенье мать ученья " и на этих знаниях пропускаешь мимо ушей не нужные левые действия . Что в разы укорачивают заморочки по обработке материала . Сам недавно начал осваивать замену фото , тк там полно нюансов как вырезать фото не полчаса вытыкиваясь , а большими штрихами выделить , мелочь подчистить и всё в другой фон . А тут нейросеть сама ещё фоны и изображения обрабатывает . Хоть и тёмный лес но красиво !
Ну, конечно Ваш мультик гораздо круче!
очен хорошо ролучилось но я хотел бы увидеть ремейк без нейросети в тваём стиле
7:55 а можно было бы по подробнее про методы и подходы в подборе тегов для генерации?
Результат обработки, этоиконечно интересно, но основной принцип работы с нееросетями, это правильное скармливание ей своих мыслей в виде тегов и ползунков с рамками
Ура еще одна серия!!!❤❤❤❤❤
Ура! Как классно получается)))
Я просто обожаю твои видео,очень позитивные, и Вы сама очень приятная и весёлая girl. Желаю много творческих успехов ❤❤❤
Кристина, восторг и восхищение! Это же такой труд... Вы супер! Молодец, так держать!) Ваша работа и "работа" искусственного интелекта - это как говорится "небо и земля") Мне кажется за это время, пока вы его настраивали, подгоняли - вы еще три раза создали бы это творение с нуля)
Требую чтобы повторили этот эксперимент, но уже разобравшись в теме, используйте аддоны и скрипты, кароче, сейчас можно сделать лучше чем на видео
одобряю
Когда ты на 10:30 говоришь "Ну такое" я именно это и хотел написать, но в целом интересно, успехов в творчестве !
Всем приятного просмотра
Не сдавайтесь довольно неплохо у вас всё получится
Ну а так результат немного потрясающий
Хв, бедная Кристюшка😬😅 (анимация бомба🤤🤯)
Все талантливые девушки - рыжеволосые =)😍😍
Понравился ваш Канал) Кристина талантлива и прекрасна 😍
Так круто 😂😂😂рамен всегда вкусно выглядит
Мне вариант нейронки больше нравится. Конкретно под этот сюжет такие немного психоделические картинки очень даже подходят и создают что-то типа эффекта зловещей долины :)
Теперь ждём когда ты сама перерисуешь свою анимацию
В целом можно избежать эффекта разного кадра если выбрать Seed и Control net как референс первого кадра. Но не идеально конечно. Думаю как только нейронки смогут без флика будет все по другому
1:19 Я думаю это любовь с первого взгляда
Вау, анимация ооочень красивая! Но ты красивие)
Как всегда офигенное видео❤❤❤❤
6:31 вау. Я предугадал решение проблемы 😅
6:01 видимо, что бы это сделать правильно нужно разложить анимацию на слои и в место одного кадра сувать три с задником, персонажем и призраком. То есть в три раза работы, так еще и время на то что бы обратно совместить в анимацию
По поводу stable defusion мне кажется надо было уменьшать шум, он же denoising, для того чтобы нейросеть лучше поняла что к чему. К тому же необходимо использовать inpaint для того чтобы анимировать только те части изображения которые двигаются, а статику можно взять просто из первого удачного кадра, ощущение что при анимации где она просто сидит за столом это было использовано, но потом про это забыли. Может сделать еще кадров в stable video defusion, которая подходит для анимации статичных задников. Так же есть мысли про интерполяцию соседних кадров для уменьшения резкости переходов, но это я пока не пробовал. Плюс было бы неплохо еще и использовать что-то на подобии pico lab для движения. Увы пока не выйдет просто загрузить исходник и нажать кнопку "сделать красиво". Да, работа с нейросетями это не так просто.
Почему? Veo(Google), Sora (OpenAi)- пока не выпустили. Kling( Китайцы ) - уже есть. Github - Open Sora,MagicTime,... Ну а тут можно через колаб запустить. удивительно то что сейчас можно 3д делать и анимировать . Китайцы уже выпускают новые ИИ но они чуть-чуть хуже чем американские.
очень нравится)) на самом деле, было бы интересно посмотреть как ты бы сделала это сейчас, в своем стиле)
Чтобы картинка была стабильнее и персонаж не менялся, советую изучить Контрлнет. Очень полезная штука.
Я не аниматор от слова совсем, но я бы анимировал фон и персожей отдельно, чтобы минимизировать эффект дрибезжания. Фон всё равно по большей части статичный, либо изменяется только его масштаб
10:11 Перри утконос
Ты самая лучшая ❤️❤️❤️❤️❤️❤️❤️❤️❤️❤️❤️
А если "превращения Винкс" обработать с помощью нейросети?
Прикольно 🎉
Это профессия будущего называется погонщик нейросетей. Это когда человек должен уметь объяснить нейросети что нужно сделать и какой результат получить на выходе 😊
Господи, я была маленькой, когда видела эту анимацию и подписалась на вас... никогда не думала, что в 21 год я снова окажусь тут :D очень приятно!
мне ужасно нравится ваша оригинальная анимация🖤, а также ваша работа с нейросетью восхищает
Обожаю нейросети!!❤❤
а как насчет разделить картинку на слои, убрать на них все лишнее, прогнать в таком варианте через нейро, а потом совместить обратноЕ?)
Извините,а в каком предложении вы рисуете анимации?😅
В Крите есть например.
Кристина, меня очень давно не было на твоём канале. Я помню, с каким восторгом смотрела твои первые видео. С того времени много воды утекло, я успела поступить в университет, хаха 😅Я очень рада, что ты продолжаешь делать контент! Творческих успехов тебе и всего наилучшего! Стоит, наверное, наверстать упущенное и посмотреть все те видео, которые я успела пропустить. Как оказалось, у меня всё это время была подписка на твой канал, но почему-то видео не появлялись в рекомендациях... До сегодняшнего дня! Спасибо за видео 💟
Кристина, а можете пожалуйста дать ссылку где вы скачали нейросеть пожалуйста🙏🥺🙏🥺🙏🥺
Не знаю как вам, но мне больше понравилась вставка в начале видео, наложение на реального человека, мне кажется тоже очень интересным.
Сколько труда... Ваша анимация плавнее и удобнее смотреть. Кадры из нейросети красивые, но годятся больше для комиксов.
6:00 Ну логично что она их не видит это же призраки🤣 Хотя тесла если мимо кладбища проедет то на кладбище увидит невидимых пешеходов😁
Можно привет от любимого блогера?)
Если честно, я бы дребезжание заднего плана сократила бы в кадрах минимум вдвое и перевела бы в фейд или вовсе бы переделала задник в статичный. Тогда плановость и глубина результата бы возрасла
Спасибо за видео! Но на самом деле мощность нейронок задействована не полностью ) такой результат выходит не потому что СД не модет, а потому что не хочет:) чтобы он расматривал психовизуальную модель в цепи кадров, а не один, его надо на это настроить. Стейбл Дифьюжен может обрабатывать *серию* изображений используя контекст и сид избранной картинки. Для этого есть расширение Batch раздела img2img, ControlNet для управления контекстом силуэта и тд. Далее, самый важный тул - специальная нейронка EbSynth. Которая между опорными кадрами дорисовывает контекст-сохранные кадры анимации. Собственно для этого и создавался он, рисовать анимированное действо, в котором нет темпорального и имаджинарного шума из-за скачков денойза и CFG )
Ну-ку ну-ка...
Могу порекомендовать расширение для фотошопа, которое подключаясь к твоему Stable Diffusion позволяет генерить отдельно взятые элементы. К примеру выделил зубик, пояснил в промте - зуб - тот его отгенерил, нарисовал локон волос, уточнил - локон - и тот прекрасно его генерит. То есть можно прорабатывать до мелочей изображения любых размеров.
А что за приложение было на телефоне? (Нейросеть)
10:15 лицо монстров отдельный вид искусства смеялась я долго
Старая анимация такая простая,но тоже очень красивая❤
Чтобы исправить звук в видео из неподготовленного помещения, убрать эхо от стен и шум, звуковую дорожку можно закинуть в Adobe Enhance Podcast AI. Звук станет как со студийного микрофона, даже уж слишком вылизанный. Чтобы добавить голосу обработанному AI жизни, нужно добавить немного фона. Для этого подмешать к AI-версии дорожки, старую необработанную, убавив громкость этой необработанной дорожки процентов до тридцати. И звук станет отличным! Пользуйтесь!
Вот это реально заслуживает лайка и подписку очень много
Автор, кстати, смогла бы сделать карьеру и как актриса / диктор озвучки / рекламы. Голос интересный и поставлен.
очень круто! кристи так старается :>
1:09 ООО моё любимое аниме даже тут
Можно каждый готовый кадр из нейронки редактировать.
Это сразу облегчает работу художнику.
Нейронная Кристина ваще огонь 🔥
Наверное уже написали кучу коментов про то что во многих нейросетях можно писать ключи, типа "No hands", чтоб на видео в том примере где у монстра появляется рука, она как раз не появлялась бы.
Так же же у каждой генерации есть что-то вроде семени, выраженого в числах, если его добавлять к каждой новой генерации то нейрсеть будет рисовать все в одном стиле.
Кристина вы помните ты выпускала рубрику draw this in you'r stael сделайте пожалуйста ещё😢 крутое видео❤