Подскажите в какой нейросети можно именно редактировать СОБСТВЕННЫЕ футажи с камеры? Поясню: допустим съемка музыкального клипа. Есть группа/артист снятые на циклораме или допустим в локации какой-то. Мне хочется поместить их в какой-то сеттинг. Где это можно сделать? Видела такие примеры в соре, но я так понимаю это недоступно пока
По сути Вы хотите перенести людей отделив от фона. Совет дать не видя материал сложно + я не вижу референс. Я делал так - отделял autoroto (прога отделяет людей на видео от фона) - далее в After Effects кидаете окружение установив камеру и создав локацию 3D там - после это все можно отправить на стилизацию. По стилизациям есть Stable Defusion warpfusion и движки на базе SD - сервисы тестирую и таким образом после стилизации возвращаете актеров без стилизации и можно получить достойный результат.
02:41 "вы просто рисуете скетч и отправляете в программу..." И в этот же момент: - на верхнем видео дома на заднем плане меняются просто на глазах. - на среднем то же самое, ещё успевает фонарный столб появиться слева в кадре. - на нижнем видео видим как машина просто растворяется в воздухе!!! 03:06 смотрим на задний план и любуемся. Всё супер! Успехов!
Так ясно же что нейросеть. Генеренки всегда видно косяки если всматриваться. А если скрыть косяки и поработать над каждым кадром - то обычный зритель не заметит
Кароче к производству еще года 4. Это пока нагенерь сценарий, отредактируй, обучись присать промпты, 2 секунды 1 сцена, жди генирацию, дальше на изотоп в апскейл... Что бы на выходе получилась доделаная шляпа, я за это время сниму в студии 15 шортсов, покрашу, через РР вырежу все паузы, скачаю картинки с гугла и накину через капкат переходы на все это и пресеты и будет продуктивней х25
Ну чтоб миниклипы производить - наверно 5 лет ещё. Но в целом может "повезти" с нагенеринными видео и из 20-30 можно сложить 20-100 секунд необычного видео. Для рекламок, примеров работ и блогинга уже достаточно. Для качественного видео и фильмов - это ещё очень конечно сыровато.
Да будет жизнь прежней. Теперешнего качества хватает только для спама - как в картинках, так и в видео. Приближение к "production level" качеству может просто проиграть в цене по причине больших энергозатрат и цены оборудования. Ведь еще и генерация с первого раза редко удачная. Снять видос на камеру точно дешевле, чем сделать качественный рендер этого же места - это база (потому что рендер в реальном мире "бесплатный"). Отталкиваясь от этого можно спрогнозировать, что генерация видосов в лучшем случае потеснит стоки (может сбить им цену, уменьшить маржу). Но она точно их не переиграет по причине фундаментальной дешевизны сьемок на камеру.
Да верно. Я вижу что поток контента льётся уже из этой нейронка на ютуб. Монетизация даже не так важна, многие каналы продают свои услуги и это просто доп. Инструмент привлечения трафика. А фантазия для генераций безгранична
@@timd7815 Еще как отличишь, постоянные ляпы с пространством, проблемы с пальцами, симметрией. + выкладывают удачные варианты, а сколько брака? Чтобы пропали ляпы, нужен artificial general intelligence, у которого должно быть концептуальное понимание ЧТО он генерирует. Вопрос его достижимости с современными подходами (натренировать с нуля за разумное время) - открытый.
Фигня. Любой классный спец всегда отличить настоящее видео от видео , созданное ИИ. Фото, может быть потому, что там нет движения, и "отталкиваться" в анализе либо вообще не от чего, либо "точек" анализа намного меньше. В видео классный спец ВСЕГДА увидит "косяки" хоть от SORA, хоть от HAIPER... Зрение человека, как и камера "видят" трехмерное изображение. ИИ рисует "в плоскости" экрана...Пример тому : Крокус...
Всё было бы хорошо, будь возможность у этой и подобных ей нейронок делать видео длительностью более 3-х секунд, по сути 3 секунды это не видео, это анимация, прикольно конечно, НО... Ждём sor'у или тех кто даст более длительные именно видео делать
@@AIDesignWorld33 Сид - это шум. Нейронка пытается максимально стилизоваться под определённый кадр, НО на начальных и бесплатных настройках это почти не работает. Нужен обычно PRO аккуант и в нейронках с фотографиями и в видео нейронках.
Расскажи пожалуйста, как избавиться от водяного знака топаза, который не маленький в углу, а почти на весь экран по центру? Или у тебя версия топаза может другая, или все же платная?
Дорогие Земляне, продумайте вариант выключения общего рубильника, создайте подушку безопасности! Иначе вы можете оказаться вновь с палкой - копалкой в руках. ЛЕГ.
Уже умерли похоже. Я тестирую нейросеть которая берет скрин с шатера например и делает креативный апскейл - на выходе стоковая картинка. Расскажу об этом скоро в след видео. Готовлю материал и тестирую
@@AIDesignWorld33 лучше бы ваши AI могли быстро повышать качество видео а не за 2 часа ролик из HD до 2K а мне их надо 800 штук по 50 минут так прогнать этож целая жизнь это каждый ролик по 2.5 часа будет прорабатываться
Может быть я что-то не докрутил в настройках, но у меня HAIPER генерирует видео на 2 секунды. Да, картинка супер, но это видео на 2 секунды. Таже самая Pika генерирует видео на 3-4 секунды. Хрен не слаще редьки. Для видео продакшена оба варианта неприемлемы, потому что замучаешься из таких кусочков что-то создавать.
Спасибо. Это действительно нечто многообещающее, движения выдает весьма интересные и непредсказуемые, но всё-таки продукт явно сырой, без доводки в AE никуда. При этом они уже вводят платную подписку, что смешно при 1%: удачных рендерингов. Видимо хотят успеть до выхода Sora "в народ".
Ютуб не будет давать монетизацию на нейро видео. Если поставить два вертикальных светильника по бокам, то они не будут давать блик кольцом в очках вещателя.
Да все верно. Тут использовал кольцо, а его спереди за компом на стенке можно было разместить только в 1м месте. Тут нужно экспериментировать и наловчится. То что я уже пару месяцев делаю
@@highlandsdweller нужны правильные показатели. CRI у источника света ( диодов) За 500р ничего хорошего не получится. Мерцать все будет и цвет не живой
Я болел тогда и очки были нужны. А когда ставишь оборудование в 23.00 чтобы записать может все пойти одним местом. Я рад что так получилось. Но попробую что то сделать . Например снять очки
Это только начало. Сейчас все те, кто успеет нажиться на нейросетках наживутся, а далее все владельцы нейросеток выставят платный план, те кто остались в нищете безысходно идут на заводы работать
С апскейлером Топаз есть одно весомое НО. Подписка стоит 300 баксов🤡 Не проще ли уж тогда делать анимацию в Runway, который сразу генерит в норм разрешении, и подписка на который стоит В ДЕСЯТЬ РАЗ дешевле?
Я вот слышал что в 2024 году ютуб собирается отменить монетизацию за использование нейросетей и смотрю блогеры начали активную рекламу этих продуктов. Что это может значить?
Не знаю как там у вас, а у меня в этом хайпере генерация посредственного качества, оживляет картинки тоже через раз через задницу, ну а времени на каждый запрос уходит до хрена ожиданий
2 секунды?! Это хуже всего. Может по сиду можно что-то собрать из пару десятков вариантов. Генерацию по картинке сравнил с тем, какие результаты имел в Пика Лабс. Пика быстрее и что-то можно с нее получить. С хайпера при том же десятке генераций желаемого не собрать. Если смогут повысить длительность создаваемого видео, то есть смысл, но думаю, что нет. Выйдет Сора или кто-то быстрее подсуетится. Пока лучшим из картинка-в-видео для меня Пика.
Задолбали эти блогеры! Путают понятия видео и анимация!!! мне нужно видео! а не ваша анимация! когда вы уже научитесь правильно писать название ролика... Насчет Миджорни - она не дает реалистичной картинки поэтому я отказался от нее в пользу других нейросеток которые намного круче! а если вы зациклились только на Миджорни то вы никогда не найдете ничего лучшего! Удачи...
Жаль, что не показал, как этим пользоваться. Потыкался, потыкался. Генерит буквально две секунды из изображения. Как сделать такой ролик с длинным видео-рядом, как у тебя на превьюхе с БМВ так и не понял. Вместо рассказывания, лучше бы показывания.
Нет это совсем не то я спец по AE если что:) DOF или целые плагины с DOF анимацией это и рядом не стоит. Отражения на асфальте движутся, фара становится живой, камера движется вокруг. Да там примеров море крутых
Фигня. Любой классный спец всегда отличить настоящее видео от видео , созданное ИИ. Фото, может быть потому, что там нет движения, и "отталкиваться" в анализе либо вообще не от чего, либо "точек" анализа намного меньше. В видео классный спец ВСЕГДА увидит "косяки" хоть от SORA, хоть от HAIPER... Зрение человека, как и камера "видят" трехмерное изображение. ИИ рисует "в плоскости" экрана...Пример тому : Крокус...
Типа крокус что? Нейронка? Дело в том что я монтирую часто на высокой динамике 2 секунды и смена и задача донести образ. Поэтому эта задача закрывается этим сервисом . Готовлю видео о создании мультика
@@AIDesignWorld33 рад, что порадовал ))) Ну а серьезно... ну навалено все, как то в кучу. Без обид, это всего лишь мнение одного не совсем продвинутого.
Найди правила почитай. Там пишут про повторяющийся контент или который сделан автоматизирован. ИИ уже на ютубе - очнись. Каждый заголовок , картинка, описание, heygen, липсинг. К тому же не просто генерить а делать это умно
@@IRKUTSK88 так я не призываю, как раз из видео в видео об этом говорю. Что не так перспективно. Если снимать себя + ИИ то будет монета. Любой канал должен быть с лицом считаю.
🎉 благодарю за очень интересный видос, информацию.
Супер 🔥
Благодарю за просмотр
Спасибо за обзор! То что надо!
Толковый рассказ - доходчивое изложение! Дальнейших успехов автору!
Благодарочка )
Подскажите в какой нейросети можно именно редактировать СОБСТВЕННЫЕ футажи с камеры? Поясню: допустим съемка музыкального клипа. Есть группа/артист снятые на циклораме или допустим в локации какой-то. Мне хочется поместить их в какой-то сеттинг. Где это можно сделать? Видела такие примеры в соре, но я так понимаю это недоступно пока
По сути Вы хотите перенести людей отделив от фона. Совет дать не видя материал сложно + я не вижу референс. Я делал так - отделял autoroto (прога отделяет людей на видео от фона) - далее в After Effects кидаете окружение установив камеру и создав локацию 3D там - после это все можно отправить на стилизацию. По стилизациям есть Stable Defusion warpfusion и движки на базе SD - сервисы тестирую и таким образом после стилизации возвращаете актеров без стилизации и можно получить достойный результат.
Лучшая нейросеть, креативлю только в ней❤❤❤❤
Бро я тоже так считаю! А тестировал ту что через дискорд генерит? Один парень её считает лучшей.
@@AIDesignWorld33 Пока лучше Хайпера ниче не нашла)))
02:41 "вы просто рисуете скетч и отправляете в программу..."
И в этот же момент:
- на верхнем видео дома на заднем плане меняются просто на глазах.
- на среднем то же самое, ещё успевает фонарный столб появиться слева в кадре.
- на нижнем видео видим как машина просто растворяется в воздухе!!!
03:06 смотрим на задний план и любуемся.
Всё супер! Успехов!
Так ясно же что нейросеть. Генеренки всегда видно косяки если всматриваться. А если скрыть косяки и поработать над каждым кадром - то обычный зритель не заметит
@@AIDesignWorld33 работай
Забавно то что всë что мы делали в 90е и нулевые через фотожопы и флэш теперь достаточно одного клика! 😂😂😂
Спасибо! Было очень интересно!
Благодарочка )
@@AIDesignWorld33МОЖНО ЛИ СЕЙЧАС СКАЧАТЬ SORA??? И КАК ЭТО СДЕЛАТЬ ЧЕРЕЗ ИХ САЙТ НЕТУ КАК ПОСЛЕ КНОПКИ "СКАЧАТЬ" ПЕРЕЗАПУСКАЕТ САЙТа
Спасибо за обзор🙂
Кароче к производству еще года 4. Это пока нагенерь сценарий, отредактируй, обучись присать промпты, 2 секунды 1 сцена, жди генирацию, дальше на изотоп в апскейл... Что бы на выходе получилась доделаная шляпа, я за это время сниму в студии 15 шортсов, покрашу, через РР вырежу все паузы, скачаю картинки с гугла и накину через капкат переходы на все это и пресеты и будет продуктивней х25
Это разные типы контента. Вы не снимите 3d вращающееся сердце - побежите покупать футаж, который я сгенерировал и обработал. Об этом мой новый ролик
Ну чтоб миниклипы производить - наверно 5 лет ещё. Но в целом может "повезти" с нагенеринными видео и из 20-30 можно сложить 20-100 секунд необычного видео. Для рекламок, примеров работ и блогинга уже достаточно. Для качественного видео и фильмов - это ещё очень конечно сыровато.
Супер! Спасибо за обзор и удачи в продвижении канала!
Благодарю
@@AIDesignWorld33МОЖНО ЛИ СЕЙЧАС СКАЧАТЬ SORA??? И КАК ЭТО СДЕЛАТЬ ЧЕРЕЗ ИХ САЙТ НЕТУ КАК ПОСЛЕ КНОПКИ "СКАЧАТЬ" ПЕРЕЗАПУСКАЕТ САЙТ
Очень круто!
Новая нейросеть lumalabs ai вот что круто. Заходите в телеграмм посмотрите
Подскажите конфиг вашего компа, так понимаю в топазе нужно хороший проц и видюха
Точно попробую найти. Rizen 128 RAM И видео карта invidia A5000 там где 48гб оперативы. Может видео запилю о том как собирал комп
Спасибо. Но свет от лампы в очках - надо что-то с этим делать)
😂
Спасибо за видео, вы могли бы разобрать нейросеть Shaffll? 🙏🙏🙏Не могу нигде найти как с ним работать.😢
Да я зашел - увидел. Она делает стилизации похоже по типу Comfi UI
Да будет жизнь прежней. Теперешнего качества хватает только для спама - как в картинках, так и в видео. Приближение к "production level" качеству может просто проиграть в цене по причине больших энергозатрат и цены оборудования. Ведь еще и генерация с первого раза редко удачная. Снять видос на камеру точно дешевле, чем сделать качественный рендер этого же места - это база (потому что рендер в реальном мире "бесплатный"). Отталкиваясь от этого можно спрогнозировать, что генерация видосов в лучшем случае потеснит стоки (может сбить им цену, уменьшить маржу). Но она точно их не переиграет по причине фундаментальной дешевизны сьемок на камеру.
Да верно. Я вижу что поток контента льётся уже из этой нейронка на ютуб. Монетизация даже не так важна, многие каналы продают свои услуги и это просто доп. Инструмент привлечения трафика. А фантазия для генераций безгранична
Год назад то же самое говорили про генерацию картинок. Сегодня ты не отличишь стоковую фотографию от про фотографа и от ии.
@@timd7815 Еще как отличишь, постоянные ляпы с пространством, проблемы с пальцами, симметрией. + выкладывают удачные варианты, а сколько брака? Чтобы пропали ляпы, нужен artificial general intelligence, у которого должно быть концептуальное понимание ЧТО он генерирует. Вопрос его достижимости с современными подходами (натренировать с нуля за разумное время) - открытый.
Фигня. Любой классный спец всегда отличить настоящее видео от видео , созданное ИИ. Фото, может быть потому, что там нет движения, и "отталкиваться" в анализе либо вообще не от чего, либо "точек" анализа намного меньше. В видео классный спец ВСЕГДА увидит "косяки" хоть от SORA, хоть от HAIPER... Зрение человека, как и камера "видят" трехмерное изображение. ИИ рисует "в плоскости" экрана...Пример тому : Крокус...
Согласен но все развивается. Посмотрим что будет
Спасибо! Полезно
Всё было бы хорошо, будь возможность у этой и подобных ей нейронок делать видео длительностью более 3-х секунд, по сути 3 секунды это не видео, это анимация, прикольно конечно, НО... Ждём sor'у или тех кто даст более длительные именно видео делать
По сути сейчас клиповый динамичный монтаж и 2-3 секунды нужна смена кадра
@@AIDesignWorld33 Ну не настолько сейчас клиповый монтаж)Для тик тока только,и то с натяжкой.
спасибо!
Topaz Video AI. эту прекрасную прогу не выходит на Мак скачать. Может я что-то некорректно делаю?
ua-cam.com/video/xY7L1Ud17ic/v-deo.htmlsi=xOeBzqE9BQhg2R3Z
@@AIDesignWorld33 Благодарю
Доброго! Какая прога переводит с русского на английский язык с сохранением речи? Спасибо)
Heygen используйте и ещё есть другие elevenlabs
Спасибо) А через какую программу ты видео апскейлишь?
Topaz Video AI
@@AIDesignWorld33 не запускается. Я скачиваю файл, а он пишет, что в app сторе такого нет((
@AIDesignWorld33 Вы говорили, что Топаз бесплатный, а он хочет $42 в месяц(
@@serjiozoable нужно искать пролеченную версию. Я не говорил что топаз бесплатный
Спасибо за наводку! Может сделаете такое же видео по другим нейронкам для видео... Уто то тут писал про пику к примеру
спасибо
Расскажите что такое Seed и как им пользоваться
Я сколько тестировал пока что так и не понял сам.
@@AIDesignWorld33 Сид - это шум. Нейронка пытается максимально стилизоваться под определённый кадр, НО на начальных и бесплатных настройках это почти не работает. Нужен обычно PRO аккуант и в нейронках с фотографиями и в видео нейронках.
Расскажи пожалуйста, как избавиться от водяного знака топаза, который не маленький в углу, а почти на весь экран по центру? Или у тебя версия топаза может другая, или все же платная?
Нет у меня не платная. Уже подготовленная в кавычках к использованию.
Забирал на рутрекере
Пасиб, я так и подумал.@@AIDesignWorld33
ВОПРОС: Почему не могу анимировать свое изображение????? какая причина
Посмотрите чтобы было 16:9 он лучше с такими работает
Сергей, а на Бусти не видно 30-часового видео среди постов
Там в 3х частях
Как вы купили подписку,вы не в рф?
Посмотрите мое видео про роботов - там показываю
Дорогие Земляне, продумайте вариант выключения общего рубильника, создайте подушку безопасности! Иначе вы можете оказаться вновь с палкой - копалкой в руках. ЛЕГ.
Не твоя Ца - тебе малоэффективна такая раскрутка. Лучше вкладываться в контент и картинку
@@AIDesignWorld33 благодарю, приму к сведенью.
@@contemplative_1 алгоритмы запутаешь и органический трафик потеряешь. Будешь думать почему просмотры упали.
коммент изменил, но в нём не о перетягивании одеяла на себя😀@@AIDesignWorld33
@@AIDesignWorld33 согласен
Выход этих технологий убивает труд многих людских профессий. Куда люди работать скоро пойдут?
Там оговорка GEN-2 технологию назвал HEYGEN
Мне кажется что микростоки вымрут к 2030 году, потому что искусственный интеллект станет более удобной технологией для использования.
Уже умерли похоже. Я тестирую нейросеть которая берет скрин с шатера например и делает креативный апскейл - на выходе стоковая картинка. Расскажу об этом скоро в след видео. Готовлю материал и тестирую
@@AIDesignWorld33МОЖНО ЛИ СЕЙЧАС СКАЧАТЬ SORA??? И КАК ЭТО СДЕЛАТЬ ЧЕРЕЗ ИХ САЙТ НЕТУ КАК ПОСЛЕ КНОПКИ "СКАЧАТЬ" ПЕРЕЗАПУСКАЕТ САЙТ
@@AIDesignWorld33МОЖНО ЛИ СЕЙЧАС СКАЧАТЬ SORA??? И КАК ЭТО СДЕЛАТЬ ЧЕРЕЗ ИХ САЙТ НЕТУ КАК ПОСЛЕ КНОПКИ "СКАЧАТЬ" ПЕРЕЗАПУСКАЕТ САЙТ
@@AIDesignWorld33 лучше бы ваши AI могли быстро повышать качество видео а не за 2 часа ролик из HD до 2K а мне их надо 800 штук по 50 минут так прогнать этож целая жизнь это каждый ролик по 2.5 часа будет прорабатываться
@@RAIMAN-nc5ht а я тут причём? Я делаю рекламные видео до 1 минуты. А Вы фильмы хотите в 60fps перегонять. Конечно тут нужны ресурсы
Может быть я что-то не докрутил в настройках, но у меня HAIPER генерирует видео на 2 секунды. Да, картинка супер, но это видео на 2 секунды. Таже самая Pika генерирует видео на 3-4 секунды. Хрен не слаще редьки. Для видео продакшена оба варианта неприемлемы, потому что замучаешься из таких кусочков что-то создавать.
А я пришёл к выводу что для высокой динамики видео ряда 2 сек - отлично. Сейчас 4 сек включили.
Pika поприкольней будет и даже звук к видео умеет генерировать.
Спасибо. Это действительно нечто многообещающее, движения выдает весьма интересные и непредсказуемые, но всё-таки продукт явно сырой, без доводки в AE никуда. При этом они уже вводят платную подписку, что смешно при 1%: удачных рендерингов. Видимо хотят успеть до выхода Sora "в народ".
Отлично я протестирую
Ютуб не будет давать монетизацию на нейро видео.
Если поставить два вертикальных светильника по бокам, то они не будут давать блик кольцом в очках вещателя.
Да все верно. Тут использовал кольцо, а его спереди за компом на стенке можно было разместить только в 1м месте. Тут нужно экспериментировать и наловчится. То что я уже пару месяцев делаю
@@AIDesignWorld33 кольцо стоит от 5 000 р. Осветители - по 500 р с той же мощностью
@@highlandsdweller нужны правильные показатели. CRI у источника света ( диодов) За 500р ничего хорошего не получится. Мерцать все будет и цвет не живой
@@AIDesignWorld33 год не мерцает, зрители довольны, в очках нет яркого блика.
А блики на очках нельзя было убрать?
Я болел тогда и очки были нужны. А когда ставишь оборудование в 23.00 чтобы записать может все пойти одним местом. Я рад что так получилось. Но попробую что то сделать . Например снять очки
Сколько секунд дает 5 или больше?
topaz для апскейлинга дорого стоит-300$
Это только начало. Сейчас все те, кто успеет нажиться на нейросетках наживутся, а далее все владельцы нейросеток выставят платный план, те кто остались в нищете безысходно идут на заводы работать
3:00 "Пристальное внимание к мимике Марио".... А это там как оказалось? :)
Так рождаются шедевры - это секретный запрос:) лучше этого кадра у меня не получилось сгенерить.
Почему-то у меня так красиво не получается анимировать, хоть с промптом, хоть без......... Не пойму в чем проблема
Лучше всего работает по картинкам. А так результат будет слабый
Он использовал программу Topaz Video AI и произвел UpScale до 4k и увеличил FPS (скорость видео). Без "рук" нагенерить нормальный сюжет сложно.
Обзор может быть и хороший на словах, а на деле полное г... и еще выйти невозможно после регистрации...
Благодарю
Оч круто. Только в део всего 2 сек(((
Я делаю монтаж и 2 сек отлично подходят.
С апскейлером Топаз есть одно весомое НО. Подписка стоит 300 баксов🤡 Не проще ли уж тогда делать анимацию в Runway, который сразу генерит в норм разрешении, и подписка на который стоит В ДЕСЯТЬ РАЗ дешевле?
Я качал с рутрекера
Есть онлайн решения по подписке
Я вот слышал что в 2024 году ютуб собирается отменить монетизацию за использование нейросетей и смотрю блогеры начали активную рекламу этих продуктов. Что это может значить?
А что если Вы снимаете себя + добавляете нейросети?
На кадре должен быть ты твое лицо или хотя бы голос, а если тупо делаешь всё через нейросеть то Ютуб за такой контент деньги платить не будет
Не знаю как там у вас, а у меня в этом хайпере генерация посредственного качества, оживляет картинки тоже через раз через задницу, ну а времени на каждый запрос уходит до хрена ожиданий
Я активно тестировал анимацию изображений из миджорни - это даёт больше контроля. А так могу сказать что картинкам особо не нужно описание
Если использовать видео, сгенерированное нейросетью, в коммерческих целях, не нарушается авторское право нейросети?
У каждой площадки свои правила - нужно изучать. Но я думаю это уже не регулируется
@@AIDesignWorld33 спасибо!
2 секунды?! Это хуже всего. Может по сиду можно что-то собрать из пару десятков вариантов. Генерацию по картинке сравнил с тем, какие результаты имел в Пика Лабс. Пика быстрее и что-то можно с нее получить. С хайпера при том же десятке генераций желаемого не собрать. Если смогут повысить длительность создаваемого видео, то есть смысл, но думаю, что нет. Выйдет Сора или кто-то быстрее подсуетится. Пока лучшим из картинка-в-видео для меня Пика.
Меня удивили работы примеры. Наконец я увидел модель которая реально анимирует. Pika нужно затестить. Там подписка как у gen-2 скорее всего.
Задолбали эти блогеры! Путают понятия видео и анимация!!! мне нужно видео! а не ваша анимация! когда вы уже научитесь правильно писать название ролика... Насчет Миджорни - она не дает реалистичной картинки поэтому я отказался от нее в пользу других нейросеток которые намного круче! а если вы зациклились только на Миджорни то вы никогда не найдете ничего лучшего! Удачи...
Я не цыклюсь - каждый день тестирую новое.
Тоже ищу именно создание реалистичных видео.. DreamMachine вы пробовали??
@@Pickledpepperzz Я высадил уже более 800 генераций в ней)) Скоро сделаю обзор.
2 секунды полная херня. От 30сек можно рассматривать более менее. А это г... полное
Мда, походу придётся подписку брать у этого хайпера....Чую ценник будет конский.
Да они с sora будут конкурировать
Жаль, что не показал, как этим пользоваться. Потыкался, потыкался. Генерит буквально две секунды из изображения. Как сделать такой ролик с длинным видео-рядом, как у тебя на превьюхе с БМВ так и не понял. Вместо рассказывания, лучше бы показывания.
Ролик тогда назывался бы основы монтажа primer pro
Почему же так громко музыку вставил. Это же не уважение к зрителям.
В наушниках громко - без наушников нормально
хелп хелп кто поможет не могу зайти на сайт просит заново авторизоваться
Ну это вобще не уровень соры конечно, но пока хоть так
Это да, но sora не нужно обожествлять. Показываю на канале в телеграмм какие ляпы она делает.
Все попробовал и Sora тоже , зря дееьги потратил ( 2 , 3 секунды , это обдиралово
Ага, тратить ресурсы нейронки чтоб смотреть улучшенные референсы по Need for Speed! Идиотизм!
А причем тут Sora? Ну ок забайтил
Sora это вообще что такое?
Монета на 11триллионов процентов выросла такое разве бывает?
Мне дал 2 секунды, можно пошагово объяснить как у тебя получилось такое видео с бмв?
По факту 2 секунды и смена кадра. Музыка динамичная и на это ставка. Поэтому я использовал видео по 2 сек и даже ускорял их .
Вам нравится хаипер? Это же в АЕ сделать 10 минут через dof , разводняк
Нет это совсем не то я спец по AE если что:) DOF или целые плагины с DOF анимацией это и рядом не стоит. Отражения на асфальте движутся, фара становится живой, камера движется вокруг. Да там примеров море крутых
Хайпер - нерабоча лажа! Не смогла нормально анимировать по картинке даже двух аистов на гнезде.
Если картинку грузите - пробуйте промпт не писать
Фигня. Любой классный спец всегда отличить настоящее видео от видео , созданное ИИ. Фото, может быть потому, что там нет движения, и "отталкиваться" в анализе либо вообще не от чего, либо "точек" анализа намного меньше. В видео классный спец ВСЕГДА увидит "косяки" хоть от SORA, хоть от HAIPER... Зрение человека, как и камера "видят" трехмерное изображение. ИИ рисует "в плоскости" экрана...Пример тому : Крокус...
Типа крокус что? Нейронка?
Дело в том что я монтирую часто на высокой динамике 2 секунды и смена и задача донести образ. Поэтому эта задача закрывается этим сервисом . Готовлю видео о создании мультика
помойка какая-то, а не обзор
Спасибо, ваш отзыв мне сделал день.
@@AIDesignWorld33 рад, что порадовал ))) Ну а серьезно... ну навалено все, как то в кучу. Без обид, это всего лишь мнение одного не совсем продвинутого.
Очень долго генерирует !
С впн попробуй с другой страны. Я заходил через сингапур и скорость была низкая, а после поставил нигерланды и полетело
СПасибо@@AIDesignWorld33
че ты мелишь!!! у ютуба ЗАПРЕЩЕНЫ!!! ИИ!!!
Найди правила почитай. Там пишут про повторяющийся контент или который сделан автоматизирован. ИИ уже на ютубе - очнись. Каждый заголовок , картинка, описание, heygen, липсинг. К тому же не просто генерить а делать это умно
@@AIDesignWorld33 да да )) только потом манету ты не получишь и все твои труды коту под хвост!! не надо людей в заблуждения вводить!!!!
@@IRKUTSK88 так я не призываю, как раз из видео в видео об этом говорю. Что не так перспективно. Если снимать себя + ИИ то будет монета. Любой канал должен быть с лицом считаю.
Дизлайк за кликбейт
Спасибо большое
Ролик на 2 секи
На 4 + есть топаз который сделает 120 кадров и значит можно сделать 10 сек 30фпс