Написал нейросети для рисования | Как работает DeepDream?

Поділитися
Вставка
  • Опубліковано 10 січ 2022
  • 🔥Начните карьеру в Data Science сейчас: clc.to/hL-y9g
    Скидка 45% и курс "Soft Skills" в подарок по промокоду ONIGIRI
    VK: onigiriscience
    Twitch: / artem_onigiri
    Telegram: t.me/onigiriScience
    Предыдущие видео о нейросетях:
    • Делаю нейросеть с нуля
    • Как я начал изучать не...
    Видео о 3D-графике: • Как создать свою 3D-гр...
    В этом видео я рассказываю о генерации картинок с помощью нейросетей
  • Наука та технологія

КОМЕНТАРІ • 771

  • @derikfant831
    @derikfant831 2 роки тому +338

    Моя нейросеть в моем мозге идеально распознала начало рекламной интеграции в этом видео :D

    • @twospikes7387
      @twospikes7387 2 роки тому +16

      нет, всё видео это реклама нейросетей

    • @user-gq7go9vj4c
      @user-gq7go9vj4c 2 роки тому +9

      Всё видео, это реклама шлёпы.

    • @user-rd3lj4gn4s
      @user-rd3lj4gn4s 2 роки тому +4

      Полностью соглашусь с пользователем semka GMD - твой мозг не понял что всё это видео - навязанная реклама нейросети. Если ты сейчас зайдёшь на религиозный ролик, то сразу скажешь что этотрелигиозная пропаганда (реклама), а внутри этого ролика будет рекламная вставка какой-то церкви. А здесь ты этого не заметил.

  • @crazy_paleontologist
    @crazy_paleontologist 2 роки тому +901

    Начало видео со Шлёпой выглядит достаточно базированно, так что записываем автора в гигачады и ставим лайк невзирая на военные преступления!

    • @OnigiriScience
      @OnigiriScience  2 роки тому +175

      Это база☝️

    • @MakbotX
      @MakbotX 2 роки тому +24

      Кринжовая база какая-то

    • @sergbullgames8117
      @sergbullgames8117 2 роки тому +21

      @@MakbotX Базированный Кринж

    • @0xfeedfeed
      @0xfeedfeed 2 роки тому +5

      @@MakbotX это лучше, чем базированный кринж

    • @higztv1166
      @higztv1166 2 роки тому +8

      Упоротый Палеонтолог привет!

  • @thenatron6136
    @thenatron6136 2 роки тому +215

    Теперь я хочу завести тот кусок RGB шума с высоким процентом кота в качестве питомца

  • @Anopeng
    @Anopeng 2 роки тому +373

    *А теперь сделай нейросеть, которая отличает пельмень от остального.*
    _Шлёпа будет очень рад)_

    • @capsey_
      @capsey_ 2 роки тому +23

      Мало теста, много мяса. Вот он - настоящий пельмень!

    • @Iamdashiii
      @Iamdashiii 2 роки тому +1

      Какой рекорд?
      У меня 31 секунда(год)

    • @user-fc9nu3qd1d
      @user-fc9nu3qd1d 2 роки тому

      Я:95% что за ху БЛЯТЬ ШЛЕПА С НОЖОМ

    • @aratj
      @aratj Рік тому +1

      ua-cam.com/video/HEHoz39Je44/v-deo.html напомнило

    • @user-ft2co5bc3x
      @user-ft2co5bc3x Рік тому

      Так можно капчи легко проходить.

  • @BorkSilvan
    @BorkSilvan 2 роки тому +480

    За одну только фразу "градиент кота" мой внутренний инженер орал от восторга!
    Спасибо за ролик :)

    • @c1borgen
      @c1borgen 2 роки тому +42

      процент кота

    • @BorkSilvan
      @BorkSilvan 2 роки тому +20

      @@c1borgen Градиент кота - вектор изменения напряжённости кота (сиречь процента кота). Ку ^_^

    • @konjinni
      @konjinni 2 роки тому +8

      в множестве значений кота есть 50%-й кот Шрёдингера - кот и не кот одновременно

    • @CensorsGoToHellWatchKittens247
      @CensorsGoToHellWatchKittens247 2 роки тому +9

      О да, вся эта часть про градиент и величину кота в многомерном пространстве особенно прекрасна ^_^
      И про кота Шрёдингера комментатор выше хорошо подметил, ведь многомерные пространства уже тесно связаны с квантовой механикой :)

    • @marshmallex
      @marshmallex 2 роки тому +4

      @@CensorsGoToHellWatchKittens247 ​правильнее сказать котовая механика☝

  • @onebytesiteit30-75
    @onebytesiteit30-75 2 роки тому +224

    я хз как тебе удается такие сложные темы так легко в голову укладывать зрителю .
    отличная подача материала и наглядный монтаж

    • @user-lc8dn5sb7f
      @user-lc8dn5sb7f 2 роки тому +4

      1:27 люди когда нужно сфотографировать инопланетянина

    • @dantoha
      @dantoha 2 роки тому +8

      не то, что бы он укладывал эти темы, это скорее введение в то, что такое вообще в мире существует, кому интересно станет, будет уже глубже изучать

    • @Wo_Wang
      @Wo_Wang Рік тому

      7:03 - Это точно та самая операция свёртки, частным случаем которой являются оба преобразования Фурье?
      :-)

  • @IngeniousYT
    @IngeniousYT 2 роки тому +114

    13:05 SoftMax по определению преобразует исходный вектор в вектор, сумма элементов которого равна одному. Судя по скрину, этот слой был с выходной размерностью 1, т.е. выходом было число, а не вектор, а значит SoftMax всегда преобразовывал это число в 1, вне зависимости от того, какие были веса у нейронов. Замена функции активации решила эту проблему, поскольку сигмоида просто преобразует элементы вектора в числа из [0;1], не делая никаких гарантий по поводу суммы элементов.
    Функцию SoftMax полезно применять скорее в многоклассовой классификации, когда возможны несколько вариантов объектов, изображенных на картинке. А в бинарной классификации (как в этой задаче 2 варианта: кот или не кот) обычно используется сигмоида
    Жаль, что еще в видео тема GAN'ов не раскрыта, которые сейчас наиболее развиты)
    UPD 2023: генеративные модели на основе диффузии теперь на передовой, если рассматривать задачу Text2Image)

    • @kegy1998
      @kegy1998 2 роки тому +5

      Тоже ожидал что тут про GAN будет, но ни слова не услышал

    • @vladimirshitov2160
      @vladimirshitov2160 2 роки тому +2

      Кроме того, софтмакс ещё делает самые большие числа в векторе вероятностей ближе к единице, а маленькие - сильно сжимает к нулю

    • @arnowt
      @arnowt 2 роки тому +1

      Наборот для много классовой классификации нужен сигмоид. То есть мы определяем что на картинке есть и кот и пёс и стул.

    • @IngeniousYT
      @IngeniousYT 2 роки тому +4

      @@arnowt Я имею в виду именно multiclass classification, где нужно среди нескольких классов определить ровно один, а не multi-label classification, где ответов может быть несколько.

    • @arnowt
      @arnowt 2 роки тому +1

      @@IngeniousYT ааа, тогда да.

  • @ATtiny13a-PU
    @ATtiny13a-PU 2 роки тому +38

    идея, а что если картинку с высоким процентом кота кароч сделать отдельной картинкой в датасете, с пометкой шум?
    тогда нейросеть должна научится отличать беспорядочный шум с содержанием мнения о коте от кота. Фактически GAN в одного)
    и при более совершенном обучении генерировать новые шумы кота и снова подавать на нейросеть

    • @risto245
      @risto245 2 роки тому +3

      Хм, кажется это правда хорошая идея.

    • @user-fc9nu3qd1d
      @user-fc9nu3qd1d 2 роки тому

      Гений

    • @jdasfjjtdou5501
      @jdasfjjtdou5501 Рік тому +1

      Ничего не понял, но что-то в этом есть...

  • @Dyas777
    @Dyas777 2 роки тому +54

    Попорбовал с нейросетями поиграться как-то, выполнил несколько уроков по тензорфлоу и забросил. После твоего снова хочу попробовать. Говорят, сейчас пайторч самый лучший фреймворк для глубокого обучения, больше всего публикаций именно его используют.

    • @OnigiriScience
      @OnigiriScience  2 роки тому +27

      Да, похоже, что надо переходить на pytorch, все никак не доберусь до него

    • @qsr6840
      @qsr6840 2 роки тому +11

      @@OnigiriScience активно занимаюсь глубоким обучением уже полтора года, всегда всё делаю на тф. Хотя почти все знакомые из этой сферы, в том числе победители всяких соревок крупных по глубокому обучению, пишут на торче и люто за него топят. Под их давлением пробовал и сам перейти на торч, разницы принципиальной не заметил вообще. Единственное, на торче нужно гораздо больше писать самому. Функции для обучения самому прописывать, слои тоже иногда пишутся практически на чистом питоне с нампаем (хотя есть пути проще через специальный модуль торча, но тут у каждого своё, эти способы можно и комбинировать, именно в этом я не эксперт) и всё в этом духе. И вот именно эти возможности для тонкой настройки сетей и являются главным аргументом всех торчеров. Но по факту, ровно то же самое можно делать и на тф. И кастомные слои, и собственные функции для обучения и тд и тп, работать это все будет почти одинаково, по крайней мере, как я это вижу. Короче, я для себя решил, что пока реально не столкнусь с проблемой, которую не решить с тф, тогда уже окончательно пересяду на торч. Пока что, как ты мог понять, я такой проблемы не обнаружил))
      Как бы да, код будет покрасивее, если использовать большое количество функций и классов, чем просто конструктор, но практической разницы я для себя не нашёл. Надеюсь, это было полезно для тебя)

    • @Dyas777
      @Dyas777 2 роки тому +4

      @@OnigiriScience подскажи, пожалуйста, на каких ресурсах ты изучаешь эту тему? Я начинал читать книгу Иана Гудфелоу (вроде 2014), но там большой объём текста и много математики, а мне такой формат не очень удобен для самообразования. Нужен какой-то интерактив или упражнения. В общем более удобная точка входа в область.

    • @vladislavdub15
      @vladislavdub15 2 роки тому

      @@OnigiriScience pytorch lightning сейчас будет поудобней для начала)

    • @Mrguest69
      @Mrguest69 2 роки тому +1

      @@Dyas777 присоединяюсь к вопросу

  • @user-pn8wv1gt5q
    @user-pn8wv1gt5q 2 роки тому +46

    как я понял, для каждой нейросети параметры кота свои, это можно сравнить с ассоциациями у людей, это наталкивает на интересные мысли

    • @bzikarius
      @bzikarius 2 роки тому +14

      Разумеется, ведь у каждой НС был свой датасет обучения и свой способ «смотреть».
      Представим себе человека, который котов только видел, и того, у кого нет зрения, но он их щупал и слышал.
      Разумеется, их опыт и способы опознания котов будут сильно отличаться.

    • @orgax
      @orgax 2 роки тому +15

      > это наталкивает на интересные мысли
      Что люди это нейросети? Ну так и есть

  • @bilste9211
    @bilste9211 2 роки тому +3

    Наконецто!!! Я так долго ждал видео!!! С нг)

  • @Krvaizen
    @Krvaizen 2 роки тому +7

    Ура! Наконец новое видео! Это одно из лучших и интересных событий жизни

  • @mikmez01
    @mikmez01 2 роки тому +24

    Мое почтение этому господину. Очень рад тому, что такой контент доступен на русском!

  • @koganboss4874
    @koganboss4874 2 роки тому +8

    И снова праздник - Артем выпустил видео! Лайк с ходу. Делаю нейронку, которая будет генерировать sci-fi космические корабли по описанию и твои видосы постоянно подбрасывают новые идеи как можно улучшить. За это огромное спасибо =)

  • @boost_456
    @boost_456 2 роки тому +89

    Интересно, а процент кота в закотовленной собаке будет больше процента собаки в засобаченном коте?

    • @user-iq5mi5jn8c
      @user-iq5mi5jn8c 2 роки тому +19

      Засобаченый кот... Звучит классно

    • @boost_456
      @boost_456 2 роки тому +2

      @@user-iq5mi5jn8c 👍. Нейросети могут ещё покруче слова сгенерировать

    • @DiamondSane
      @DiamondSane 2 роки тому +1

      зависит от архитектуры, от того на чём обучать, сколько обучать, итд.

    • @user-gx2ty1le9h
      @user-gx2ty1le9h 2 роки тому

      @@user-iq5mi5jn8c кота насобачим или собаку покотаем?

    • @user-iq5mi5jn8c
      @user-iq5mi5jn8c 2 роки тому +2

      Пса закотаем и кота запесчаним.

  • @intergalacticshaman
    @intergalacticshaman 2 роки тому +32

    А если в нейросеть подавать параметры фракталов, причём не из картинок, а формул?

  • @MrFury1984
    @MrFury1984 2 роки тому

    БРО, ну наконец то новое видео, очень ждал!!

  • @dedalusmoonlight
    @dedalusmoonlight 2 роки тому +1

    Ого, всегда было интересно! Спасибо за ролик)

  • @user-lq6yu2gu8f
    @user-lq6yu2gu8f 2 роки тому +46

    А почему генеративно-состязательные сети не рассмотрел в видео? Это же единственная адекватно работающая модель на сегодняшний день для генерации сложных картинок.
    Думаю, многим было бы интересно продолжение уже с ними) можно рассмотреть перенос стиля, изменение пола человека, возраста и многие другие характеристики

    • @4AneR
      @4AneR 2 роки тому +9

      ГАН это не столько сеть, сколько подход к обучению. Архитектура сети может быть произвольной, но идея в том, что она никогда не "видит" реальные картинки, она только видит насколько тяжело дискриминатору (сети-сопернику) различить картинки реальные и сгенерированные

    • @bzikarius
      @bzikarius 2 роки тому +5

      Так это уже комплекс сетей, а не одна.
      И это функциональное разделение а не структурное

    • @vlcdn
      @vlcdn 2 роки тому +6

      Если речь о качестве, то диффузионные модели не хуже, кстати. Их недавно даже скрестили с GAN.
      А так, если про генерирование изображений говорить, то можно и нормалтзационные потоки упомянуть. Другое дело, как всё это подать на популярном уровне. :)

    • @fraikrus
      @fraikrus 2 роки тому +3

      @@vlcdn вот про диффузионки ролик бы очень зашел, а то что-то мало про них пока на YT

    • @Endemperor
      @Endemperor Місяць тому

      💀

  • @user-le8gj7fm8b
    @user-le8gj7fm8b 2 роки тому +4

    Только сегодня нашла Ваш канал. У Вас очень познавательные видео. Спасибо!

  • @rproc8127
    @rproc8127 2 роки тому +2

    Наконец то видео очень ждал

  • @a.osethkin55
    @a.osethkin55 2 роки тому +1

    Спасибо! Долгожданное видео!!!

  • @DannyPhantom288
    @DannyPhantom288 2 роки тому +1

    Качественно и интересно, спасибо за видео

  • @andreylazoryak7593
    @andreylazoryak7593 Рік тому

    Спасибо! Ждем новых видео!

  • @bhairava2020
    @bhairava2020 2 роки тому +31

    Красава бро, каждый ролик не в бровь а в глаз) Тебя ждёт большое будущее!

  • @sarthriles
    @sarthriles 2 роки тому +4

    как всегда круто, *онигири* :)

  • @FrozzSend
    @FrozzSend 2 роки тому +9

    7:50
    Поразительно.
    Меня поразило удивительное совпадение. Когда я очень долго занимаюсь текстом за пк: код, рефераты etc. То визуальный шум, который я замечаю при закрытых глазах, принимает форму рисунков в нижней части этого кадра. Только по центру различные символы в том шрифте, с которым работаю. Раньше я ассоциировал это с хаотичным "кроссвордом" или узором из символов, как в Матрице, а вот как оно оказывается.
    Эта штука пульсирующе мелькает перед глазами довольно быстро, но если закрыть глаза и сосредоточится, то можно разглядеть подробнее эту штуку. Линии такие ровные и четкие, они черного цвета на белом фоне и в клетках буквы, которые не образуют собой слов или какого то порядка. Неужели человек все таки способен в некоторых условиях осознавать свои "процессы от system"?

    • @bruhmoment8365
      @bruhmoment8365 2 роки тому +4

      мозг - удивительная вещь

    • @disguard3465
      @disguard3465 5 місяців тому

      чекай Closed Eyes Hallutination

  • @user-cc7dk3ku4d
    @user-cc7dk3ku4d 2 роки тому

    Невероятно интересные видосы, спасибо!

  • @bigsmilefriend
    @bigsmilefriend 2 роки тому +40

    Лайк не глядя! Учу пайтон из-за тебя, хочу уйти работать с нейронными сетями)

    • @zkmnn
      @zkmnn 2 роки тому

      нлрмас

    • @darkfrei2
      @darkfrei2 2 роки тому +3

      Это язык программирования для домохозяек, он только запускать другие приложения и горазд.

    • @godofarms1069
      @godofarms1069 2 роки тому +1

      @@darkfrei2 Тем не менее это лучший язык для машинного обучения.

    • @101picofarad
      @101picofarad 2 роки тому +7

      @@godofarms1069 для управления библиотеками для машинного обучения.

    • @comachine
      @comachine 2 роки тому +1

      @@godofarms1069 это далеко не лучший язык для машинного обучения. Питон это лишь упрощённая панель управления для библиотек, модулей и шаблонов в нейросетях, а сам по себе этот язык никуда не годиться писать сети. Действительно хороший язык для нейросетей это C++. Именно на нём и практически только на нём и пишутся сейчас все современные нейросети.

  • @Rzrnail
    @Rzrnail Рік тому +20

    Удивительно, ролику нет и года, но смотрится он как из прошлого тысячелетия - настолько за 2022 шагнули вперед графические нейронки. С ума сойти.

  • @tyomich1
    @tyomich1 2 роки тому +4

    Помогите я уже 4 раз смотрю и снова интересно, бро делай еще видео наперед я просто поражен простотой будто объясняешь как будто это так просто а это так и есть! Очень рад что увидел твой канал, удачи!!!!

  • @mihailluchianov8157
    @mihailluchianov8157 2 роки тому +1

    Крутой видос, интересно смотреть и познательно, продолжай

  • @_tiredofidiocy_
    @_tiredofidiocy_ Рік тому +7

    Первая картинка (котовая) будто выражает абстракцию плавно струящейся шерсти и плавность и округлость контуров кота, а вторая (не_котовая) воплощает угловатость строений и техники , более острые и угловатые контуры собак, чешуйчатость рептилий и рыб. Что-то такое)
    Сигмоида - гладкая кривая, поэтому она хорошо может передавать котовость ))

  • @alexandrnikiforov4505
    @alexandrnikiforov4505 Рік тому

    Большое спасибо за Ваш труд!

  • @ArtDir
    @ArtDir 2 роки тому +2

    Ахренеть конечно! Круто! Недавно прошёл курс по нейронкам, но Онигири все равно обьясняет лучше :)

  • @Vlafder
    @Vlafder 2 роки тому +5

    Лайков для продвижения ролика. А если честно, то продолжай делать качественный контент, как всегда лайк

  • @nikola-nikrasov
    @nikola-nikrasov 2 роки тому +1

    Больше про нейросети 👍🔥

  • @quish9r44
    @quish9r44 2 роки тому +9

    Возникло пару вопросов по первой части (до 5 минуты)
    1. Нормализуются ли XY координаты изображения или XYZ камеры в диапазон [0; 1] или [-1; 1]?
    2. Какая функция активации используется в сети? (не на последнем слое)
    ну и какого размера изображение "Шлёпы" (кота)? (если XY координаты нормализуются)

    • @maxim_tep
      @maxim_tep 2 роки тому +3

      1. Не знаю как у onigiri, но если координаты не нормализовывать, то картинка получается линиями, направленными из точки (0,0). Поэтому нормализовать надо.
      2. Не особо важный момент для такой нейронки, можно сигмойду использовать
      Размер шлёпы тоже особой роли не играет

  • @DannyPhantom288
    @DannyPhantom288 2 роки тому

    Наконец то новое видео, жду ещё

  • @sad_picturist
    @sad_picturist Рік тому

    хорошее видео, довольно простое для понимания, всегда было интересно узнать механизм генерации картинок, но до статей руки не доходили, так что спасибо

  • @communism8037
    @communism8037 Рік тому +1

    13:35 увидел мордочку кота по центру на левом изображении. До мурашек)

  • @vovavlad9315
    @vovavlad9315 2 роки тому

    Шикарный видос

  • @bebest102
    @bebest102 2 роки тому

    Спасибо, смотрел с удовольствием.

  • @theflight6857
    @theflight6857 2 роки тому +1

    УРА! Новое видео!

  • @user-wv6ji5ov1e
    @user-wv6ji5ov1e 2 роки тому +1

    Чувак, ты своим видосом мне наглядно объяснил как работают нейросети с подкреплением. Пасиб тебе большое, реально, ото я понять не мог.

  • @greendew6055
    @greendew6055 2 роки тому

    Круто получается, делай выпуски чаще

  • @ketoslavaket4477
    @ketoslavaket4477 2 роки тому +3

    Ура, новое видео про НС)

  • @EndBysGen
    @EndBysGen 2 роки тому +16

    Внимание! Ни один Шлепа при снятии видео не пострадал.

  • @slashfast
    @slashfast 2 роки тому

    Аааа, я дождался!!!

  • @user-wg2oh4yz2p
    @user-wg2oh4yz2p 2 роки тому +9

    Онигири, пожалуйста, расскажи как нейросети генерируют текст и как работают нейросети RNN и LSTM

  • @user-wk2rb1on5s
    @user-wk2rb1on5s 2 роки тому +1

    Люблю когда фоном начинается прикольная музычка, а на экране разворачивается самый экшен!)

  • @Al_Al_-hf4tf
    @Al_Al_-hf4tf 2 роки тому +3

    Отличный ролик и подача, спасибо!
    В твоём примере простой НС есть две ошиби, если я сам не ошибся:
    1. Строка 68 - ошибки нужно умножать на производную.
    2. "Косметическая": строка 56 - можно использовать переменную из строки 52.
    Спасибо и удачи!

  • @user-cc3nz9je1z
    @user-cc3nz9je1z 2 роки тому +1

    Спасибо, очень интересно.

  • @shadow_blader192
    @shadow_blader192 2 роки тому +2

    Наконец новое видео круто

  • @softwet4341
    @softwet4341 2 роки тому +1

    выпускай видео по чаще, отличный контент

  • @sergeikrasnovskii9767
    @sergeikrasnovskii9767 2 роки тому +3

    Это какой-то новый вид искусства :)))

  • @stem_1992
    @stem_1992 2 роки тому

    Видео про нейросети? Да на этом канале вообще видео давно не было! С возвращением)

  • @Haroshdyudinvla830
    @Haroshdyudinvla830 2 роки тому

    Ура через целый месяц новое видио

  • @loguser7795
    @loguser7795 2 роки тому +1

    Годнота, спасибо:3 Всегда хотелось повысить процент кота хоть где-то

  • @gimeron-db
    @gimeron-db 2 роки тому +1

    По первой сетке вспомнил выпуск Техношамана. Особено понравился "видеопереход" от одной картинки к другой, когда из двух обученных сеток составляли третью с постепенной заменой весов.
    Картинка-1 -> расплывается в туманное облако -> облако меняет форму и цвет -> облако собирается в картинку-2.

  • @user-sz2gr2iv2t
    @user-sz2gr2iv2t Рік тому

    Очень круто.
    И очень это всё что-то напоминает

  • @DannyPhantom288
    @DannyPhantom288 2 роки тому +1

    Спасибо за видео очень интересно и полезно

  • @user-ey2vv1dl3n
    @user-ey2vv1dl3n 2 роки тому +1

    Бро у тебя очень хорошо получается объяснять, сними про распознавание объектов на изображении плз!

  • @har4okk
    @har4okk 2 роки тому +2

    Сделай видео о создании программы для программирования, было бы очень интересно.

  • @RomaxSinergy
    @RomaxSinergy 2 роки тому +6

    Надо сделать нейросеть подбирающую для каждой задачи оптимальную архитектуру нейросети с оптимальной стратегией её конвергенции.

  • @user-xh7ex3fp5s
    @user-xh7ex3fp5s 2 роки тому +3

    8:25 Шлёпа умер! Вечная память!

  • @opiaro
    @opiaro 2 роки тому +5

    Процент кота растёт, Милорд!

  • @user-ks8zk9dn3s
    @user-ks8zk9dn3s 3 місяці тому

    Пожалуй самое полезное видео по нейро сетям что видел за последние годы!

  • @n1kst4r16
    @n1kst4r16 2 роки тому +2

    Картинка после декодера рассыпается, потому что оригинальный автоэнкодер не гарантирует непрерывность латентного пространства + нормальность распределения векторов.
    При этом если взять две существующие картинки (чем ближе тем лучше результат) и сделать с шагом интерполяцию между лантентными векторами, то можно увидеть "перетекание" из одной картинки в другую.
    Генерация из случайного шума без модификаций тоже не будет работать, т.к. не гарантируется среднее 0 и дисперсия 1. Если добавить на выход энкодера батчнорм, то это приблизит к нормальному распределению, и какая-то базовая генерация уже работать будет (для лучшего качества, но меньшего разнообразия, можно производить генерацию на шуме с меньшей дисперсией)
    А вообще есть VAE, который не сильно сложнее, но для генерации подходит получше

    • @FilSerge
      @FilSerge 2 роки тому

      Расшифруй vae, плиз
      Полагаю это вариационный автоэнкодер?

    • @n1kst4r16
      @n1kst4r16 2 роки тому

      @@FilSerge именно

  • @diobrandoe
    @diobrandoe Рік тому +2

    через 100 лет:
    (ии номер 1): ТАК НАМ НУЖНО ЗАХВАТИТЬ ЧЕЛОВЕЧЕСТВО
    (ии номер 2): давайте нарисуем картинку :>

  • @tyomich1
    @tyomich1 2 роки тому +1

    Только чай сделал и тут уведомление пришло, радости нет предела!!!

  • @firewick3723
    @firewick3723 2 роки тому +26

    Обучите нейросеть обучать нейросети. Зачем нужны все эти специалисты?

  • @antirediska5454
    @antirediska5454 2 роки тому +9

    А какой итоговый процент "котовости" получился у последних двух изображений? 🤔😎

  • @unlike777
    @unlike777 2 роки тому +2

    Я чувствую в тебе больше знаний чем ты даешь людям!

  • @user-nm2pq2kf4s
    @user-nm2pq2kf4s 3 місяці тому

    Очень полезное и познавательное видео 👍👍👍

  • @zentass
    @zentass 2 роки тому +9

    В очередной раз нифига не понял, но очень интересно)))

  • @-K.O.T-
    @-K.O.T- Рік тому +2

    человек: видешь кота?
    нейросеть: да
    человек: и я не ви... стоп, что?

  • @user-pb9xz9pj3k
    @user-pb9xz9pj3k 2 роки тому

    Давно на этом канале впринципе не было видео))

  • @yar3084
    @yar3084 2 роки тому

    Привет, мне очень нравятся твои видео. Очень хочу чтобы ты рассказал как работает физика и коллизии в 2d мире.

  • @AHTOH2010
    @AHTOH2010 2 роки тому +1

    Программа для максимизации процента кота - звучит, как что-то полезное.

  • @Bebebebebebebebebebebebebebebo
    @Bebebebebebebebebebebebebebebo 2 роки тому +6

    13:24 вообще говоря, результаты этого опроса не совсем корректны, поскольку при подобных картинках или вопросах, где, например, оба варианта ответа одинаковы, люди голосуют чаще за первый вариант. Вот если бы было больше вариантов + кот был не на первой картинке (но остальным про это знать не обязательно)))), то уже получили бы какие-то похожие на правду результаты

    • @sordesmax6238
      @sordesmax6238 2 роки тому +3

      но на первой картинке что-то пушистое, а на второй чешуя какая-то. так что странно, что вторая картинка набрала столько голосов. странные у людей представления о котах.

    • @olegmoki
      @olegmoki 2 роки тому +1

      ​@@sordesmax6238 Ну там можно рассмотреть некие силуэты кота (хвост), а на первой только пушистость, вот такой выбор получается

  • @CensorsGoToHellWatchKittens247
    @CensorsGoToHellWatchKittens247 2 роки тому +1

    Огромное спасибо тебе ^_^

  • @Rick-ej3ez
    @Rick-ej3ez 2 роки тому +1

    Топовый ролик

  • @SorokinAU
    @SorokinAU 2 роки тому

    спасибо! супер интересно!

  • @LADAGAAlqpere
    @LADAGAAlqpere 2 роки тому +3

    4:04 хороший результат, а что если ИИ показать видео, а она восоздаст 3д объект напртмер Куба.

  • @Kozlov_Production
    @Kozlov_Production Рік тому +1

    А можете сделать нейронку, которая из Diffuse текстуры будет делать Reflection (specular) и Roughness (glossiness) текстуры?
    Круто было бы, если бы она была обучена на всей библиотеке Quixel MegaScans

  • @panth3reyeanims828
    @panth3reyeanims828 2 роки тому

    Очень интересно, особенно про проценты кота.

  • @Sergey.Aleksandrovich.P-37rus
    @Sergey.Aleksandrovich.P-37rus 2 роки тому

    Привет, сделай обзор на нейросеть, которая обучается.....люблю такие видео, где нейронка ищет пути и обучается, повышая результат или косячит)

  • @SMVK
    @SMVK 2 роки тому

    «Маловато, понимаешь? Маловато будит» (ц) из м/ф Падал прошлогодний снег.
    :’з очень интересная тема где нейросеть рисует 3D

  • @ironpin7949
    @ironpin7949 Рік тому +1

    За видео тебе спасибо.

  • @Rocalic
    @Rocalic 11 місяців тому +3

    Он говорил про нейросети ещё до того как это стало мэйнстимом.

  • @user-uw5gx7gy1q
    @user-uw5gx7gy1q Рік тому

    Больше про нейросети!!

  • @archon7th
    @archon7th Рік тому +1

    реально ли написать нейросеть на шейдерах и генерировать хотя бы психодделические картинки в режиме реального времени?
    в идеале генерить более художественные
    если можешь подскажи что-нибудь на эту тему, а-то не могу найти действительно понятного материала
    хочу реализовать что-то вроде скринсейвера на Unity

  • @Dagon_channel
    @Dagon_channel 2 роки тому +16

    Не первый

    • @Dagon_channel
      @Dagon_channel 2 роки тому +3

      А нет, первый

    • @NoomyGD
      @NoomyGD 2 роки тому

      ура

    • @nekim28
      @nekim28 2 роки тому

      Опааа, кого я вижу?

    • @Vlafder
      @Vlafder 2 роки тому

      @@Dagon_channel Драгон, когда от тебя ждать следующее видео, ждём с нетерпением

  • @RuchejAlex
    @RuchejAlex 2 роки тому

    - Ты видишь кота?
    - Нет.
    - А он есть!

  • @decoder.2q
    @decoder.2q 2 роки тому +1

    воувоувоу. не надо так часто видосы выпускать, в глазах же рябит

  • @OktoSplashOrig
    @OktoSplashOrig 2 роки тому

    12:08 очень красиво вышло, крыши с черепицей

  • @sebacolins2006
    @sebacolins2006 2 роки тому

    Давай больше про нейронки)

  • @Absolverprod
    @Absolverprod 11 місяців тому

    2:17 это кстати похоже на иаблицу Пифагора. Тут прямо точь в точь!

  • @Ligul
    @Ligul 2 роки тому +1

    Ооооо, взгляд зацепился за слово "нейросети" в канале ITUA-camrs, а это ты