Самое простое объяснение нейросети

Поділитися
Вставка
  • Опубліковано 21 лис 2024

КОМЕНТАРІ • 319

  • @programmcat
    @programmcat  Рік тому +29

    04:34 - я имел в виду входов ))

    • @VladimirNerby
      @VladimirNerby Рік тому +3

      Видео класс. Думаю, что музыка в видео громковата

    • @programmcat
      @programmcat  Рік тому +1

      @@VladimirNerby есть такой косяк

    • @88vok
      @88vok Рік тому

      не называй
      те чипы
      приметивыне кста
      НЕРОНАМИ !
      даже ладноб ешслиб еше ТОГДА назвал Исксвеным нероном
      но
      эт тогда
      атерь
      какой нахрен нейрон ? !

    • @88vok
      @88vok Рік тому

      довай про то что транзистор это
      КАКОЙ нейрон ?!
      не неразу ж не подмена понятий ? !
      дык какой ?

    • @88vok
      @88vok Рік тому

      прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ
      с
      с60Х ?
      когда совковую кибернетику лженауко покрестили ...?
      и непсроста
      вашет еше боел неспроста
      ианч как
      ну
      свтасть 90х там ..
      и свта вера невьспена в 146% (ну 146млн рабсиянцев )
      или еше боле ...
      43млн морекопов
      дык каие данные то ?

  • @zivler
    @zivler Рік тому +15

    Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное.
    Как говорится, ниx*я не понятно, но очень интересно.

  • @dropdungeon1647
    @dropdungeon1647 Рік тому +24

    Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!

  • @Achmd
    @Achmd Рік тому +34

    как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто:
    и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной.
    и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв.
    зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него.
    зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)

    • @moshamiracle
      @moshamiracle Рік тому +1

      да понятно, что бред и без нормальной математики там не разберутся, только самые верха понять

    • @serge2773
      @serge2773 7 місяців тому

      но все равно автору спасибо! больше материалов, больше топлива для понимания.

    • @Achmd
      @Achmd 7 місяців тому

      @@serge2773 это да. правда, они повторяют все одно и то же. за год ситуация практически не изменилась.

  • @nakamasama
    @nakamasama Рік тому +47

    Ура, тысячный ролик на тему создания нейронки для распознавания циферок просмотрен.

    • @sergrecon9293
      @sergrecon9293 Рік тому +4

      лучшая антиреклама таким роликам

    • @programmcat
      @programmcat  Рік тому +2

      Что просили, то и сделал

    • @daitedve1984
      @daitedve1984 Рік тому

      Ты думаешь, знания "просмотрами" в голову влазят? :) Тут кумекать нужно!

    • @nakamasama
      @nakamasama Рік тому

      @@daitedve1984 , а я не про знания. Я про их количество.

    • @TheMrMadD0g
      @TheMrMadD0g Рік тому +2

      @@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно

  • @Amatikay-t1i
    @Amatikay-t1i Рік тому +40

    Поймал себя на мысли что, с 10:00 было оч трудно слушать речь. Музыка очень активная, и громче голоса. Видос топчик)

    • @agrippotadeush4414
      @agrippotadeush4414 Рік тому +2

      У меня раньше началось, выбесила просто

    • @TheLogEdge
      @TheLogEdge Рік тому +2

      Меня вот что удивляет - неужели настолько плевать на то, как будут воспринимать твое творение люди?

    • @Amatikay-t1i
      @Amatikay-t1i Рік тому +1

      @@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.

  • @main_zhenek
    @main_zhenek 3 дні тому +1

    Если бы я снимал подобное видео, я бы объяснил все так:
    Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя.
    Пример: сверточная нейросеть, распознающая объекты на картинках:
    Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны)
    Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы.
    Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение

  • @tirtir1401
    @tirtir1401 Рік тому +37

    В нынешнее время редко когда название ролика соответствует содержимому, отдельный лайк за это

    • @ooh18cm
      @ooh18cm 6 місяців тому +1

      Ложь. Тут заумно рассказоно. Не ведитесь

  • @va4953
    @va4953 7 місяців тому +20

    Вот это груз... спасибо за "простое" объяснение, проще наверное нейросеть попросить объяснить как она работает

    • @MathPTU
      @MathPTU 2 місяці тому

      чем тебе не нравится?

    • @chmax.
      @chmax. 2 місяці тому

      @@MathPTU туповат

  • @chinaleds
    @chinaleds Місяць тому +1

    нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.

  • @user-Vaizard
    @user-Vaizard Рік тому +2

    Посмотрел 4 : 45 видео, и чувствую закипел, теперь надо всё переварить продолжу смотреть позже, за взрыв мозга сразу лайк ставлю

  • @Anshegar
    @Anshegar Рік тому +1

    Очень полезное видео, спасибо, ты практически на пальцах понятно разложил не самую простую тему.

  • @your-honesty
    @your-honesty 3 місяці тому

    Это первое внятное объяснеие! Спасибо большое за труд!!!)😊

  • @michaelsidorov5508
    @michaelsidorov5508 Рік тому +7

    Главное в том, что нейрон может иметь несколько входов и лишь один выход.

    • @main_zhenek
      @main_zhenek 3 дні тому +1

      Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек

  • @kopoba8830
    @kopoba8830 Рік тому +8

    Ролик просто супер!

  • @oldgamer2397
    @oldgamer2397 8 місяців тому +1

    1)Генерация случайных чисел.
    2)Сравнивание значений с логическими 1и 0.
    3)Задание результатов генерации ответов.
    4)Структуризация данных для генерации ответа.
    5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.

  • @chromehearts878
    @chromehearts878 Місяць тому +2

    музыка как будто обзор на ферму

  • @SergeySuper_Silver
    @SergeySuper_Silver Рік тому +2

    Ух! Я досмотрел видео до конца)

  • @WoWCoolBack
    @WoWCoolBack Рік тому +1

    С ВОЗВРАЩЕНИЕМ, спасибо за качественный материал!

  • @replays4026
    @replays4026 Рік тому +109

    Музыку можно погромче? Не слышу её

  • @ПавелКонстантинов-в7я

    Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.

  • @makievitch
    @makievitch 6 місяців тому +1

    Ни хрена себе! И это самое простое объяснение нейросети?

  • @marinagoncharova5331
    @marinagoncharova5331 Рік тому +4

    Ничего не понятно но ОЧЕНЬ интересно!

  • @vladmob
    @vladmob Рік тому +4

    Ролик - отличный! Спасибо вам!

  • @Дмитрий-й6г6э
    @Дмитрий-й6г6э 7 місяців тому

    Спасибо. Всё более менее ясно и понятно.

  • @misterio5756
    @misterio5756 Рік тому

    Это база, так называемая основа)

  • @AiNNGpT
    @AiNNGpT Рік тому +1

    спец алгоритм нифига себе. Спасибо! :) )))

  • @Grustinko
    @Grustinko Рік тому

    Ничего не понял, но очень понравилось...)

  • @Kolemag
    @Kolemag Рік тому +1

    Единственное видео в котором я все понял )

  • @antonshutov6696
    @antonshutov6696 11 місяців тому +1

    Контент годный, спасибо. Про музыку присоединюсь - нафиг не нужна.

  • @cita_website
    @cita_website Рік тому

    Черная магия! Эта музыка делает, непонятное - понятным!

    • @main_zhenek
      @main_zhenek 3 дні тому +1

      Зачем здесь запятая, мой безграмотный дружище?)

  • @brlmbrlm7778
    @brlmbrlm7778 Рік тому

    Мало понятно, но очень интересно )))

  • @Ewixx_
    @Ewixx_ Рік тому +5

    Боже, как же Вы вовремя!! Буквально недели полторы назад начала изучать нейросети и мне жутко не хватало простого объяснения, спасибо!)

    • @umdois6849
      @umdois6849 Рік тому

      Нейросети слишком сложно
      Как это можно понять

    • @Ewixx_
      @Ewixx_ Рік тому +2

      @@umdois6849 во всём можно разобраться, если действовать последовательно и настойчиво)

    • @ВиталийЧемизов
      @ВиталийЧемизов Рік тому

      А зачем вы это начали?

    • @Ewixx_
      @Ewixx_ Рік тому +1

      @@ВиталийЧемизов во-первых - стало просто интересно, а во-вторых - хочу попробовать связать нейросети с химией

    • @oktopusskills
      @oktopusskills Рік тому +2

      @@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы

  • @админскийБубен
    @админскийБубен 4 місяці тому

    Я успел поставить лайк, спасибо моей нейросети

  • @ЕвгенийМ-у8б
    @ЕвгенийМ-у8б Рік тому +2

    отлично, понятно, спасибо!)

  • @dota6724
    @dota6724 Рік тому +4

    Привет! Очень классный монтаж. Подскажи пожалуйста какую программу для монтажа используешь?

  • @Unior-zt4ub
    @Unior-zt4ub Рік тому +1

    Крутое видео, только вот музыка на фоне слишком громкая и отвлекает сильно. На мой взгляд, для таких роликов нужен более спокойный и тихий фон

  • @sanyaharos1727
    @sanyaharos1727 Рік тому +3

    Очень круто, но музыка на фоне слишком уж громкая

    • @a1515mail
      @a1515mail Рік тому +2

      Еёлучше сосем убрать.

  • @oldgamer2397
    @oldgamer2397 8 місяців тому

    Абстракция на регистры и алгоритмы преобразования. Генерация рандомных значений из суммы входных данных. И абстрагирование их в выходной результат.

  • @fhtagnfhtagn
    @fhtagnfhtagn Рік тому +2

    Всю дорогу говорится, что у нейрона один выход. Но весь ролик на картинках у промежуточных нейронов нарисовоно много выходов.

    • @88vok
      @88vok Рік тому

      нероны то гиде ?))
      искусвеные нероны НЕ НЕЙРОНЫ !

    • @alexmiska2115
      @alexmiska2115 Рік тому

      @@88vok посмеялся от души. Жги еще

  • @tsvigo11_70
    @tsvigo11_70 7 місяців тому +1

    Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона.
    -------------
    Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается.
    Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица.
    Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.

  • @sergst8263
    @sergst8263 Рік тому +1

    Отличный ролик! Сэкономил кучу времени))) Спасибо автору.

  • @РоманДеВильнев

    Спасибо!

  • @roaldakberov4857
    @roaldakberov4857 5 місяців тому

    Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.

  • @aitbayseiduldayev2363
    @aitbayseiduldayev2363 10 місяців тому

    Супер. Так долго искал вводный материал который охватывает кей пойнты за 15 минут. А где можно скачать твою прогу, которую в конце показвал ?

  • @vladislav_kuznetsov_
    @vladislav_kuznetsov_ Рік тому

    Прям очень круто.

  • @VengMike
    @VengMike Рік тому

    Спасибо. Очень занимательно. А можно в том же стиле не только про перцептрон? Он же вроде как считается изрядно устаревшим...

  • @petrodrobov
    @petrodrobov Рік тому +6

    2:00 нейрон это несколько входов и один выход, и уже следующий слайд - нейрон имеет несколько выходов 🤔

    • @UTUBMIR
      @UTUBMIR Рік тому +2

      нет ето следуйщие нейрони кодключение к 1!! виходу предидущогго🤗

    • @ICeMAn70833
      @ICeMAn70833 Рік тому +2

      Это один и тот же выход из нейрона, подключенный ко входам во все нейроны последующего слоя

    • @СергейСимаков-п5б
      @СергейСимаков-п5б Рік тому

      Там оговорка была, тоже услышал

  • @mason228x
    @mason228x 4 місяці тому +1

    Пришел заниматься нейросетями, но в итоге попал на ферму и начал жеско кормить кур доить коров и пахать поля 🐽🐽

  • @Alash8080
    @Alash8080 7 місяців тому

    Респект!

  • @evgenysenkin2859
    @evgenysenkin2859 Рік тому

    Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.

    • @programmcat
      @programmcat  Рік тому +1

      Извините, вы из какой страны смотрите? Я не понимаю что такое по русски "лицензия"

    • @evgenysenkin2859
      @evgenysenkin2859 Рік тому

      @@programmcat a commercial license for the QT framework, I mean.

    • @programmcat
      @programmcat  Рік тому +1

      @@evgenysenkin2859 первый раз слышу

    • @arithene
      @arithene Рік тому

      ​@@evgenysenkin2859видео относится к комерческому использованию?

  • @semibiotic
    @semibiotic Рік тому +1

    И где "готовый алгоритм" ?
    Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить.
    Но это точно не "готовый алгоритм", который обещало видео.
    Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.

  • @suits7873
    @suits7873 Рік тому

    Здравствуйте, подскажите, а есть ли нейросеть для экселя?! Если да, то могли бы вы сделать на неё обзор?

  • @Иван-о9ш5с
    @Иван-о9ш5с Рік тому +1

    спасибо за старания, но я не понял. наверное, это не моё. (комментарий для продвижения ролика: я посмотрел и автор старался)

  • @unlimited-007
    @unlimited-007 8 місяців тому

    Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?

  • @Дмитрий-э7ъ9ч
    @Дмитрий-э7ъ9ч Рік тому +2

    Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.

    • @nerlihmax4555
      @nerlihmax4555 Рік тому

      Это развлекательное видео. А образование на лекциях, в статьях и учебниках, в видео на Ютубе с теоретическим походом, но не тут

  • @alexfaktor6167
    @alexfaktor6167 Рік тому +1

    видос не плохой, но фоновая музыка очень громкая, а тема не то что бы сложная, но думать нужно. Музыку нужно тише сделать

  • @rustam_kzn
    @rustam_kzn 7 місяців тому +1

    музыку на фоне потише бы, а голос повыше

  • @freedom_is_coming2024
    @freedom_is_coming2024 Рік тому

    Поставил 2000й лайк

  • @Neex23
    @Neex23 Рік тому

    В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее

  • @aleksy920
    @aleksy920 Рік тому +8

    мелодия на фоне бесит

  • @blooddimon2390
    @blooddimon2390 Рік тому +2

    музыка мешает( а видео класс)

  • @Duderezm
    @Duderezm День тому

    и вот тут я понял что не надо было прогуливать математику

  • @АндрейГордеев-ъ1т

    Можно музыку еще громче?

  • @АлександрСмыслов-э1х

    2:00 у нейронов несколько входов и один выход, 2:10 чзх

  • @ОлегВоропаев-к6ъ

    Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?

  • @КириллБалашов-с6ч

    Огонь, спасибо!

  • @Constantine..
    @Constantine.. Рік тому +2

    Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)

  • @ЛеонидМальцев-с3п

    Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?

    • @AcrAcro
      @AcrAcro 11 місяців тому

      Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.

  • @ДмитрийБудаев-д8к

    Да. Это сложно - для обычного человека, не программиста. Жаль. Надо было в 90-е годы всё бросить и заняться программированием. Штука увлекательная - я пробовал на Бейсике - чисто для себя написал пару программ - с нуля.

    • @ИловМакс
      @ИловМакс Рік тому

      Да не знают программисты детально алгоритмы машинного обучения и нейросети, может быть только перед собеседованием подучат теорию. А вы если писали программы, то легко сможете разрабатывать что нибудь и сейчас, главное начните с практических задач, не углубляясь особо в теорию

    • @ДмитрийБудаев-д8к
      @ДмитрийБудаев-д8к Рік тому

      @@ИловМакс Поздно. Этому увлекательному делу надо было жизнь посвящать. В 58 лет с нуля начинать поздновато. Хотя и хочется. Быть рядовым не хочется. Если бы лет 20 программированием занимался, может что-то интересное и сделал бы. Я эти нейросети, точнее искусственный интеллект чисто гуманитарно ещё лет 20 назад разрабатывал. Чисто для себя - просто осмысливал - как они могут работать. Но вот - кто-то уже сделал программными методами - воплотил идею в жизнь. (Впрочем - такое поднять для одного человека слишком много - задача комплексная)

  • @человек-г3з4ц
    @человек-г3з4ц 9 місяців тому

    аоаоаоаоао я сделал нейросеть в скретч

  • @ruden6623
    @ruden6623 Рік тому

    Приветики!)

  • @TrueErr
    @TrueErr Рік тому

    @programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?

    • @Jetscrolls
      @Jetscrolls Рік тому

      -Посмотри всех- Попробуй всё и занимайся тем, что больше зайдет лично тебе.

    • @programmcat
      @programmcat  Рік тому +6

      Да, стоит. С таким же успехом можно перестать разрабатывать новые игры, потому что уже есть Скайрим))

    • @ВиталийЧемизов
      @ВиталийЧемизов Рік тому +1

      Дык вить пугают, что нейросети все за нас напишут, стало быть, зачем изучать программирование?))

    • @Jetscrolls
      @Jetscrolls Рік тому +1

      @@ВиталийЧемизов жаль только - жить в эту пору прекрасную уж не придется ни мне, ни тебе)

  • @AndrejZaruba
    @AndrejZaruba 2 місяці тому

    Не думал, что тема нейронных сетей для меня окажется настолько сложной. Ещё забег не начался, а я уже обос..ся на старте и при этом смотрю, как многие убегают в даль со скоростью Усэйн Болта. В принципе, основы понятны и логичны, но удержать в голове полноту смысла сочетаний каждого нейрона входного слоя с каждым из последующего скрытого ... ой, чё-то мне плохеет. Не понимаю, как тот чувак, который это придумал в 60х ... нет, не так - не понимаю, как тот чувак, который придумал это был уверен, что вся эта мутная каша будет работать да ещё и при обучении, причём не имея компьютера (1960 всё таки). Но это всё полная чепуха по сравнению с тем, как так получается, что нейронные сети нашего мозга образуют виртуальные образы, которые нам чудятся, как реальные (я про квалиа). Иисус, какого чёрта?

  • @ГостомислКнязь
    @ГостомислКнязь Рік тому +3

    Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!

    • @programmcat
      @programmcat  Рік тому

      Тут всё очень просто, намного проще, чем у других. Если кто-то чего не понял, значит видимо ещё рано лезть в эту тему

  • @АлександрИванов-е2з3ъ

    Чувак читает Википедию.

  • @АнтонМирный-с5х
    @АнтонМирный-с5х Рік тому +2

    Привет. уменьши громкость фоновой музыку на 70%, и перезалей

  • @user-mememario
    @user-mememario 10 місяців тому

    А в других видео просто говорили нейронные связи и всё, просто что они вот так вот связаны и всё, ни как они вычисляют ничего об этом не говорили

  • @borisblade1403
    @borisblade1403 Рік тому +2

    Надеюсь автор сам понял о чем говорит, пока всё это рисовал и монтировал.

    • @programmcat
      @programmcat  Рік тому

      Автор долбаёб, уже всем надоел со своими видосами

  • @ВладимирВоробьев-е6о

    А можно ли эту нейросеть обученную на 28-пиксельный квадрат, применить к любому размеру цифр?

    • @ИловМакс
      @ИловМакс Рік тому

      Если цифры подогнать, а так нет

  • @AlexeyGR1047
    @AlexeyGR1047 Рік тому

    Ахренительно!

    • @main_zhenek
      @main_zhenek 3 дні тому +1

      Но правильно - "Охренительно"

    • @AlexeyGR1047
      @AlexeyGR1047 3 дні тому

      @main_zhenek Охренительно, это так себе, а это Ахренительно, что на порядок круче.

  • @YuriySilantye
    @YuriySilantye Рік тому

    Парень про🎉нигера не понял, но ось интересно😂

  • @КоттМайский
    @КоттМайский Рік тому

    4:34 BХОДОВ! ВХОДОВ! ВХОДОВ! IN!!!

  • @jeremytuk8262
    @jeremytuk8262 2 місяці тому

    Написать нейросеть можно просто - скрестите калькулятор с азбукой😂

  • @daitedve1984
    @daitedve1984 Рік тому +2

    Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??

    • @guest6007
      @guest6007 Рік тому

      Похоже, недостаточно примеров для обучения было в подобных очертаниях, где происходили ошибки

    • @CanisLupusCrossoutMobile
      @CanisLupusCrossoutMobile 8 місяців тому +1

      Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением

  • @ddffd-gx8lt
    @ddffd-gx8lt Рік тому

    3:15 а если на одной картинке размер 28 28, но на другой 32 32? Как делать? Искать фото с большим числом пикселей?

    • @programmcat
      @programmcat  Рік тому +1

      Надо всё преобразовать в один размер

  • @Shorts_Lazy
    @Shorts_Lazy Рік тому +1

    Музыка мешает, хотел образовательную информацию получить и в итоге какой то Ералаш.
    😂

  • @MrMher93
    @MrMher93 Рік тому

    ссылку на группу добавишь куда-нибудь?

    • @programmcat
      @programmcat  Рік тому

      Она в описании, я про неё забыл 😐

  • @rudikshul25
    @rudikshul25 Рік тому

    Можно ссылку на исходный код?

  • @Καιρός-ζ6σ
    @Καιρός-ζ6σ Рік тому +1

    Нейросети, как и алгоритм обратного распространения трудно использовать в "чистом" виде. Попытки так обучить нейросеть заканчиваются попаданием весовых коэффициентов в ближайшие локальные минимумы.

    • @main_zhenek
      @main_zhenek 3 дні тому +1

      Это происходит, если как в мозге усиливать и ослабевать используемые и неиспользуемые связи.
      А вот градиентный спуск как раз хорошо находит оптимальные решения

  • @alexeytipenkov
    @alexeytipenkov Рік тому

    ой, айяйяй, очередной раз убеждаюсь, что я гуманитарий, автору спасибо, но мне похоже это не дано понять)

  • @americangeeks8383
    @americangeeks8383 Рік тому

    лааааайк!!!!!!!!!!!!!!!

  • @sergst8263
    @sergst8263 Рік тому

    Интересно, если MNIST обучает белым цифрам на чёрном фоне, что будет если нарисовать наоборот, чёрным по белому?

    • @main_zhenek
      @main_zhenek 3 дні тому +1

      будет обратный результат

  • @АнонАнонов-ы6о
    @АнонАнонов-ы6о Рік тому

    Что за музыка? Что за трек? Где скачать минус?

  • @Monstr518
    @Monstr518 Рік тому +1

    3.9.2023
    Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы.
    Основана на нейронах с нечёткой логикой.
    Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды.
    Входит в состояние соответствия любой функции f(от трёх логических переменных)
    за минуту обучения сети из 14 нейронов.
    Жаль, что я всю жизнь безработный.

  • @Andrew-oh6kg
    @Andrew-oh6kg 9 місяців тому

    А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?

    • @CanisLupusCrossoutMobile
      @CanisLupusCrossoutMobile 8 місяців тому

      Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками

    • @Andrew-oh6kg
      @Andrew-oh6kg 8 місяців тому

      @@CanisLupusCrossoutMobile ну есть же расстояние Хемминга, так что похожие он тоже найдет в принципе

    • @CanisLupusCrossoutMobile
      @CanisLupusCrossoutMobile 8 місяців тому

      @@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология

  • @dinvienzel
    @dinvienzel 4 місяці тому

    У меня рекорд 3:59. Кто дальше досмотрел?

  • @DemetriusG.-sh9ov
    @DemetriusG.-sh9ov Рік тому

    15:45 интересно, что нейросеть уже заранее предугадывает, какую цифру напишет человек

  • @sonick_black6397
    @sonick_black6397 9 місяців тому

    А почему вы не нашли первую производную от ошибки? То есть почему не Eвых=(0,32-0)*f'(x)? Это же сложная производная.