прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ с с60Х ? когда совковую кибернетику лженауко покрестили ...? и непсроста вашет еше боел неспроста ианч как ну свтасть 90х там .. и свта вера невьспена в 146% (ну 146млн рабсиянцев ) или еше боле ... 43млн морекопов дык каие данные то ?
Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное. Как говорится, ниx*я не понятно, но очень интересно.
Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!
как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто: и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной. и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв. зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него. зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)
@@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно
@@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.
Если бы я снимал подобное видео, я бы объяснил все так: Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя. Пример: сверточная нейросеть, распознающая объекты на картинках: Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны) Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы. Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение
нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.
Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек
1)Генерация случайных чисел. 2)Сравнивание значений с логическими 1и 0. 3)Задание результатов генерации ответов. 4)Структуризация данных для генерации ответа. 5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.
Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.
@@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы
Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона. ------------- Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается. Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица. Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.
Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.
Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.
И где "готовый алгоритм" ? Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить. Но это точно не "готовый алгоритм", который обещало видео. Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.
Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?
Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.
В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее
Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?
Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)
Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?
Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.
Да. Это сложно - для обычного человека, не программиста. Жаль. Надо было в 90-е годы всё бросить и заняться программированием. Штука увлекательная - я пробовал на Бейсике - чисто для себя написал пару программ - с нуля.
Да не знают программисты детально алгоритмы машинного обучения и нейросети, может быть только перед собеседованием подучат теорию. А вы если писали программы, то легко сможете разрабатывать что нибудь и сейчас, главное начните с практических задач, не углубляясь особо в теорию
@@ИловМакс Поздно. Этому увлекательному делу надо было жизнь посвящать. В 58 лет с нуля начинать поздновато. Хотя и хочется. Быть рядовым не хочется. Если бы лет 20 программированием занимался, может что-то интересное и сделал бы. Я эти нейросети, точнее искусственный интеллект чисто гуманитарно ещё лет 20 назад разрабатывал. Чисто для себя - просто осмысливал - как они могут работать. Но вот - кто-то уже сделал программными методами - воплотил идею в жизнь. (Впрочем - такое поднять для одного человека слишком много - задача комплексная)
@programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?
Не думал, что тема нейронных сетей для меня окажется настолько сложной. Ещё забег не начался, а я уже обос..ся на старте и при этом смотрю, как многие убегают в даль со скоростью Усэйн Болта. В принципе, основы понятны и логичны, но удержать в голове полноту смысла сочетаний каждого нейрона входного слоя с каждым из последующего скрытого ... ой, чё-то мне плохеет. Не понимаю, как тот чувак, который это придумал в 60х ... нет, не так - не понимаю, как тот чувак, который придумал это был уверен, что вся эта мутная каша будет работать да ещё и при обучении, причём не имея компьютера (1960 всё таки). Но это всё полная чепуха по сравнению с тем, как так получается, что нейронные сети нашего мозга образуют виртуальные образы, которые нам чудятся, как реальные (я про квалиа). Иисус, какого чёрта?
Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!
Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??
Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением
Нейросети, как и алгоритм обратного распространения трудно использовать в "чистом" виде. Попытки так обучить нейросеть заканчиваются попаданием весовых коэффициентов в ближайшие локальные минимумы.
Это происходит, если как в мозге усиливать и ослабевать используемые и неиспользуемые связи. А вот градиентный спуск как раз хорошо находит оптимальные решения
3.9.2023 Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы. Основана на нейронах с нечёткой логикой. Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды. Входит в состояние соответствия любой функции f(от трёх логических переменных) за минуту обучения сети из 14 нейронов. Жаль, что я всю жизнь безработный.
А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?
Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками
@@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология
04:34 - я имел в виду входов ))
Видео класс. Думаю, что музыка в видео громковата
@@VladimirNerby есть такой косяк
не называй
те чипы
приметивыне кста
НЕРОНАМИ !
даже ладноб ешслиб еше ТОГДА назвал Исксвеным нероном
но
эт тогда
атерь
какой нахрен нейрон ? !
довай про то что транзистор это
КАКОЙ нейрон ?!
не неразу ж не подмена понятий ? !
дык какой ?
прекидовайш с каким фейспалмом да любые неробиологи на вот такое все неточто смотрят а СЛУШАЛИ
с
с60Х ?
когда совковую кибернетику лженауко покрестили ...?
и непсроста
вашет еше боел неспроста
ианч как
ну
свтасть 90х там ..
и свта вера невьспена в 146% (ну 146млн рабсиянцев )
или еше боле ...
43млн морекопов
дык каие данные то ?
Если это самое простое объяснение нейросети, то мне трудно представить, как будет выглядеть самое сложное.
Как говорится, ниx*я не понятно, но очень интересно.
Программированием занимался, но в другой сфере, всегда было интересно как люди додумались до процесса обучения машин. Теперь многое прояснилось и эта тема уже не столь загадочна, спасибо за хороший и содержательный ролик!
как же я ору, как все пытаются "просто" объяснить основы нейронок и на моменте с обратным распространением каждый раз начинается вообще не простой ад)) хотя там всё очень просто:
и "квадратичная функция ошибки" - если её значение находится в пределах от -1 до 1 (т.е. функция активации последнего слоя либо сигмоида, либо softsign), то это простая подгонка под последующие вычисления производной. ведь производная квадрата Х равна 2Х. и чтобы избавиться от этой двойки сразу делят на 2. В итоге, при вычислении ошибки мы используем dЕ/dx = (x - y) если E = (x - y)^2/2 т.е. просто разницу между выходным значением и желаемым результатом. а если бы мы не возвели в квадрат, то ошибка попросту бы нивелировалась при вычислении производной.
и становится понятно почему ReLU ( x0 ? x ) является распространённой функцией активации, когда видишь, что её производная равна 0 либо 1, что упрощает вычисление обратного распространения ошибки и в ней вообще не учитывается значение этого нейрона. т.е. если нейрон никак не влияет на конечный результат, то и ошибку для него мы не вычисляем, и веса не меняем. это самая удобная функция для промежуточных слоёв.
зы. и в видео никак не разъяснено что такое вспомогательный нейрон (b) (смещение) у каждого слоя, что его значение всегда равно 1, т.к. важно не его значение, а веса, идущие от него.
зыы. лучшее объяснение этой темы в серии видео DeepLearning от канала 3Blue1Brown. в переводе Sciberia можно глянуть. там не просто. зато обретаешь понимание)
да понятно, что бред и без нормальной математики там не разберутся, только самые верха понять
но все равно автору спасибо! больше материалов, больше топлива для понимания.
@@serge2773 это да. правда, они повторяют все одно и то же. за год ситуация практически не изменилась.
Ура, тысячный ролик на тему создания нейронки для распознавания циферок просмотрен.
лучшая антиреклама таким роликам
Что просили, то и сделал
Ты думаешь, знания "просмотрами" в голову влазят? :) Тут кумекать нужно!
@@daitedve1984 , а я не про знания. Я про их количество.
@@programmcatкак база для первого видео по тематике - вполне неплохо. 👍🏻 Хотелось бы видео по теме нейросетей и решения каких-нибудь интересных задач о которых еще не снято миллиона роликов. Например, как создать и обучить нейросеть-автоответчик на основе своих диалогов в вк (там можно выгрузить вся историю в текстовых файлах). Здесь и парсинг текстовых файлов, и подготовка обучающего датасета, и нейросетка. Интересно, применимо и прикольно
Поймал себя на мысли что, с 10:00 было оч трудно слушать речь. Музыка очень активная, и громче голоса. Видос топчик)
У меня раньше началось, выбесила просто
Меня вот что удивляет - неужели настолько плевать на то, как будут воспринимать твое творение люди?
@@TheLogEdge Не думаю, что вопрос в плевать. Вполне могу допустить 2 варианта. 1 - у человека очень плохое аудио оборудование, или сводит звук в колонках, не тестируя в наушниках или что то вокруг этого. 2 - автор может в матчасть, но не чувствует \ не знает как в сведение. В целом то видос хороший. Тут не про плевать, как мне кажется.
Если бы я снимал подобное видео, я бы объяснил все так:
Каждый слой ищет чуть более сложные структуры в предыдущем выходе предыдущего слоя.
Пример: сверточная нейросеть, распознающая объекты на картинках:
Это значит, что сначала пиксели собираются в черточки, которые эффективно описывают картинку (другие черточки отбрасываются, если они неэффективны)
Затем собираются уголки из черточек и лишние снова отбрасываются. Затем фигуры из уголоков, затем сложные фигуры, затем части предметов и затем сами предметы.
Простыми словами, нейросеть комбинирует все и со всем, но отбрасывает неэффективные комбинации, которые плохо описывают изображение
В нынешнее время редко когда название ролика соответствует содержимому, отдельный лайк за это
Ложь. Тут заумно рассказоно. Не ведитесь
Вот это груз... спасибо за "простое" объяснение, проще наверное нейросеть попросить объяснить как она работает
чем тебе не нравится?
@@MathPTU туповат
нормально объяснил, сначало говорит что у перцептрона много входов и один выход и тут же рисует нейронку где куча выходов, спасибо очень понятно, объяснения не ваш конек.
Посмотрел 4 : 45 видео, и чувствую закипел, теперь надо всё переварить продолжу смотреть позже, за взрыв мозга сразу лайк ставлю
Очень полезное видео, спасибо, ты практически на пальцах понятно разложил не самую простую тему.
Это первое внятное объяснеие! Спасибо большое за труд!!!)😊
Главное в том, что нейрон может иметь несколько входов и лишь один выход.
Нет. Главное в функции активации. Она выбирает, какие нейроны будут использоваться. Каждый нейрон превращается в кусочек распознанных данных, как флажок, означающий, что обнаружен некий кусочек
Ролик просто супер!
1)Генерация случайных чисел.
2)Сравнивание значений с логическими 1и 0.
3)Задание результатов генерации ответов.
4)Структуризация данных для генерации ответа.
5)В итоге мы имее большое количество переменных, операторов, и конвертеров значений которые превращают переменную в команду для выполнения в программе абстрагирующую систему сложных данных в результат: Картинка, Видео, Аудио. Тупо Фотошоп с пером и ФЛСтудио с виртуальной миди клавиатурой, и виртуальный сканер экрана.
музыка как будто обзор на ферму
Ух! Я досмотрел видео до конца)
С ВОЗВРАЩЕНИЕМ, спасибо за качественный материал!
Музыку можно погромче? Не слышу её
Просто нужно было смотреть в наушниках
Нет
@@psyhotel4009 чо нет то
Да
Автор сделал версию без музыки
Короч на середине стало понятно что ничего не понятно. Нужен реальный проект и реальный пример, чтобы разобраться шаг за шагом. А этот дикий запад на фоне вообще отвлекает.
Ни хрена себе! И это самое простое объяснение нейросети?
Ничего не понятно но ОЧЕНЬ интересно!
Ролик - отличный! Спасибо вам!
Спасибо. Всё более менее ясно и понятно.
Это база, так называемая основа)
спец алгоритм нифига себе. Спасибо! :) )))
Ничего не понял, но очень понравилось...)
Единственное видео в котором я все понял )
Контент годный, спасибо. Про музыку присоединюсь - нафиг не нужна.
Черная магия! Эта музыка делает, непонятное - понятным!
Зачем здесь запятая, мой безграмотный дружище?)
Мало понятно, но очень интересно )))
Боже, как же Вы вовремя!! Буквально недели полторы назад начала изучать нейросети и мне жутко не хватало простого объяснения, спасибо!)
Нейросети слишком сложно
Как это можно понять
@@umdois6849 во всём можно разобраться, если действовать последовательно и настойчиво)
А зачем вы это начали?
@@ВиталийЧемизов во-первых - стало просто интересно, а во-вторых - хочу попробовать связать нейросети с химией
@@Ewixx_ тоже не понимаю это вечное "слишком сложно" у людей. По сути, познать можно многое, разве что разным людям требуется разное количество времени. И умение дробить сложные задачи на более мелкие. В том числе, на этапе обучения. Но всегда проще сказать "как это вообще, слишком сложно и вообще, автор виноват, что я всё равно ничего не понял") Приятно увидеть, что есть и вот такие люди в комментариях, как вы
Я успел поставить лайк, спасибо моей нейросети
отлично, понятно, спасибо!)
Привет! Очень классный монтаж. Подскажи пожалуйста какую программу для монтажа используешь?
Крутое видео, только вот музыка на фоне слишком громкая и отвлекает сильно. На мой взгляд, для таких роликов нужен более спокойный и тихий фон
Очень круто, но музыка на фоне слишком уж громкая
Еёлучше сосем убрать.
Абстракция на регистры и алгоритмы преобразования. Генерация рандомных значений из суммы входных данных. И абстрагирование их в выходной результат.
Всю дорогу говорится, что у нейрона один выход. Но весь ролик на картинках у промежуточных нейронов нарисовоно много выходов.
нероны то гиде ?))
искусвеные нероны НЕ НЕЙРОНЫ !
@@88vok посмеялся от души. Жги еще
Никаких весов в сети быть не должно, могут быть только электрические сопротивления синапсов. И да если эти сопротивления только положительные то сеть не сможет полностью обучиться, только наполовину. Как объяснить знак электрического сопротивления непонятно. Не умножать надо а делить: заряд нейрона делим на сопротивление синапса, получаем заряд следующего нейрона.
-------------
Если человек понимает нейронную сеть он должен объяснить зачем нужны её элементы. Например: 1) зачем нужна функция активации, 2) зачем нужно смещение (?) Потому что без них не работает не принимается.
Сеть которая тут показана излишне сложна для начинающих. Она должна выдавать всего два ответа: это единица и это не единица.
Дробные числа не надо использовать - это усложняет программу и может вести к непредсказуемым, случайным ошибкам.
Отличный ролик! Сэкономил кучу времени))) Спасибо автору.
Спасибо!
Для рапознования рукописных цифр используются нейронные сети типа свёртки, а не перцептроны, как я слышал. Перцептрон - это простейший вид нейронной сети, который также еще называют полносвязной нейронной сетью.
Супер. Так долго искал вводный материал который охватывает кей пойнты за 15 минут. А где можно скачать твою прогу, которую в конце показвал ?
Прям очень круто.
Спасибо. Очень занимательно. А можно в том же стиле не только про перцептрон? Он же вроде как считается изрядно устаревшим...
2:00 нейрон это несколько входов и один выход, и уже следующий слайд - нейрон имеет несколько выходов 🤔
нет ето следуйщие нейрони кодключение к 1!! виходу предидущогго🤗
Это один и тот же выход из нейрона, подключенный ко входам во все нейроны последующего слоя
Там оговорка была, тоже услышал
Пришел заниматься нейросетями, но в итоге попал на ферму и начал жеско кормить кур доить коров и пахать поля 🐽🐽
Респект!
Насколько знаю лицензия на использования QT далеко не дешевая. Да и есть готовые свободные зрелые фреймворки на Python для скриптинга, а написаны на С++ - так намного удобнее. Если углубляться в машинное обучение вам понадобится линейная алгебра для расчета тензоров, дифференциальное, интегральное исчесление, статитстика и т.д. Состав нейросетей очень усложнился, что-бы стать спецом по нейросетям нужно только этим направлением и заниматься.
Извините, вы из какой страны смотрите? Я не понимаю что такое по русски "лицензия"
@@programmcat a commercial license for the QT framework, I mean.
@@evgenysenkin2859 первый раз слышу
@@evgenysenkin2859видео относится к комерческому использованию?
И где "готовый алгоритм" ?
Конечно, нужно отдать автору должное - это самое полное руководство, из тех, что я видел по данной теме, и оставленные лакуны (как минимум - реализации функций, их производных и типичные значения констант) можно попробовать восстановить.
Но это точно не "готовый алгоритм", который обещало видео.
Кроме того. Общая иллюстрация категорически неполна - на ней обязаны присутствовать веса (отдельными узлами, показывающими их принадлежность) и смещения - атрибутами "нейронных" узлов.
Здравствуйте, подскажите, а есть ли нейросеть для экселя?! Если да, то могли бы вы сделать на неё обзор?
спасибо за старания, но я не понял. наверное, это не моё. (комментарий для продвижения ролика: я посмотрел и автор старался)
Привет, классное видео, лучшее я бы сказал. А можно для тех кто в танке, у нас веса которые идут от входного слоя к скрытому слою тоже ведь обновляются?
Спасибо за ролик. Очень громкая фоновая музыка, делайте пожалуйста тише. Может вообще в образовательные ролики не добавлять фоновую музыку? Люди же не для развлечений такое смотрят, а для получения нужной информации.
Это развлекательное видео. А образование на лекциях, в статьях и учебниках, в видео на Ютубе с теоретическим походом, но не тут
видос не плохой, но фоновая музыка очень громкая, а тема не то что бы сложная, но думать нужно. Музыку нужно тише сделать
музыку на фоне потише бы, а голос повыше
Поставил 2000й лайк
В нейронной связи: просто перемножаются 2 значения, а за тем на выходе происходит сложение нейронных связей ВСЁ! да, их получается больше, но проще и быстрее
мелодия на фоне бесит
музыка мешает( а видео класс)
и вот тут я понял что не надо было прогуливать математику
Можно музыку еще громче?
2:00 у нейронов несколько входов и один выход, 2:10 чзх
Скажите, может ли нейросеть сама выбирать параметры из списка, находить оптимальные параметры сглаживания и оптимальные значения. А также добавлять изменения при условии сохранения макс эффективности результата?
Нет
Огонь, спасибо!
Спасибо за видео, но как же вы достали со своими телеграмм каналами, что полезные ссылки не судьба разместить в описании. А ведь почти подписался, удачи в телеграмме)
Привет, Кот! Как можно вставить в мягкую игрушку нейронную сеть и начать её обучать человеку, который не умеет пользоваться компьютером? Предполагается что обучение будет проходить только через диалог, и если нужно подтвердить правильность выбора, то тоже через диалог или на крайний вариант две кнопки на мягкой игрушке "Да" или "Нет". Может такая игрушка уже создана и недорого состоит? Сколько будут стоить недорогие компоненты что бы мягкую игрушку снабдить всем необходимым?
Нейросети требуют затратных вычислений и недорогой такая игрушка точно не будет. А учитывая голосовое обучение - так вовсе с заоблачной суммой, так как распознавание речи - сам по себе процесс сложный и задействующий другие предобученные нейросети.
Да. Это сложно - для обычного человека, не программиста. Жаль. Надо было в 90-е годы всё бросить и заняться программированием. Штука увлекательная - я пробовал на Бейсике - чисто для себя написал пару программ - с нуля.
Да не знают программисты детально алгоритмы машинного обучения и нейросети, может быть только перед собеседованием подучат теорию. А вы если писали программы, то легко сможете разрабатывать что нибудь и сейчас, главное начните с практических задач, не углубляясь особо в теорию
@@ИловМакс Поздно. Этому увлекательному делу надо было жизнь посвящать. В 58 лет с нуля начинать поздновато. Хотя и хочется. Быть рядовым не хочется. Если бы лет 20 программированием занимался, может что-то интересное и сделал бы. Я эти нейросети, точнее искусственный интеллект чисто гуманитарно ещё лет 20 назад разрабатывал. Чисто для себя - просто осмысливал - как они могут работать. Но вот - кто-то уже сделал программными методами - воплотил идею в жизнь. (Впрочем - такое поднять для одного человека слишком много - задача комплексная)
аоаоаоаоао я сделал нейросеть в скретч
Приветики!)
@programmcat, есть ли у меня смысл изучать нейросети и пытаться делать свои нейронные сети, если они очень развиты (например ChatGPT или Midjourney)? Или мне лучше не изобретать велосипеды и учить другую отрасль программирования, где мне тоже интересно?
-Посмотри всех- Попробуй всё и занимайся тем, что больше зайдет лично тебе.
Да, стоит. С таким же успехом можно перестать разрабатывать новые игры, потому что уже есть Скайрим))
Дык вить пугают, что нейросети все за нас напишут, стало быть, зачем изучать программирование?))
@@ВиталийЧемизов жаль только - жить в эту пору прекрасную уж не придется ни мне, ни тебе)
Не думал, что тема нейронных сетей для меня окажется настолько сложной. Ещё забег не начался, а я уже обос..ся на старте и при этом смотрю, как многие убегают в даль со скоростью Усэйн Болта. В принципе, основы понятны и логичны, но удержать в голове полноту смысла сочетаний каждого нейрона входного слоя с каждым из последующего скрытого ... ой, чё-то мне плохеет. Не понимаю, как тот чувак, который это придумал в 60х ... нет, не так - не понимаю, как тот чувак, который придумал это был уверен, что вся эта мутная каша будет работать да ещё и при обучении, причём не имея компьютера (1960 всё таки). Но это всё полная чепуха по сравнению с тем, как так получается, что нейронные сети нашего мозга образуют виртуальные образы, которые нам чудятся, как реальные (я про квалиа). Иисус, какого чёрта?
Автор, логика повествования хромает. Самые простые темы Вы подаете ещё проще. А на более сложных - не производите упрощение и сливаетесь. Огромный промежуток времени видео посвятили буквальному разжевыванию и визуализации того, что входной нейрон умножает показатель на вес, суммирует и тд. Очень много графики такого простого процесса. А на самой сложной и важной теме - как высчитываются веса - не даете никакой инфографики ограничившись буквально парой фраз в стиле "что-то там как-то высчитывается". Надо бы наоборот. За минуту пробежать по входному слою, а остальное время и инфографику с анимацией посвятить подробнее работе с весами. Очень нелогичное решение. Конечно программисты будут меня хейтить. Но, добавлю в ответ: Видео называется "Самое простое объяснение нейросети". Вряд ли профессиональным программистам нужно такое видео, не так ли? Они и так в курсе всего. Это видео для тех кто не в теме же!
Тут всё очень просто, намного проще, чем у других. Если кто-то чего не понял, значит видимо ещё рано лезть в эту тему
Чувак читает Википедию.
Привет. уменьши громкость фоновой музыку на 70%, и перезалей
умный дохуя чтоли?
А в других видео просто говорили нейронные связи и всё, просто что они вот так вот связаны и всё, ни как они вычисляют ничего об этом не говорили
Надеюсь автор сам понял о чем говорит, пока всё это рисовал и монтировал.
Автор долбаёб, уже всем надоел со своими видосами
А можно ли эту нейросеть обученную на 28-пиксельный квадрат, применить к любому размеру цифр?
Если цифры подогнать, а так нет
Ахренительно!
Но правильно - "Охренительно"
@main_zhenek Охренительно, это так себе, а это Ахренительно, что на порядок круче.
❤
Парень про🎉нигера не понял, но ось интересно😂
4:34 BХОДОВ! ВХОДОВ! ВХОДОВ! IN!!!
Написать нейросеть можно просто - скрестите калькулятор с азбукой😂
Отличное видео для людей с бессонницей - я два раза засыпал на фрагменте объяснения вычислений! 😆Шучу. Всё объяснил настолько доходчиво, что я заново понял то, что учил ещё в инстиуте. 👍 Одно непонятно: если у тебя большая выборка рукописных цифр и ты написал правильный алгоритм, почему он ошибается на рукописном вводе??
Похоже, недостаточно примеров для обучения было в подобных очертаниях, где происходили ошибки
Плохая сходимость сети. Грубо говоря, модель плохо аппроксимировала исходную функцию зависимости между выходными и выходными данными. Это может быть связано либо с недостаточным набором данных, нейронов, либо с недоучиванием или с переобучением
3:15 а если на одной картинке размер 28 28, но на другой 32 32? Как делать? Искать фото с большим числом пикселей?
Надо всё преобразовать в один размер
Музыка мешает, хотел образовательную информацию получить и в итоге какой то Ералаш.
😂
ссылку на группу добавишь куда-нибудь?
Она в описании, я про неё забыл 😐
Можно ссылку на исходный код?
Нейросети, как и алгоритм обратного распространения трудно использовать в "чистом" виде. Попытки так обучить нейросеть заканчиваются попаданием весовых коэффициентов в ближайшие локальные минимумы.
Это происходит, если как в мозге усиливать и ослабевать используемые и неиспользуемые связи.
А вот градиентный спуск как раз хорошо находит оптимальные решения
ой, айяйяй, очередной раз убеждаюсь, что я гуманитарий, автору спасибо, но мне похоже это не дано понять)
лааааайк!!!!!!!!!!!!!!!
Интересно, если MNIST обучает белым цифрам на чёрном фоне, что будет если нарисовать наоборот, чёрным по белому?
будет обратный результат
Что за музыка? Что за трек? Где скачать минус?
3.9.2023
Этой ночью, я успешно смоделировал, роботу своей первой в жизни нейросхемы.
Основана на нейронах с нечёткой логикой.
Вычисление одного ответа для сети из десяти тысячь нейронов занимает две секунды.
Входит в состояние соответствия любой функции f(от трёх логических переменных)
за минуту обучения сети из 14 нейронов.
Жаль, что я всю жизнь безработный.
А чем, в таком случае, распознавание письменных букв отличается от того же phash (алгоритм поиска похожих картинок)? Ведь суть работы по факту cхожа. Тогда зачем заморачивается с этими всеми нейронами\перцептронами если есть алгоритм во много раз проще?
Одно дело сравнивать с существующими картинками, искать похожие картинки и совсем другое дело уметь распознавать цифры с разным написанием и быть способным на определение случаев, отсутствующих в обучающих данных. Этим и сильны нейросети. Они тупо мощнее распознают и могут действовать за пределами обучающей выборки, в то время, как phash только сравнивает с существующими картинками
@@CanisLupusCrossoutMobile ну есть же расстояние Хемминга, так что похожие он тоже найдет в принципе
@@Andrew-oh6kg нейросеть похожих не ищет. Она может познавать случаи, не похожие на имеющиеся. То есть она обобщает и находит зависимости. Не просто так сейчас нейросети популярны, это очень мощная технология
У меня рекорд 3:59. Кто дальше досмотрел?
15:45 интересно, что нейросеть уже заранее предугадывает, какую цифру напишет человек
А почему вы не нашли первую производную от ошибки? То есть почему не Eвых=(0,32-0)*f'(x)? Это же сложная производная.