Тема нейросетей для меня довольно сложная и именно этим она и привлекает. Поначалу непонятно совсем ничего, но изучая все больше материала все больше вникаешь в эту тему.
Спасибо за материал, очень интересно. А что касается негативных комментов, то они лишний раз подтверждают, что сколько людей, столько и мнений) Видать лекции тоже на вкус и цвет)
Все очень достойно, доступно и понятно. Но есть одна огромная оговорка которая применима не только этому лекатору а помоему ко всем кого я слушал по теме о нейронных сетях. (кроме одного кто сообразил что с этого и надо начинать... ссылка на праведника в конце поста). Они все грешат тем что начинают лекцию не с того. А начинать лекцию надо со следующего вступления: Коллеги, когда заходит речь о решении задач регрессионного типа, есть много способов подогнать под существующие данные(точки) некую кривую- полином, с тем чтобы потом с ее помощью прогнозировать. Вот на вскидку пара таких широкоизвестных способов: Kriging Lowess Spline Fourier series... Так вот, коллеги. Пресловутые нейронные сети, это всего то еще один способ подогнать кривую под существующие точки. У этого метода псть много плюсов, как и недостатков. И об этом мы поговорим сегодня.
Когда нейронная сеть долго играет с другой нейронной сетью в шахматы, обучается между делом, какие точки она подгоняет? В современных задачах идея аппроксимации начинает мешать. И регрессионные модели стали другими, например когда мы оцениваем вероятность того, что на фотографии нет кролика.
@@Vadim_Abbakumov Точки это обзервации- т.н наблюдения. Какой бы не была заумной нейронная сеть, играла бы она в шахматы или отличала кошечек от зайчиков, все построенно именно на идее апроксимации как вы верно отметили. Если вы зададитесь вопросом а что значит слово апроксимация, и вообще что к чему апроксимируется, вы поймете о каких точках -обзервациях-наблюдениях идет речь. Рекомендую ознакомиться towardsdatascience.com/why-a-neural-network-without-non-linearity-is-just-a-glorified-line-3d-visualization-aff85da10b6a www.quora.com/Is-Machine-Learning-just-glorified-curve-fitting news.ycombinator.com/item?id=11704789
Может стоит начать с того что такое задачи регрессионного типа..? Хотя может это на другом предмете проходят. Я просто совсем не шарю, а лекцию просто слушать приятно
@@Vadim_Abbakumov она аппроксимирует функцию беллмана фактически, например, (если политика жадная)..или функцию распределения оптимальной политики в данном состоянии, правда тут уже есть стохастический выбор состояния для обучения ..а вероятностные и стохастические модели это уже к машинам больцмана и прочее, хотя они тоже аппроксимируют ..просто функцию распределения..ну или те же gan..фактически стохастические генераторы..функцию распределения аппроксимируют "фактически"
Я всего навсего слесарь КИП и А, и это мне что-то сильно напоминает. На старых крупных котельных и на ТЭЦ регулировку техпроцесса обеспечивают аналоговые регуляторы на операционных усилителях, обычно с тремя входными импульсами от датчиков и выходом на исполнительное устройство. Это что-же, мы слесаря кип ремонтировали микро нейросети, и обучали их, настраивая коэффициенты каждого импульса (у вас - задавая веса), чтобы регулятор правильно поддерживал необходимый технологический режим.
А как насчёт того, чтобы снабдить ИИ способностью мыслить? (06-04. ОСНОВЫ ПРАВИЛЬНОЙ СИЛЛОГИСТИКИ (ГЛАВНАЯ ТАЙНА И СЕМЬ СЕКРЕТОВ РАСЧЁТА AEIO-СИЛЛОГИЗМОВ): ua-cam.com/video/UL64zmluKJ8/v-deo.html) СлабО?
Мне кажется можно придти к тому, что вообще от понятия нейронная сеть можно будет отказаться. Почему-то мне кажется, что нейтронная сеть просто реализует какой-то механизм (систему), с которым, на самом деле, можно работать иначе. Возможно у нашего мозга просто выбор был не очень большой, и он реализовал это так, но можно было и по-другому.
Потоки данных сформируют в нейросетевой модели ИИ понятия и индуктивные умозаключения, которые не будут иметь аналогов у человека. Затем последуют непредсказуемо необъяснимые действия. Но для этого нужно самообучение сети, пока же человек оценивает результаты и обучает сеть дальше продвижения не будет. Теорема Геделя в действии.
Уже знают. И все действительно только ввиде связей. Нужны связи они существуют, не практикует особь определенный навык или информацию, связи ослабляются или разрушаются, т.е. уходят в пассив. Но при этом часто связи не исчезают вообще даже если разрушены
Нейросеть не что иное как модное название с красивыми картинками динамического программирования на суперпозициях функций. То есть получается это полиномиальная аппроксимация.
У стандартной нейронной сети эта связь должна быть. У сети нестандартной архитектуры может и отсутствовать. На предыдущем слайде вопросительный знак в фразе "входы - от каждого (?) нейрона предыдущего слоя" указывает на такую возможность. Мне стоило обсудить это поподробнее...
Что за хрень, как нет видяхи? Сейчас в браузере можно обучать, даже без CUDA, через WebGL (данные в текстуры, шейдер считает, результат пишется обратно в текстуру), такую оптимизацию поддерживает, например Керас.
1. Christopher M. Bishop и Brian D. Ripley англичане. 2. Книга американца Семена Хайкина переведена на русский: Саймон Хайкин Нейронные сети: полный курс, 2-е издание. 3. Без английского разбираться в анализе данных совсем тяжело.
Небрежность речи. Ошибка это разность, сумма квадратов ошибок - критерий качества модели (Такой критерий качества - один из многих, и его популярность уменьшается )
Кофточек нет. А фотографий девушек в кофточках сколько захочешь. А база может быть из искусственных фотографий. Когда фото переделывают, и девушку "переодевают" в другой наряд.
Спасибо большое автору, но манера подачи материала некудышная, такое впечатление, что это выступление на конференции перед специалистами в данной области, а не первая лекция. Например, формулировка задачи ни как не может звучать как: -"... классическая задача исключаещего или выглядит так...и картинка из которой ничего не понятно.. и много других подобных ситуаций которые превращают просмотр лекции просто во времяпрепровождение.
Со всем уважением буду писать возникающие вопросы по ходу лекции. Утверждение: 1.- "Информации как таковой внутри нейросети нет, если не считать веса." Разве? Динамическая информация не информация и в нейросети не содержится? 2.- "Мозг" думает не ячейками, "мозг" думает связями. Но это же не значит, что мы не можем использовать ячейки, правильно? Динамическая информация требует намного больше ресурсов для своего функционирования, и вряд ли эволюционный организм этот факт не заметил. Мне кажется ячейки "мозг" все-таки использует, но не для высшей нервной деятельности, а для низшей - для дыхания, потоотделения, сужения зрачков, для того что дается врожденными инстинктами, нет?
В мозге чем глубже сеть, тем меньше ресурсов расходуется - классический природный рационализм. Во время лжи мозг расходует неимоверное количество ресурсов, что есть неадекватным с точки зрения природы
То есть мы не природного происхождения? Ты несёшь чушь. Ложь эволюционно оправдана со всех сторон. Ложь требует больше энергии не потому, что это плохо и противит природе, а потому, что это творческий процесс с моделированием ветвлений. Так же в процессе лжи усиливается контроль над физиологией ради убедительности. И ресурсы достижимые благодаря лжи в случае успеха с лихвой окупают все затраты.
Компьютер который выигрывал у человека это не нейро сеть это программы на шахматных движках а нейросеть которая выиграла у этих движков альфа зеро называлась
Ничего непонятно, но очень интересно! "Приходилось ли вам читать научно-популярную или учебную книгу с чувством, что вы не совсем понимаете, что в ней написано? Если да, то, скорее всего, исходя из «презумпции невиновности автора», вы вините в этом себя: за свой недостаточно высокий уровень образования, узость кругозора, отсутствие необходимых способностей. Однако правильнее было бы исходить из «презумпции собственной невиновности», так как если вы внимательно вчитываетесь, но не понимаете адресованный вам (согласно книжной аннотации) текст, то виноваты в этом не вы, а автор. Ведь он взялся написать книгу для вас, а не для самого себя или узкого круга своих коллег. Однако для доходчивого и внятного изложения материала ему не хватило логической культуры . Что такое логическая культура? Это знание и соблюдение основных принципов и требований правильного построения и выражения мыслей как в устной, так и в письменной речи. Отсутствие такой культуры приводит к разнообразным логическим ошибкам, которые засоряют не только научное, но и повседневное мышление, мешают нам думать, общаться, понимать друг друга и самих себя. Неясность и неопределенность мышления, его непоследовательность и сумбурность, противоречивость и необоснованность является прямым результатом отсутствия должного уровня логической культуры. Мышление, соответствующее требованиям логики, подобно прозрачному ручью: сквозь воды которого виден каждый камушек и песчинка на дне. Мышление, построенное на нарушениях логических законов, подобно мутному потоку: в нем ничего не видно. Правда, некоторые говорят, что в мутной воде удобнее «ловить рыбу», то есть строить такие высказывания и создавать такие тексты - сложные и малопонятные для адресата, - в которых внешняя глубокомысленность и наукообразность маскируют внутреннюю непоследовательность и порой - бессодержательность. Вряд ли добросовестный человек может быть сторонником такой «рыбалки»". (Д.А.Гусев "Удивительная логика". М.:2010.,Стр.2)
Теоремы геометрии были передоказаны ИИ до 1970 года. IMHO c го была решена более сложная задача... Если Вы здесь добавите про геометрию, буду благодарен. Может я что-то важное пропустил.
Хорошая лекция, плохая дикция. Постоянно у него всё "что-то там какое-то", формула "какая-то", реакция "какая-то", гостодьбох "как-то", высвобождаются "какие-то" элементы, долгий подбор слов. 2:47 - nocomment. Слушать, в общем, тяжело. Видимо, у остальных есть терпение)
Плохая лекция, вместо внятного пояснения общие фразы типа про "очевидные вещи", информация вырванная из контекста, без внятных пояснений, непоследовательно и скомкано. Зря потратил 1.5 часа.
Нейронные сети и ещё чего ,,дипленник,, Реши проблему инсульта, ЧМТ,выбитые функции... А болтать сегодня можно...и кто кого переговорит... А по инсульту ко мне...
Inbucks Wetrust программист обычная инженерная профессия и как и в любом деле глупых там больше чем умных. А нейроны в мозге вообще ни разу не нейроны в компьютере.
А причем тут какие-то среднестатистические программисты ? :) Савельев болтал о принципиальной невозможности типа "подражать" мозгу, ибо компьютеры де не той архитектуры. Дядя Савельев не в курсе, что вне зависимости от архитектуры компьютеры являются универсальными инструментами в плане вычислений... Да они могут быть более примитивны, не так шустры, без такого количества нейронов как головной мозг, с этим никто пока и не спорил :) но то что это все бесполезно и туфта(а я помню с каким пренебрежением Савельев говорил о нейросетях) Савельев брешет не разбираясь. Я смотрю вы тоже пошли по пути Савельева, с умным видом говорить банальщину. Кто и где и когда утверждал что модель нейрона в компьютере равна нейрону головного мозга ? :))) Модель она всегда модель, любая эмуляция чего угодно не отображает реального процесса происходящего в природе. Ну невозможно искусственно создать чисто физически часть мира имеющую понятие обо всем многообразии этого мира, в силу понятных ограничений. Но пока такие балтуны как Савельев пытаются тугодумить и понять что и как работает изнутри, компьютеры таки будут стоять на краю открытий в мире исследования как мозга так и других интересных вещей. Конечно можно долго надувать щеки и извиняюсь хуесосить другие научные дисциплины но это не красит ученого никак :) Мне как айтишнику смешно слушать бредни Савельева про бесполезность и беспомощность компьютеров в этом вопросе. Странно но мне хватает ума не учить Савельева мозговедению :))) И так же любому мало мальски грамотному человеку сегодня очевидно, что компьютер это по сути микроскоп и телескоп 20 века.... это инструмент в руках многих ученых из разных сфер знаний.
Inbucks Wetrust проблема в том как преподаватель объясняет как работает нейрон. А эту всю статистическую халабуду называют нейронной сетью, ты же знаешь что это к реальности имеет отдаленное отношение. Так ты можешь сказать возьми и запили нормальный нейрон, и назови его тру нейрон, так в том то и дело что я знаю только отдаленноо как он работает и я предполагаю из-за этой подмены понятий немногие и заморачиваются . То что Савельев говорит о том что нейронные сети это примитив по сути так оно и есть, это же статистика. Кто спорит что задачи статистики ими решаются или задачи перебора, а решить теорему какую нибудь как сетью?
Знаешь я сколько не смотрел лекций и в сколково все лекторы вещают эту дичь вот так выглядит нейрон, а вот наш нейрон и типа да он почти такой же, да вот ни разу не такой, 2 признака, тело, связь и всё называем нейрон бред же.
что такое "пиксЕли"?)) это на каком языке? ужасная лекция, лектор будто впервые этим занимается. "вот икс, вот даблвэ, вот сумма, вот такие аппроксимирующие функции" - что? куда? явно где-то что-то упущено. А упущено само объяснение нейронов. С таким же успехом можно было начать с обратного распространения ошибки, если уж порядок неважен. "на эр нейронки не пишут, лучше пайтон или си" .. в конце лекции: "давайте откроем эрстудио" предлагает литературу 15-летней давности.. это я ещё молчу про косноязычие и "вот, вот, вот, вот, вот". Лучше уж посмотреть "3Blue1Brown" по сетям. Даже в английском варианте больше информативности. Ещё и с графикой. Или в переводе от Sciberia
разные модели нейронных сетей / переобученность сети / -- do you realy think, it is working the same like a human brein??? то что вы демонстрируете, это аналог нервной системы обычных рефлексов, и вы эти рефлексы обучаете как ребенок учится ходить, в данной функции никогда не родится сознание. я нашел альтернативу, на много проще чем у вас, думает, видит сны, рассуждает, и на моём домашнем ПК, ненужен супер квантовый компьютер. если интересно пишите мне я расскажу в деталях
Эдуард - молодец. Теперь дело за малым - возьми хотя бы MNIST - и распознай своими алгоритмами, какова будет точность на отложенной выборке? А потом попробуй ImageNet, какова будет точность на отложенной выборке там? Потом приходи сюда или на хабр, и пиши что получилось. Твои сны, мысли и рассуждения на ПК - оставь себе, пока ты не предоставил измеримые понятные результаты - они нафиг никому кроме тебя не нужны.
Лекция ужасная. Ритмика речи лектора отвратительная. С точки зрения подачи материала -100% (минус сто). Лектор "запарывает" материал. Скачет с 5го на 10е. Никакой системы. Важные моменты проскакивает никак не акцентируя и не разъясняя. У новичка от такой "лекции" будет только сумбур и каша в голове.
В этом есть правда, ибо прозвучало что нет теоремы решающей вопрос об оптимальной структуре скрытого слоя. Теоремы-то может и нет, но задача вполне решаема и без бубна методами комбинаторики и т.п. Лектор просто не заморочился задуматься, заморочившись лишь гуглением.
Это не учёный, это учитель. Не путайте. Одному дано преподавать, другому двигать науку. И не надо ставить знак равенства между вузами и НИИ. Они смежники, но заняты разными делами. Дело преподавателя (учителя) готовить кадры. Наука для вузов вторична. Для научных и научно-исследовательских заведений наоборот, учёба вторична (не везде сейчас аспирантуры есть), а наука первична. Что характерно для большинства наука прикладная, а то и вовсе задачей ставится её внедрение, а не фундаментальные исследования. И это правильно. Каждый должен заниматься своим делом. Автор явный преподаватель, это хорошо, но он не обязан быть крутым учёным.
@@OPKECTPAHT совмещать надо исследования, коммерческие заказы и преподавание. Иначе будет отрыв от реальности (вот как в этой лекции например учит тому, что давно не применяется).
Лучший лектор из всех, которых я встречал!
Первое видео из многих мною просмотренных в котором числа подставили в формулы, за одно это вам поклон до земли ).
Отличная лекция! Большое спасибо автору и тому кто это снял и выложил!
да, толковый экскурс в историю с сопоставлением современности.
Тема нейросетей для меня довольно сложная и именно этим она и привлекает. Поначалу непонятно совсем ничего, но изучая все больше материала все больше вникаешь в эту тему.
Вот уж не думал что настолько интересно будет . Спасибо
Коллеги, наконец-то много полезных мелочей, а не просто стандартная медиа-модель НС!
Привет, ты хорошо разбираешься в нейросетях?
Спасибо за материал, очень интересно. А что касается негативных комментов, то они лишний раз подтверждают, что сколько людей, столько и мнений) Видать лекции тоже на вкус и цвет)
Дождались часть два! Спасибо!
Все очень достойно, доступно и понятно. Но есть одна огромная оговорка которая применима не только этому лекатору а помоему ко всем кого я слушал по теме о нейронных сетях. (кроме одного кто сообразил что с этого и надо начинать... ссылка на праведника в конце поста).
Они все грешат тем что начинают лекцию не с того. А начинать лекцию надо со следующего вступления:
Коллеги, когда заходит речь о решении задач регрессионного типа, есть много способов подогнать под существующие данные(точки) некую кривую- полином, с тем чтобы потом с ее помощью прогнозировать.
Вот на вскидку пара таких широкоизвестных способов:
Kriging
Lowess
Spline
Fourier series...
Так вот, коллеги.
Пресловутые нейронные сети, это всего то еще один способ подогнать кривую под существующие точки. У этого метода псть много плюсов, как и недостатков. И об этом мы поговорим сегодня.
Когда нейронная сеть долго играет с другой нейронной сетью в шахматы, обучается между делом, какие точки она подгоняет? В современных задачах идея аппроксимации начинает мешать. И регрессионные модели стали другими, например когда мы оцениваем вероятность того, что на фотографии нет кролика.
@@Vadim_Abbakumov
Точки это обзервации- т.н наблюдения. Какой бы не была заумной нейронная сеть, играла бы она в шахматы или отличала кошечек от зайчиков, все построенно именно на идее апроксимации как вы верно отметили. Если вы зададитесь вопросом а что значит слово апроксимация, и вообще что к чему апроксимируется, вы поймете о каких точках -обзервациях-наблюдениях идет речь.
Рекомендую ознакомиться
towardsdatascience.com/why-a-neural-network-without-non-linearity-is-just-a-glorified-line-3d-visualization-aff85da10b6a
www.quora.com/Is-Machine-Learning-just-glorified-curve-fitting
news.ycombinator.com/item?id=11704789
Может стоит начать с того что такое задачи регрессионного типа..? Хотя может это на другом предмете проходят. Я просто совсем не шарю, а лекцию просто слушать приятно
@@Vadim_Abbakumov она аппроксимирует функцию беллмана фактически, например, (если политика жадная)..или функцию распределения оптимальной политики в данном состоянии, правда тут уже есть стохастический выбор состояния для обучения ..а вероятностные и стохастические модели это уже к машинам больцмана и прочее, хотя они тоже аппроксимируют ..просто функцию распределения..ну или те же gan..фактически стохастические генераторы..функцию распределения аппроксимируют "фактически"
Привет, ты хорошо разбираешься в нейросетях?
Очень хорошо для новичка. Многие моменты значительно прояснились.
Привет, ты хорошо разбираешься в нейросетях?
Нужен человек в команду, который хорошо разбирается в нейросетях, есть крупный проект, который имеет высокий потенциал коммерциализации
Спасибо огромное за лекцию!!!
Молодчинка!!! Спасибо ВАм!!!!
Отличная лекция. Спасибо!!!
Просто о сложном. очень понятно и наглядно объясняет
Очень ясное изложение! Классно.
что значит "нет графической карты "?? 👀
Интересная лекция, спасибо!
Я всего навсего слесарь КИП и А, и это мне что-то сильно напоминает. На старых крупных котельных и на ТЭЦ регулировку техпроцесса обеспечивают аналоговые регуляторы на операционных усилителях, обычно с тремя входными импульсами от датчиков и выходом на исполнительное устройство. Это что-же, мы слесаря кип ремонтировали микро нейросети, и обучали их, настраивая коэффициенты каждого импульса (у вас - задавая веса), чтобы регулятор правильно поддерживал необходимый технологический режим.
Во первых да, во вторых современные нейросети сами подстраиваются, а это свойство самообучения - шаг вперед
Вау, удивительно, что я увидел это видел после 6 лет после публикации. Да, графическая карта... Сейчас по-моему она у каждого есть дома)
Отлично! Спасибо большое!
я правильно понимаю что часть 2 будет потихоньку выкладываться? Замечательный лектор, жаль не вживую слушаю!
Да, всё верно. Курс как раз сейчас в процессе прочтения, поэтому выкладываем видео по мере проведения лекций.
Привет, ты хорошо разбираешься в нейросетях?
@@КонстантинИсаев-л6э ну может он за пять лет стал профи
Ошибка на слайде 12:48 у пороговой функции. сравнивать надо с 0.5
Все предельно понятно. Спасибо!
1:23:00
Ошибка в пороговой функции. График не соответствует условиям
8:39 схема то как мастерски нарисована! Дизайнер от бога рисовал.
Подскажите пожалуйста где можно почитать про свободные члены? Зачем они нужны? Спасибо!
Без них f(0,0,0,...0) =0. Но это бессмысленное ограничение.
@@Vadim_Abbakumov спасибо за ответ
А архивчик что не выложили?
41:50 А что сохраненые веса(константы) это не память?
Так я именно об этом говорил
классные лекции, спасибо
А как насчёт того, чтобы снабдить ИИ способностью мыслить? (06-04. ОСНОВЫ ПРАВИЛЬНОЙ СИЛЛОГИСТИКИ (ГЛАВНАЯ ТАЙНА И СЕМЬ СЕКРЕТОВ РАСЧЁТА AEIO-СИЛЛОГИЗМОВ): ua-cam.com/video/UL64zmluKJ8/v-deo.html) СлабО?
Буду писать вопросы по ходу лекции
Мне кажется можно придти к тому, что вообще от понятия нейронная сеть можно будет отказаться. Почему-то мне кажется, что нейтронная сеть просто реализует какой-то механизм (систему), с которым, на самом деле, можно работать иначе. Возможно у нашего мозга просто выбор был не очень большой, и он реализовал это так, но можно было и по-другому.
это просто параметрически заданный алгоритм...
14:38 пороговая : 1 if x>=0
Действительно, ошибся. Спасибо за поправку.
Потоки данных сформируют в нейросетевой модели ИИ понятия и индуктивные умозаключения, которые не будут иметь аналогов у человека. Затем последуют непредсказуемо необъяснимые действия. Но для этого нужно самообучение сети, пока же человек оценивает результаты и обучает сеть дальше продвижения не будет. Теорема Геделя в действии.
Уже знают. И все действительно только ввиде связей. Нужны связи они существуют, не практикует особь определенный навык или информацию, связи ослабляются или разрушаются, т.е. уходят в пассив. Но при этом часто связи не исчезают вообще даже если разрушены
Спасибо!
Нейросеть не что иное как модное название с красивыми картинками динамического программирования на суперпозициях функций. То есть получается это полиномиальная аппроксимация.
да, ну и что?
отличная лекция
Здравствуйте. А постоянное ,,АЭ" это навсегда? Или алгоритмы не совместимы с материнкой?
Если есть объяснение, укажите путь.
Благодарю
На "осень 2017" в описании немного подзавис... Всё-таки весна, наверное.
Ой, да.
Keras для R есть.
Совершенно верно, но интерфейс к Keras в R появился в сентябре 2017, а лекция читалась в феврале...
@@Vadim_Abbakumov а сейчас, ура, есть torch - и это не обертка над pyTorch
25:02 . почему отсутствует связь у Х1 на схеме с одним слоем и больше?
У стандартной нейронной сети эта связь должна быть.
У сети нестандартной архитектуры может и отсутствовать.
На предыдущем слайде вопросительный знак в фразе
"входы - от каждого (?) нейрона предыдущего слоя"
указывает на такую возможность. Мне стоило обсудить
это поподробнее...
Лекция супер! Спасибо.
Отлично!
Крутой препод!
Что за хрень, как нет видяхи? Сейчас в браузере можно обучать, даже без CUDA, через WebGL (данные в текстуры, шейдер считает, результат пишется обратно в текстуру), такую оптимизацию поддерживает, например Керас.
Интерфейс между R и Keras появился в сентябре 2017, лекция читалась в феврале...
как из 0,1 и -0,2 получилось 0,12?
Это множители, а не слагаемые
Спасибо
4:45 солаб привет
п.с. я знаю, что его тогда не было
27:00 все три книжки АМЕРЕКАНЦЫ написали? видос очень интересный, жаль что универсальный язык плохо знаю
1. Christopher M. Bishop и Brian D. Ripley англичане.
2. Книга американца Семена Хайкина переведена на русский:
Саймон Хайкин
Нейронные сети: полный курс, 2-е издание.
3. Без английского разбираться в анализе данных совсем тяжело.
Вадим Аббакумов ВЕЛИКОГО и УНИВЕРСАЛЬНОГО АНГЛИЙСКОГО ЯЗЫКА ОБЩИХ ЗНАНИЙ!
без знаний англ. языка с нейронками можешь даже не начинать.
Бишоп и Рипли? Это же из "Чужих" :)
зачем в русском переводе писать "биллионы", а не "миллиарды"?
почему ошибка это квадрат разницы?
Небрежность речи. Ошибка это разность, сумма квадратов ошибок - критерий качества модели (Такой критерий качества - один из многих, и его популярность уменьшается )
59:54 2022 а мы до сих пор гадаем где у функции стоимости глобальный минимум))
Досмотрел после 1.10 уже не понятно. А так все супер 😊
57:37 10 млн наблюдений...так кофточек столько нет)))
Это же сколько работы по наработке базы...
Кофточек нет. А фотографий девушек в кофточках сколько захочешь.
А база может быть из искусственных фотографий. Когда фото переделывают, и девушку "переодевают" в другой наряд.
После этого видео окончательно понял, как реализовать нейросеть
Вся надежда только на тебя
Простейшая сеть для распознавания рукописных цифр в MATLAB учится на процессоре за несколько минут (максимум за несколько десятков минут).
Спасибо большое автору, но манера подачи материала некудышная, такое впечатление, что это выступление на конференции перед специалистами в данной области, а не первая лекция. Например, формулировка задачи ни как не может звучать как: -"... классическая задача исключаещего или выглядит так...и картинка из которой ничего не понятно.. и много других подобных ситуаций которые превращают просмотр лекции просто во времяпрепровождение.
19:39 то есть
1:15:45
Со всем уважением буду писать возникающие вопросы по ходу лекции.
Утверждение:
1.- "Информации как таковой внутри нейросети нет, если не считать веса."
Разве? Динамическая информация не информация и в нейросети не содержится?
2.- "Мозг" думает не ячейками, "мозг" думает связями.
Но это же не значит, что мы не можем использовать ячейки, правильно?
Динамическая информация требует намного больше ресурсов для своего функционирования, и вряд ли эволюционный организм этот факт не заметил. Мне кажется ячейки "мозг" все-таки использует, но не для высшей нервной деятельности, а для низшей - для дыхания, потоотделения, сужения зрачков, для того что дается врожденными инстинктами, нет?
а что имеется ввиду под динамической инфой?
@@Алг-ж3д . 1=1 - не динамическая инфа, 1=3-2 - динамическая инфа.
Никак не могу привыкнуть к тому, что x1
Вы правы, меняю в y 0 и 1 местами
Привет, ты хорошо разбираешься в нейросетях?
Можно и без математики, конечно будем все на пальчиках и кружочках объяснять
Добро пожаловать в 21 век. Работаем с функциями, которые удобнее задавать графом вычислений.
В мозге чем глубже сеть, тем меньше ресурсов расходуется - классический природный рационализм. Во время лжи мозг расходует неимоверное количество ресурсов, что есть неадекватным с точки зрения природы
То есть мы не природного происхождения? Ты несёшь чушь. Ложь эволюционно оправдана со всех сторон. Ложь требует больше энергии не потому, что это плохо и противит природе, а потому, что это творческий процесс с моделированием ветвлений. Так же в процессе лжи усиливается контроль над физиологией ради убедительности. И ресурсы достижимые благодаря лжи в случае успеха с лихвой окупают все затраты.
Неплохо, но имхо, Дмитрий Романов несколько более цельно и точно объясняет.
хорошие лекции. нужная практическая инфа. а что слова паразиты, так тут не занятия словесности. коллега коллегу поймёт, понятненько?
коллеги, понятно?
А инфа - не паразит, а!? ;)
думаю провалов не будет. серьезных не будет. а сми разведут панику
Игра в шахматы давно решена?? надеюсь, ему кто-нибудь расскажет о разнице шашек и шахмат..видимо, ему она неизвестна
Что значит решить игру в шахматы? В шахматы играют, а не решают их.
Биллионы - это миллиарды по-русски
Компьютер который выигрывал у человека это не нейро сеть это программы на шахматных движках а нейросеть которая выиграла у этих движков альфа зеро называлась
Да я вроде про го говорил... А за уточнение, что компьютер и программное обеспечение не одно и то же - особое спасибо.
"Если бы у нас был доступ" - colab.research.google.com
Google's Colab появился через год после лекции. Да, было время, когда его не было...
42:37 - может вы и не разобрались, но даже семь лет назад всё это было уже известно 😉
Профессор Савельев вам в помощь 😂
Поднебесный после дурки сильно изменился.
Что-то жутко подозрительное на 1 ч 7 мин. Хорошая нейронная сеть у человека не меняет активационную функцию так внезапно как нам тут велят.
Ничего непонятно, но очень интересно!
"Приходилось ли вам читать научно-популярную или учебную книгу с чувством, что вы не совсем понимаете, что в ней написано? Если да, то, скорее всего, исходя из «презумпции невиновности автора», вы вините в этом себя: за свой недостаточно высокий уровень образования, узость кругозора, отсутствие необходимых способностей. Однако правильнее было бы исходить из «презумпции собственной невиновности», так как если вы внимательно вчитываетесь, но не понимаете адресованный вам (согласно книжной аннотации) текст, то виноваты в этом не вы, а автор. Ведь он взялся написать книгу для вас, а не для самого себя или узкого круга своих коллег. Однако для доходчивого и внятного изложения материала ему не хватило логической культуры .
Что такое логическая культура? Это знание и соблюдение основных принципов и требований правильного построения и выражения мыслей как в устной, так и в письменной речи. Отсутствие такой культуры приводит к разнообразным логическим ошибкам, которые засоряют не только научное, но и повседневное мышление, мешают нам думать, общаться, понимать друг друга и самих себя. Неясность и неопределенность мышления, его непоследовательность и сумбурность, противоречивость и необоснованность является прямым результатом отсутствия должного уровня логической культуры.
Мышление, соответствующее требованиям логики, подобно прозрачному ручью: сквозь воды которого виден каждый камушек и песчинка на дне. Мышление, построенное на нарушениях логических законов, подобно мутному потоку: в нем ничего не видно. Правда, некоторые говорят, что в мутной воде удобнее «ловить рыбу», то есть строить такие высказывания и создавать такие тексты - сложные и малопонятные для адресата, - в которых внешняя глубокомысленность и наукообразность маскируют внутреннюю непоследовательность и порой - бессодержательность. Вряд ли добросовестный человек может быть сторонником такой «рыбалки»".
(Д.А.Гусев "Удивительная логика". М.:2010.,Стр.2)
Просто это для людей неплохо понимающих в математике. (я сам почти не понял ничего)
Почему у российских лекторов так много пустой болтовни. Ведь эту лекцию можно легко по смыслу втиснуть в виде 5-10 минут.
У вас их вообще нет в Узбекистане
!!!
1.10
Рассказал про "ГО" и даже не рассказывал про то что ИИ открыл" все теоремы геометрии
Теоремы геометрии были передоказаны ИИ до 1970 года. IMHO c го была решена более сложная задача... Если Вы здесь добавите про геометрию, буду благодарен. Может я что-то важное пропустил.
Спасибо, за содержание, но слушать непрятно такую речь. Тезисно набросайте на бумажке, и будет легче в два раза говорить.
не очень лекция. очень много оговорок и недоговорок. понял что пытается втюхать лектор только потому, что уже читал про это
Судя по названию вашего аккаунта, вы читаете идеальные лекции по вентиляторам.
Хорошая лекция, плохая дикция. Постоянно у него всё "что-то там какое-то", формула "какая-то", реакция "какая-то", гостодьбох "как-то", высвобождаются "какие-то" элементы, долгий подбор слов. 2:47 - nocomment. Слушать, в общем, тяжело. Видимо, у остальных есть терпение)
@@ЕвгенийВаршавский-ю4л не сотвори себе кумира)
Плохая лекция, вместо внятного пояснения общие фразы типа про "очевидные вещи", информация вырванная из контекста, без внятных пояснений, непоследовательно и скомкано. Зря потратил 1.5 часа.
Вместо нейронных сетей
russkaja-fizika.ru/sites/default/files/book/mozg._russkaya_teoriya.pdf
Уж извините, но со строчки про Высший Разум тут же перехотелось читать
ПАСЕБА
Описать одним уравнением, что воспринимает человек, как не очень понятно очередное возвращение.
Нейронные сети и ещё чего ,,дипленник,,
Реши проблему инсульта, ЧМТ,выбитые функции...
А болтать сегодня можно...и кто кого переговорит...
А по инсульту ко мне...
Да когда Савелье говорит что программисты нихера не знают как работает мозг, так оно и есть, Хотя бы книжки почитали бы.
Если бы Савельев еще что-то знал о программировании цены бы ему не было, а то ему какой-то Мойша напел про тупых программистов как и вам :)
Inbucks Wetrust программист обычная инженерная профессия и как и в любом деле глупых там больше чем умных. А нейроны в мозге вообще ни разу не нейроны в компьютере.
А причем тут какие-то среднестатистические программисты ? :) Савельев болтал о принципиальной невозможности типа "подражать" мозгу, ибо компьютеры де не той архитектуры. Дядя Савельев не в курсе, что вне зависимости от архитектуры компьютеры являются универсальными инструментами в плане вычислений... Да они могут быть более примитивны, не так шустры, без такого количества нейронов как головной мозг, с этим никто пока и не спорил :) но то что это все бесполезно и туфта(а я помню с каким пренебрежением Савельев говорил о нейросетях) Савельев брешет не разбираясь.
Я смотрю вы тоже пошли по пути Савельева, с умным видом говорить банальщину.
Кто и где и когда утверждал что модель нейрона в компьютере равна нейрону головного мозга ? :))) Модель она всегда модель, любая эмуляция чего угодно не отображает реального процесса происходящего в природе. Ну невозможно искусственно создать чисто физически часть мира имеющую понятие обо всем многообразии этого мира, в силу понятных ограничений. Но пока такие балтуны как Савельев пытаются тугодумить и понять что и как работает изнутри, компьютеры таки будут стоять на краю открытий в мире исследования как мозга так и других интересных вещей.
Конечно можно долго надувать щеки и извиняюсь хуесосить другие научные дисциплины но это не красит ученого никак :) Мне как айтишнику смешно слушать бредни Савельева про бесполезность и беспомощность компьютеров в этом вопросе.
Странно но мне хватает ума не учить Савельева мозговедению :)))
И так же любому мало мальски грамотному человеку сегодня очевидно, что компьютер это по сути микроскоп и телескоп 20 века.... это инструмент в руках многих ученых из разных сфер знаний.
Inbucks Wetrust проблема в том как преподаватель объясняет как работает нейрон. А эту всю статистическую халабуду называют нейронной сетью, ты же знаешь что это к реальности имеет отдаленное отношение. Так ты можешь сказать возьми и запили нормальный нейрон, и назови его тру нейрон, так в том то и дело что я знаю только отдаленноо как он работает и я предполагаю из-за этой подмены понятий немногие и заморачиваются . То что Савельев говорит о том что нейронные сети это примитив по сути так оно и есть, это же статистика. Кто спорит что задачи статистики ими решаются или задачи перебора, а решить теорему какую нибудь как сетью?
Знаешь я сколько не смотрел лекций и в сколково все лекторы вещают эту дичь вот так выглядит нейрон, а вот наш нейрон и типа да он почти такой же, да вот ни разу не такой, 2 признака, тело, связь и всё называем нейрон бред же.
что такое "пиксЕли"?)) это на каком языке?
ужасная лекция, лектор будто впервые этим занимается.
"вот икс, вот даблвэ, вот сумма, вот такие аппроксимирующие функции" - что? куда? явно где-то что-то упущено. А упущено само объяснение нейронов. С таким же успехом можно было начать с обратного распространения ошибки, если уж порядок неважен.
"на эр нейронки не пишут, лучше пайтон или си" .. в конце лекции: "давайте откроем эрстудио"
предлагает литературу 15-летней давности..
это я ещё молчу про косноязычие и "вот, вот, вот, вот, вот".
Лучше уж посмотреть "3Blue1Brown" по сетям. Даже в английском варианте больше информативности. Ещё и с графикой. Или в переводе от Sciberia
Ээ,ээ,ээ,ээ,ээ так режит слух.
разные модели нейронных сетей / переобученность сети / -- do you realy think, it is working the same like a human brein???
то что вы демонстрируете, это аналог нервной системы обычных рефлексов, и вы эти рефлексы обучаете как ребенок учится ходить, в данной функции никогда не родится сознание. я нашел альтернативу, на много проще чем у вас, думает, видит сны, рассуждает, и на моём домашнем ПК, ненужен супер квантовый компьютер. если интересно пишите мне я расскажу в деталях
Я отчетливо говорю: искусственные нейронные сети работают иначе, чем человеческий мозг.
очередной непризнанный гений))
Эдуард - молодец. Теперь дело за малым - возьми хотя бы MNIST - и распознай своими алгоритмами, какова будет точность на отложенной выборке? А потом попробуй ImageNet, какова будет точность на отложенной выборке там? Потом приходи сюда или на хабр, и пиши что получилось. Твои сны, мысли и рассуждения на ПК - оставь себе, пока ты не предоставил измеримые понятные результаты - они нафиг никому кроме тебя не нужны.
Лекция ужасная. Ритмика речи лектора отвратительная. С точки зрения подачи материала -100% (минус сто). Лектор "запарывает" материал. Скачет с 5го на 10е. Никакой системы. Важные моменты проскакивает никак не акцентируя и не разъясняя. У новичка от такой "лекции" будет только сумбур и каша в голове.
Если вы не понимаете, не значит, что лектор виноват. Если новичок - учи базу, почитай что-нибудь.
Что более толковое на твой взгляд есть посмотреть?
Учебник по информатике для 9-го класса.
Систематизировать информаци и подавать материал сжато и лаконично очень не просто.
ну такое, я вот новичок и всем доволен
По количеству паразитных слов делаю вывод что лектор не в теме и ближе к шаману, а не к ученому.
В этом есть правда, ибо прозвучало что нет теоремы решающей вопрос об оптимальной структуре скрытого слоя. Теоремы-то может и нет, но задача вполне решаема и без бубна методами комбинаторики и т.п. Лектор просто не заморочился задуматься, заморочившись лишь гуглением.
Это не учёный, это учитель. Не путайте. Одному дано преподавать, другому двигать науку. И не надо ставить знак равенства между вузами и НИИ. Они смежники, но заняты разными делами. Дело преподавателя (учителя) готовить кадры. Наука для вузов вторична. Для научных и научно-исследовательских заведений наоборот, учёба вторична (не везде сейчас аспирантуры есть), а наука первична. Что характерно для большинства наука прикладная, а то и вовсе задачей ставится её внедрение, а не фундаментальные исследования. И это правильно. Каждый должен заниматься своим делом. Автор явный преподаватель, это хорошо, но он не обязан быть крутым учёным.
@@OPKECTPAHT совмещать надо исследования, коммерческие заказы и преподавание. Иначе будет отрыв от реальности (вот как в этой лекции например учит тому, что давно не применяется).
Что за ахинея ? В коре около 11 млрд нейронов, в целом, до 150 млрд. Каждый нейрон от 10 тыс до миллиона синапсов. Какие биллионый нейронов?
Калька с английского. Это значит миллиард. dictionary.cambridge.org/ru/словарь/английский/billion
Это ты доктору наук советуешь?:)
Не надо цыкать, это противно. Извените
Нервные сети
Спасибо
Спасибо