Лекция 1. Нейронные сети. Теоретические результаты

Поділитися
Вставка
  • Опубліковано 21 гру 2024

КОМЕНТАРІ • 178

  • @МаксимБ-з3ю
    @МаксимБ-з3ю 6 років тому +11

    Лучший лектор из всех, которых я встречал!

  • @ВикторияДемидова-ы8ж
    @ВикторияДемидова-ы8ж 5 років тому +17

    Первое видео из многих мною просмотренных в котором числа подставили в формулы, за одно это вам поклон до земли ).

  • @11Karpovich11
    @11Karpovich11 7 років тому +53

    Отличная лекция! Большое спасибо автору и тому кто это снял и выложил!

    • @voronow3
      @voronow3 5 років тому +1

      да, толковый экскурс в историю с сопоставлением современности.

  • @nicolasray6257
    @nicolasray6257 2 роки тому +5

    Тема нейросетей для меня довольно сложная и именно этим она и привлекает. Поначалу непонятно совсем ничего, но изучая все больше материала все больше вникаешь в эту тему.

  • @NarkotikAsd
    @NarkotikAsd 3 роки тому +1

    Вот уж не думал что настолько интересно будет . Спасибо

  • @kerselkerosin
    @kerselkerosin 6 років тому +1

    Коллеги, наконец-то много полезных мелочей, а не просто стандартная медиа-модель НС!

    • @Mystery-x9m
      @Mystery-x9m 2 роки тому

      Привет, ты хорошо разбираешься в нейросетях?

  • @asianasia19
    @asianasia19 6 років тому +4

    Спасибо за материал, очень интересно. А что касается негативных комментов, то они лишний раз подтверждают, что сколько людей, столько и мнений) Видать лекции тоже на вкус и цвет)

  • @anaaa4049
    @anaaa4049 7 років тому +5

    Дождались часть два! Спасибо!

  • @igorg4129
    @igorg4129 4 роки тому +4

    Все очень достойно, доступно и понятно. Но есть одна огромная оговорка которая применима не только этому лекатору а помоему ко всем кого я слушал по теме о нейронных сетях. (кроме одного кто сообразил что с этого и надо начинать... ссылка на праведника в конце поста).
    Они все грешат тем что начинают лекцию не с того. А начинать лекцию надо со следующего вступления:
    Коллеги, когда заходит речь о решении задач регрессионного типа, есть много способов подогнать под существующие данные(точки) некую кривую- полином, с тем чтобы потом с ее помощью прогнозировать.
    Вот на вскидку пара таких широкоизвестных способов:
    Kriging
    Lowess
    Spline
    Fourier series...
    Так вот, коллеги.
    Пресловутые нейронные сети, это всего то еще один способ подогнать кривую под существующие точки. У этого метода псть много плюсов, как и недостатков. И об этом мы поговорим сегодня.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 роки тому +1

      Когда нейронная сеть долго играет с другой нейронной сетью в шахматы, обучается между делом, какие точки она подгоняет? В современных задачах идея аппроксимации начинает мешать. И регрессионные модели стали другими, например когда мы оцениваем вероятность того, что на фотографии нет кролика.

    • @igorg4129
      @igorg4129 4 роки тому +2

      @@Vadim_Abbakumov
      Точки это обзервации- т.н наблюдения. Какой бы не была заумной нейронная сеть, играла бы она в шахматы или отличала кошечек от зайчиков, все построенно именно на идее апроксимации как вы верно отметили. Если вы зададитесь вопросом а что значит слово апроксимация, и вообще что к чему апроксимируется, вы поймете о каких точках -обзервациях-наблюдениях идет речь.
      Рекомендую ознакомиться
      towardsdatascience.com/why-a-neural-network-without-non-linearity-is-just-a-glorified-line-3d-visualization-aff85da10b6a
      www.quora.com/Is-Machine-Learning-just-glorified-curve-fitting
      news.ycombinator.com/item?id=11704789

    • @mejilot
      @mejilot 3 роки тому

      Может стоит начать с того что такое задачи регрессионного типа..? Хотя может это на другом предмете проходят. Я просто совсем не шарю, а лекцию просто слушать приятно

    • @alexanderdimov7329
      @alexanderdimov7329 2 роки тому

      @@Vadim_Abbakumov она аппроксимирует функцию беллмана фактически, например, (если политика жадная)..или функцию распределения оптимальной политики в данном состоянии, правда тут уже есть стохастический выбор состояния для обучения ..а вероятностные и стохастические модели это уже к машинам больцмана и прочее, хотя они тоже аппроксимируют ..просто функцию распределения..ну или те же gan..фактически стохастические генераторы..функцию распределения аппроксимируют "фактически"

    • @Mystery-x9m
      @Mystery-x9m 2 роки тому

      Привет, ты хорошо разбираешься в нейросетях?

  • @ЗомбоЯщик-ь6о
    @ЗомбоЯщик-ь6о 6 років тому +2

    Очень хорошо для новичка. Многие моменты значительно прояснились.

    • @Mystery-x9m
      @Mystery-x9m 2 роки тому

      Привет, ты хорошо разбираешься в нейросетях?

  • @Mystery-x9m
    @Mystery-x9m 2 роки тому

    Нужен человек в команду, который хорошо разбирается в нейросетях, есть крупный проект, который имеет высокий потенциал коммерциализации

  • @sanya8158
    @sanya8158 2 роки тому +1

    Спасибо огромное за лекцию!!!

  • @MakarOff-Pro
    @MakarOff-Pro 2 роки тому

    Молодчинка!!! Спасибо ВАм!!!!

  • @СергейПоловинкин-ф1е
    @СергейПоловинкин-ф1е 6 років тому +3

    Отличная лекция. Спасибо!!!

  • @ilyastepanenko5290
    @ilyastepanenko5290 5 років тому

    Просто о сложном. очень понятно и наглядно объясняет

  • @ВолодимирФедюн
    @ВолодимирФедюн 4 роки тому +1

    Очень ясное изложение! Классно.

  • @OlegKorsak
    @OlegKorsak 3 роки тому +1

    что значит "нет графической карты "?? 👀

  • @sashabudjer5760
    @sashabudjer5760 8 місяців тому

    Интересная лекция, спасибо!

  • @Сергей-з2е4у
    @Сергей-з2е4у 4 роки тому +5

    Я всего навсего слесарь КИП и А, и это мне что-то сильно напоминает. На старых крупных котельных и на ТЭЦ регулировку техпроцесса обеспечивают аналоговые регуляторы на операционных усилителях, обычно с тремя входными импульсами от датчиков и выходом на исполнительное устройство. Это что-же, мы слесаря кип ремонтировали микро нейросети, и обучали их, настраивая коэффициенты каждого импульса (у вас - задавая веса), чтобы регулятор правильно поддерживал необходимый технологический режим.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 роки тому +1

      Во первых да, во вторых современные нейросети сами подстраиваются, а это свойство самообучения - шаг вперед

  • @xarbi.
    @xarbi. Рік тому

    Вау, удивительно, что я увидел это видел после 6 лет после публикации. Да, графическая карта... Сейчас по-моему она у каждого есть дома)

  • @zerotroll
    @zerotroll 7 років тому +2

    Отлично! Спасибо большое!

  • @manechkaification
    @manechkaification 7 років тому +11

    я правильно понимаю что часть 2 будет потихоньку выкладываться? Замечательный лектор, жаль не вживую слушаю!

    • @CompscicenterRu
      @CompscicenterRu  7 років тому +7

      Да, всё верно. Курс как раз сейчас в процессе прочтения, поэтому выкладываем видео по мере проведения лекций.

    • @Mystery-x9m
      @Mystery-x9m 2 роки тому

      Привет, ты хорошо разбираешься в нейросетях?

    • @Mystery-x9m
      @Mystery-x9m 2 роки тому +1

      @@КонстантинИсаев-л6э ну может он за пять лет стал профи

  • @yii-art
    @yii-art 6 років тому +1

    Ошибка на слайде 12:48 у пороговой функции. сравнивать надо с 0.5

  • @ЕвгенийВаршавский-ю4л

    Все предельно понятно. Спасибо!

  • @Achmd
    @Achmd 2 роки тому

    1:23:00
    Ошибка в пороговой функции. График не соответствует условиям

  • @MrRadiostep
    @MrRadiostep 3 роки тому +1

    8:39 схема то как мастерски нарисована! Дизайнер от бога рисовал.

  • @romanstirskyi
    @romanstirskyi 3 роки тому

    Подскажите пожалуйста где можно почитать про свободные члены? Зачем они нужны? Спасибо!

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 роки тому

      Без них f(0,0,0,...0) =0. Но это бессмысленное ограничение.

    • @romanstirskyi
      @romanstirskyi 3 роки тому

      @@Vadim_Abbakumov спасибо за ответ

  • @adeled8833
    @adeled8833 3 роки тому

    А архивчик что не выложили?

  • @alexk6745
    @alexk6745 3 роки тому

    41:50 А что сохраненые веса(константы) это не память?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 роки тому

      Так я именно об этом говорил

  • @ancientmysteries3224
    @ancientmysteries3224 Рік тому

    классные лекции, спасибо

  • @Syllogist
    @Syllogist 3 роки тому

    А как насчёт того, чтобы снабдить ИИ способностью мыслить? (06-04. ОСНОВЫ ПРАВИЛЬНОЙ СИЛЛОГИСТИКИ (ГЛАВНАЯ ТАЙНА И СЕМЬ СЕКРЕТОВ РАСЧЁТА AEIO-СИЛЛОГИЗМОВ): ua-cam.com/video/UL64zmluKJ8/v-deo.html) СлабО?

  • @mcdosnightmare5248
    @mcdosnightmare5248 3 роки тому

    Буду писать вопросы по ходу лекции

  • @paveldz6921
    @paveldz6921 3 роки тому +1

    Мне кажется можно придти к тому, что вообще от понятия нейронная сеть можно будет отказаться. Почему-то мне кажется, что нейтронная сеть просто реализует какой-то механизм (систему), с которым, на самом деле, можно работать иначе. Возможно у нашего мозга просто выбор был не очень большой, и он реализовал это так, но можно было и по-другому.

    • @alexanderdimov7329
      @alexanderdimov7329 2 роки тому

      это просто параметрически заданный алгоритм...

  • @adeled8833
    @adeled8833 3 роки тому

    14:38 пороговая : 1 if x>=0

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 роки тому

      Действительно, ошибся. Спасибо за поправку.

  • @rawen389
    @rawen389 Рік тому

    Потоки данных сформируют в нейросетевой модели ИИ понятия и индуктивные умозаключения, которые не будут иметь аналогов у человека. Затем последуют непредсказуемо необъяснимые действия. Но для этого нужно самообучение сети, пока же человек оценивает результаты и обучает сеть дальше продвижения не будет. Теорема Геделя в действии.

  • @victoriasemenenkoseo8143
    @victoriasemenenkoseo8143 3 роки тому

    Уже знают. И все действительно только ввиде связей. Нужны связи они существуют, не практикует особь определенный навык или информацию, связи ослабляются или разрушаются, т.е. уходят в пассив. Но при этом часто связи не исчезают вообще даже если разрушены

  • @user-virt
    @user-virt 7 років тому +1

    Спасибо!

  • @micshu1
    @micshu1 3 роки тому +1

    Нейросеть не что иное как модное название с красивыми картинками динамического программирования на суперпозициях функций. То есть получается это полиномиальная аппроксимация.

  • @mutniytip2000
    @mutniytip2000 6 років тому

    отличная лекция

  • @МихаилКозлов-ц8я
    @МихаилКозлов-ц8я 3 роки тому

    Здравствуйте. А постоянное ,,АЭ" это навсегда? Или алгоритмы не совместимы с материнкой?
    Если есть объяснение, укажите путь.
    Благодарю

  • @maxvolkov1984
    @maxvolkov1984 7 років тому

    На "осень 2017" в описании немного подзавис... Всё-таки весна, наверное.

  • @MrZlobec
    @MrZlobec 6 років тому

    Keras для R есть.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 6 років тому

      Совершенно верно, но интерфейс к Keras в R появился в сентябре 2017, а лекция читалась в феврале...

    • @jurbanhost
      @jurbanhost Рік тому

      @@Vadim_Abbakumov а сейчас, ура, есть torch - и это не обертка над pyTorch

  • @AllSC2Replays
    @AllSC2Replays 7 років тому

    25:02 . почему отсутствует связь у Х1 на схеме с одним слоем и больше?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 7 років тому +2

      У стандартной нейронной сети эта связь должна быть.
      У сети нестандартной архитектуры может и отсутствовать.
      На предыдущем слайде вопросительный знак в фразе
      "входы - от каждого (?) нейрона предыдущего слоя"
      указывает на такую возможность. Мне стоило обсудить
      это поподробнее...

  • @Steklopod
    @Steklopod 7 років тому +1

    Лекция супер! Спасибо.

  • @mishaalex1583
    @mishaalex1583 6 років тому

    Отлично!

  • @mrGrey2009
    @mrGrey2009 4 роки тому

    Крутой препод!

  • @deniskoredisko371
    @deniskoredisko371 6 років тому

    Что за хрень, как нет видяхи? Сейчас в браузере можно обучать, даже без CUDA, через WebGL (данные в текстуры, шейдер считает, результат пишется обратно в текстуру), такую оптимизацию поддерживает, например Керас.

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 6 років тому +2

      Интерфейс между R и Keras появился в сентябре 2017, лекция читалась в феврале...

  • @АлексейМеньшиков-э5ж

    как из 0,1 и -0,2 получилось 0,12?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 роки тому

      Это множители, а не слагаемые

  • @serg8483
    @serg8483 7 років тому

    Спасибо

  • @Алг-ж3д
    @Алг-ж3д 3 роки тому +1

    4:45 солаб привет
    п.с. я знаю, что его тогда не было

  • @illarionfido8751
    @illarionfido8751 7 років тому +2

    27:00 все три книжки АМЕРЕКАНЦЫ написали? видос очень интересный, жаль что универсальный язык плохо знаю

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 7 років тому +1

      1. Christopher M. Bishop и Brian D. Ripley англичане.
      2. Книга американца Семена Хайкина переведена на русский:
      Саймон Хайкин
      Нейронные сети: полный курс, 2-е издание.
      3. Без английского разбираться в анализе данных совсем тяжело.

    • @illarionfido8751
      @illarionfido8751 7 років тому +1

      Вадим Аббакумов​​ ВЕЛИКОГО и УНИВЕРСАЛЬНОГО АНГЛИЙСКОГО ЯЗЫКА ОБЩИХ ЗНАНИЙ!

    • @robosergTV
      @robosergTV 7 років тому

      без знаний англ. языка с нейронками можешь даже не начинать.

    • @Uni-Coder
      @Uni-Coder 4 роки тому

      Бишоп и Рипли? Это же из "Чужих" :)

  • @ВасяСидоров-х5х
    @ВасяСидоров-х5х 5 років тому +2

    зачем в русском переводе писать "биллионы", а не "миллиарды"?

  • @nefton001
    @nefton001 6 років тому

    почему ошибка это квадрат разницы?

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 6 років тому +1

      Небрежность речи. Ошибка это разность, сумма квадратов ошибок - критерий качества модели (Такой критерий качества - один из многих, и его популярность уменьшается )

  • @grigogiyreznichenko2033
    @grigogiyreznichenko2033 2 роки тому

    59:54 2022 а мы до сих пор гадаем где у функции стоимости глобальный минимум))

  • @АртемПодолько-ю2н
    @АртемПодолько-ю2н 2 роки тому

    Досмотрел после 1.10 уже не понятно. А так все супер 😊

  • @Leo_3_in_1
    @Leo_3_in_1 3 роки тому

    57:37 10 млн наблюдений...так кофточек столько нет)))
    Это же сколько работы по наработке базы...

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 роки тому

      Кофточек нет. А фотографий девушек в кофточках сколько захочешь.
      А база может быть из искусственных фотографий. Когда фото переделывают, и девушку "переодевают" в другой наряд.

  • @_Andrew_Parker_
    @_Andrew_Parker_ 4 роки тому

    После этого видео окончательно понял, как реализовать нейросеть

    • @hostage2951
      @hostage2951 4 роки тому +2

      Вся надежда только на тебя

  • @АлександрПетровский-я7б

    Простейшая сеть для распознавания рукописных цифр в MATLAB учится на процессоре за несколько минут (максимум за несколько десятков минут).

  • @viktorliutov7292
    @viktorliutov7292 2 роки тому

    Спасибо большое автору, но манера подачи материала некудышная, такое впечатление, что это выступление на конференции перед специалистами в данной области, а не первая лекция. Например, формулировка задачи ни как не может звучать как: -"... классическая задача исключаещего или выглядит так...и картинка из которой ничего не понятно.. и много других подобных ситуаций которые превращают просмотр лекции просто во времяпрепровождение.

  • @olgapolka168
    @olgapolka168 Рік тому

    19:39 то есть

  • @mcdosnightmare5248
    @mcdosnightmare5248 3 роки тому

    Со всем уважением буду писать возникающие вопросы по ходу лекции.
    Утверждение:
    1.- "Информации как таковой внутри нейросети нет, если не считать веса."
    Разве? Динамическая информация не информация и в нейросети не содержится?
    2.- "Мозг" думает не ячейками, "мозг" думает связями.
    Но это же не значит, что мы не можем использовать ячейки, правильно?
    Динамическая информация требует намного больше ресурсов для своего функционирования, и вряд ли эволюционный организм этот факт не заметил. Мне кажется ячейки "мозг" все-таки использует, но не для высшей нервной деятельности, а для низшей - для дыхания, потоотделения, сужения зрачков, для того что дается врожденными инстинктами, нет?

    • @Алг-ж3д
      @Алг-ж3д 3 роки тому

      а что имеется ввиду под динамической инфой?

    • @mcdosnightmare5248
      @mcdosnightmare5248 3 роки тому

      @@Алг-ж3д . 1=1 - не динамическая инфа, 1=3-2 - динамическая инфа.

  • @Oleksandr_data_science
    @Oleksandr_data_science 5 років тому

    Никак не могу привыкнуть к тому, что x1

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 5 років тому

      Вы правы, меняю в y 0 и 1 местами

    • @Mystery-x9m
      @Mystery-x9m 2 роки тому

      Привет, ты хорошо разбираешься в нейросетях?

  • @JohnLee-bo9ft
    @JohnLee-bo9ft 2 роки тому

    Можно и без математики, конечно будем все на пальчиках и кружочках объяснять

    • @Vadim_Abbakumov
      @Vadim_Abbakumov Рік тому

      Добро пожаловать в 21 век. Работаем с функциями, которые удобнее задавать графом вычислений.

  • @victoriasemenenkoseo8143
    @victoriasemenenkoseo8143 3 роки тому +1

    В мозге чем глубже сеть, тем меньше ресурсов расходуется - классический природный рационализм. Во время лжи мозг расходует неимоверное количество ресурсов, что есть неадекватным с точки зрения природы

    • @lesgrossman834
      @lesgrossman834 3 роки тому

      То есть мы не природного происхождения? Ты несёшь чушь. Ложь эволюционно оправдана со всех сторон. Ложь требует больше энергии не потому, что это плохо и противит природе, а потому, что это творческий процесс с моделированием ветвлений. Так же в процессе лжи усиливается контроль над физиологией ради убедительности. И ресурсы достижимые благодаря лжи в случае успеха с лихвой окупают все затраты.

  • @flocken70
    @flocken70 3 роки тому

    Неплохо, но имхо, Дмитрий Романов несколько более цельно и точно объясняет.

  • @natalialantukh3088
    @natalialantukh3088 5 років тому

    хорошие лекции. нужная практическая инфа. а что слова паразиты, так тут не занятия словесности. коллега коллегу поймёт, понятненько?

  • @MrKim-pt2vm
    @MrKim-pt2vm 7 років тому

    думаю провалов не будет. серьезных не будет. а сми разведут панику

  • @Математиканапять
    @Математиканапять 6 років тому

    Игра в шахматы давно решена?? надеюсь, ему кто-нибудь расскажет о разнице шашек и шахмат..видимо, ему она неизвестна

    • @ZugDuk
      @ZugDuk 5 років тому +1

      Что значит решить игру в шахматы? В шахматы играют, а не решают их.

  • @ПетяИванов-н2л
    @ПетяИванов-н2л 3 роки тому +1

    Биллионы - это миллиарды по-русски

  • @TV-bh1wo
    @TV-bh1wo 4 роки тому

    Компьютер который выигрывал у человека это не нейро сеть это программы на шахматных движках а нейросеть которая выиграла у этих движков альфа зеро называлась

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 роки тому

      Да я вроде про го говорил... А за уточнение, что компьютер и программное обеспечение не одно и то же - особое спасибо.

  • @eugenechernyshenko4933
    @eugenechernyshenko4933 4 роки тому +1

    "Если бы у нас был доступ" - colab.research.google.com

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 3 роки тому +2

      Google's Colab появился через год после лекции. Да, было время, когда его не было...

  • @сергейЛавров-у9э
    @сергейЛавров-у9э 5 місяців тому

    42:37 - может вы и не разобрались, но даже семь лет назад всё это было уже известно 😉
    Профессор Савельев вам в помощь 😂

  • @strapon8465
    @strapon8465 3 роки тому +1

    Поднебесный после дурки сильно изменился.

  • @VORONOKVA
    @VORONOKVA 2 роки тому

    Что-то жутко подозрительное на 1 ч 7 мин. Хорошая нейронная сеть у человека не меняет активационную функцию так внезапно как нам тут велят.

  • @fredhandler9489
    @fredhandler9489 4 роки тому +2

    Ничего непонятно, но очень интересно!
    "Приходилось ли вам читать научно-популярную или учебную книгу с чувством, что вы не совсем понимаете, что в ней написано? Если да, то, скорее всего, исходя из «презумпции невиновности автора», вы вините в этом себя: за свой недостаточно высокий уровень образования, узость кругозора, отсутствие необходимых способностей. Однако правильнее было бы исходить из «презумпции собственной невиновности», так как если вы внимательно вчитываетесь, но не понимаете адресованный вам (согласно книжной аннотации) текст, то виноваты в этом не вы, а автор. Ведь он взялся написать книгу для вас, а не для самого себя или узкого круга своих коллег. Однако для доходчивого и внятного изложения материала ему не хватило логической культуры .
    Что такое логическая культура? Это знание и соблюдение основных принципов и требований правильного построения и выражения мыслей как в устной, так и в письменной речи. Отсутствие такой культуры приводит к разнообразным логическим ошибкам, которые засоряют не только научное, но и повседневное мышление, мешают нам думать, общаться, понимать друг друга и самих себя. Неясность и неопределенность мышления, его непоследовательность и сумбурность, противоречивость и необоснованность является прямым результатом отсутствия должного уровня логической культуры.
    Мышление, соответствующее требованиям логики, подобно прозрачному ручью: сквозь воды которого виден каждый камушек и песчинка на дне. Мышление, построенное на нарушениях логических законов, подобно мутному потоку: в нем ничего не видно. Правда, некоторые говорят, что в мутной воде удобнее «ловить рыбу», то есть строить такие высказывания и создавать такие тексты - сложные и малопонятные для адресата, - в которых внешняя глубокомысленность и наукообразность маскируют внутреннюю непоследовательность и порой - бессодержательность. Вряд ли добросовестный человек может быть сторонником такой «рыбалки»".
    (Д.А.Гусев "Удивительная логика". М.:2010.,Стр.2)

    • @IvanIsVladimira
      @IvanIsVladimira 2 роки тому

      Просто это для людей неплохо понимающих в математике. (я сам почти не понял ничего)

  • @nodirbek3272
    @nodirbek3272 Рік тому +1

    Почему у российских лекторов так много пустой болтовни. Ведь эту лекцию можно легко по смыслу втиснуть в виде 5-10 минут.

    • @ScorpionZema
      @ScorpionZema Рік тому

      У вас их вообще нет в Узбекистане

  • @---id2el
    @---id2el 3 роки тому

    !!!

  • @Mary-xp9pe
    @Mary-xp9pe 3 роки тому

    1.10

  • @cratasthymos
    @cratasthymos 4 роки тому

    Рассказал про "ГО" и даже не рассказывал про то что ИИ открыл" все теоремы геометрии

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 4 роки тому

      Теоремы геометрии были передоказаны ИИ до 1970 года. IMHO c го была решена более сложная задача... Если Вы здесь добавите про геометрию, буду благодарен. Может я что-то важное пропустил.

  • @slavas9200
    @slavas9200 4 роки тому +5

    Спасибо, за содержание, но слушать непрятно такую речь. Тезисно набросайте на бумажке, и будет легче в два раза говорить.

  • @ventilyator
    @ventilyator 7 років тому +17

    не очень лекция. очень много оговорок и недоговорок. понял что пытается втюхать лектор только потому, что уже читал про это

    • @textreanimator
      @textreanimator 7 місяців тому +1

      Судя по названию вашего аккаунта, вы читаете идеальные лекции по вентиляторам.

  • @MelvinStudios
    @MelvinStudios 7 років тому +6

    Хорошая лекция, плохая дикция. Постоянно у него всё "что-то там какое-то", формула "какая-то", реакция "какая-то", гостодьбох "как-то", высвобождаются "какие-то" элементы, долгий подбор слов. 2:47 - nocomment. Слушать, в общем, тяжело. Видимо, у остальных есть терпение)

    • @ZugDuk
      @ZugDuk 5 років тому

      @@ЕвгенийВаршавский-ю4л не сотвори себе кумира)

  • @АлексейВасин-м2п
    @АлексейВасин-м2п 5 років тому +1

    Плохая лекция, вместо внятного пояснения общие фразы типа про "очевидные вещи", информация вырванная из контекста, без внятных пояснений, непоследовательно и скомкано. Зря потратил 1.5 часа.

  • @ВладимирАнтонов-ы6э

    Вместо нейронных сетей
    russkaja-fizika.ru/sites/default/files/book/mozg._russkaya_teoriya.pdf

    • @igorshelby5950
      @igorshelby5950 3 роки тому

      Уж извините, но со строчки про Высший Разум тут же перехотелось читать

  • @BrainOfBoltzmann
    @BrainOfBoltzmann 7 років тому

    ПАСЕБА

  • @ВладимирХаваев-й1к
    @ВладимирХаваев-й1к 5 років тому

    Описать одним уравнением, что воспринимает человек, как не очень понятно очередное возвращение.

  • @СергейКузнецов-г4ф

    Нейронные сети и ещё чего ,,дипленник,,
    Реши проблему инсульта, ЧМТ,выбитые функции...
    А болтать сегодня можно...и кто кого переговорит...
    А по инсульту ко мне...

  • @markusstainberg
    @markusstainberg 6 років тому +1

    Да когда Савелье говорит что программисты нихера не знают как работает мозг, так оно и есть, Хотя бы книжки почитали бы.

    • @inbuckswetrust7357
      @inbuckswetrust7357 6 років тому +1

      Если бы Савельев еще что-то знал о программировании цены бы ему не было, а то ему какой-то Мойша напел про тупых программистов как и вам :)

    • @markusstainberg
      @markusstainberg 6 років тому

      Inbucks Wetrust программист обычная инженерная профессия и как и в любом деле глупых там больше чем умных. А нейроны в мозге вообще ни разу не нейроны в компьютере.

    • @inbuckswetrust7357
      @inbuckswetrust7357 6 років тому +3

      А причем тут какие-то среднестатистические программисты ? :) Савельев болтал о принципиальной невозможности типа "подражать" мозгу, ибо компьютеры де не той архитектуры. Дядя Савельев не в курсе, что вне зависимости от архитектуры компьютеры являются универсальными инструментами в плане вычислений... Да они могут быть более примитивны, не так шустры, без такого количества нейронов как головной мозг, с этим никто пока и не спорил :) но то что это все бесполезно и туфта(а я помню с каким пренебрежением Савельев говорил о нейросетях) Савельев брешет не разбираясь.
      Я смотрю вы тоже пошли по пути Савельева, с умным видом говорить банальщину.
      Кто и где и когда утверждал что модель нейрона в компьютере равна нейрону головного мозга ? :))) Модель она всегда модель, любая эмуляция чего угодно не отображает реального процесса происходящего в природе. Ну невозможно искусственно создать чисто физически часть мира имеющую понятие обо всем многообразии этого мира, в силу понятных ограничений. Но пока такие балтуны как Савельев пытаются тугодумить и понять что и как работает изнутри, компьютеры таки будут стоять на краю открытий в мире исследования как мозга так и других интересных вещей.
      Конечно можно долго надувать щеки и извиняюсь хуесосить другие научные дисциплины но это не красит ученого никак :) Мне как айтишнику смешно слушать бредни Савельева про бесполезность и беспомощность компьютеров в этом вопросе.
      Странно но мне хватает ума не учить Савельева мозговедению :)))
      И так же любому мало мальски грамотному человеку сегодня очевидно, что компьютер это по сути микроскоп и телескоп 20 века.... это инструмент в руках многих ученых из разных сфер знаний.

    • @markusstainberg
      @markusstainberg 6 років тому

      Inbucks Wetrust проблема в том как преподаватель объясняет как работает нейрон. А эту всю статистическую халабуду называют нейронной сетью, ты же знаешь что это к реальности имеет отдаленное отношение. Так ты можешь сказать возьми и запили нормальный нейрон, и назови его тру нейрон, так в том то и дело что я знаю только отдаленноо как он работает и я предполагаю из-за этой подмены понятий немногие и заморачиваются . То что Савельев говорит о том что нейронные сети это примитив по сути так оно и есть, это же статистика. Кто спорит что задачи статистики ими решаются или задачи перебора, а решить теорему какую нибудь как сетью?

    • @markusstainberg
      @markusstainberg 6 років тому

      Знаешь я сколько не смотрел лекций и в сколково все лекторы вещают эту дичь вот так выглядит нейрон, а вот наш нейрон и типа да он почти такой же, да вот ни разу не такой, 2 признака, тело, связь и всё называем нейрон бред же.

  • @Achmd
    @Achmd 3 роки тому

    что такое "пиксЕли"?)) это на каком языке?
    ужасная лекция, лектор будто впервые этим занимается.
    "вот икс, вот даблвэ, вот сумма, вот такие аппроксимирующие функции" - что? куда? явно где-то что-то упущено. А упущено само объяснение нейронов. С таким же успехом можно было начать с обратного распространения ошибки, если уж порядок неважен.
    "на эр нейронки не пишут, лучше пайтон или си" .. в конце лекции: "давайте откроем эрстудио"
    предлагает литературу 15-летней давности..
    это я ещё молчу про косноязычие и "вот, вот, вот, вот, вот".
    Лучше уж посмотреть "3Blue1Brown" по сетям. Даже в английском варианте больше информативности. Ещё и с графикой. Или в переводе от Sciberia

  • @ladysoverschenstvo7875
    @ladysoverschenstvo7875 3 роки тому

    Ээ,ээ,ээ,ээ,ээ так режит слух.

  • @RomeoEdik
    @RomeoEdik 5 років тому

    разные модели нейронных сетей / переобученность сети / -- do you realy think, it is working the same like a human brein???
    то что вы демонстрируете, это аналог нервной системы обычных рефлексов, и вы эти рефлексы обучаете как ребенок учится ходить, в данной функции никогда не родится сознание. я нашел альтернативу, на много проще чем у вас, думает, видит сны, рассуждает, и на моём домашнем ПК, ненужен супер квантовый компьютер. если интересно пишите мне я расскажу в деталях

    • @Vadim_Abbakumov
      @Vadim_Abbakumov 5 років тому

      Я отчетливо говорю: искусственные нейронные сети работают иначе, чем человеческий мозг.

    • @ZugDuk
      @ZugDuk 5 років тому +1

      очередной непризнанный гений))

    • @kolomasov
      @kolomasov 4 роки тому

      Эдуард - молодец. Теперь дело за малым - возьми хотя бы MNIST - и распознай своими алгоритмами, какова будет точность на отложенной выборке? А потом попробуй ImageNet, какова будет точность на отложенной выборке там? Потом приходи сюда или на хабр, и пиши что получилось. Твои сны, мысли и рассуждения на ПК - оставь себе, пока ты не предоставил измеримые понятные результаты - они нафиг никому кроме тебя не нужны.

  • @rustam.u.valiev
    @rustam.u.valiev 7 років тому +17

    Лекция ужасная. Ритмика речи лектора отвратительная. С точки зрения подачи материала -100% (минус сто). Лектор "запарывает" материал. Скачет с 5го на 10е. Никакой системы. Важные моменты проскакивает никак не акцентируя и не разъясняя. У новичка от такой "лекции" будет только сумбур и каша в голове.

    • @АлексейК-х9з
      @АлексейК-х9з 7 років тому +4

      Если вы не понимаете, не значит, что лектор виноват. Если новичок - учи базу, почитай что-нибудь.

    • @markusstainberg
      @markusstainberg 6 років тому

      Что более толковое на твой взгляд есть посмотреть?

    • @NatalyaMakarova.sociologist
      @NatalyaMakarova.sociologist 6 років тому

      Учебник по информатике для 9-го класса.

    • @Япохожнакота
      @Япохожнакота 6 років тому

      Систематизировать информаци и подавать материал сжато и лаконично очень не просто.

    • @mutniytip2000
      @mutniytip2000 6 років тому

      ну такое, я вот новичок и всем доволен

  • @a.o.yaroslavov
    @a.o.yaroslavov 7 років тому +6

    По количеству паразитных слов делаю вывод что лектор не в теме и ближе к шаману, а не к ученому.

    • @kerselkerosin
      @kerselkerosin 6 років тому

      В этом есть правда, ибо прозвучало что нет теоремы решающей вопрос об оптимальной структуре скрытого слоя. Теоремы-то может и нет, но задача вполне решаема и без бубна методами комбинаторики и т.п. Лектор просто не заморочился задуматься, заморочившись лишь гуглением.

    • @OPKECTPAHT
      @OPKECTPAHT 6 років тому +2

      Это не учёный, это учитель. Не путайте. Одному дано преподавать, другому двигать науку. И не надо ставить знак равенства между вузами и НИИ. Они смежники, но заняты разными делами. Дело преподавателя (учителя) готовить кадры. Наука для вузов вторична. Для научных и научно-исследовательских заведений наоборот, учёба вторична (не везде сейчас аспирантуры есть), а наука первична. Что характерно для большинства наука прикладная, а то и вовсе задачей ставится её внедрение, а не фундаментальные исследования. И это правильно. Каждый должен заниматься своим делом. Автор явный преподаватель, это хорошо, но он не обязан быть крутым учёным.

    • @ZugDuk
      @ZugDuk 5 років тому

      @@OPKECTPAHT совмещать надо исследования, коммерческие заказы и преподавание. Иначе будет отрыв от реальности (вот как в этой лекции например учит тому, что давно не применяется).

  • @paulvlasov7087
    @paulvlasov7087 5 років тому +1

    Что за ахинея ? В коре около 11 млрд нейронов, в целом, до 150 млрд. Каждый нейрон от 10 тыс до миллиона синапсов. Какие биллионый нейронов?

    • @vladimir_zenin
      @vladimir_zenin 4 роки тому

      Калька с английского. Это значит миллиард. dictionary.cambridge.org/ru/словарь/английский/billion

    • @paulvlasov7087
      @paulvlasov7087 4 роки тому

      Это ты доктору наук советуешь?:)

  • @АртурСафиулин-т5в
    @АртурСафиулин-т5в 5 років тому

    Не надо цыкать, это противно. Извените

  • @uporka6924
    @uporka6924 Рік тому

    Нервные сети

  • @Dolphinqwe
    @Dolphinqwe 5 років тому

    Спасибо

  • @anjukdakar989
    @anjukdakar989 3 роки тому

    Спасибо