Введение в Deep Learning | Григорий Сапунов (Intento)

Поділитися
Вставка
  • Опубліковано 22 гру 2024

КОМЕНТАРІ • 41

  • @palyura1162
    @palyura1162 7 років тому +30

    Спасибо. Все так класно объясняет. Побольше бы таких видео.

  • @elenasaht1379
    @elenasaht1379 4 роки тому +1

    Прочла комментарии. Искренне захотелось верить, что сидящие в зале были другими (сложно, много матана...прочее). А лекция вполне хороша для вводного обзора

  • @scariestscary1090
    @scariestscary1090 3 роки тому +1

    Не знаю, кто как, но для меня изучающего нейросети в течении 3 часов , лекция очень понятна)))
    Осталось научить сеть прописывать/переписывать себе новые блоки и архитектуруи и организовать внутри себя нейронные связки памяти.

  • @Ridick-Furian
    @Ridick-Furian 11 місяців тому +1

    Респект

  • @МихаилЮрков-т1э
    @МихаилЮрков-т1э 6 років тому +7

    Спасибо за видео. Не смотря на продолжительность, смотрится легко. Выложите пожалуйста презентацию иди хотя бы ссылки из неё.

    • @bioinforussia
      @bioinforussia  6 років тому +7

      Ссылки на все слады школы 2017: bioinformaticsinstitute.ru/summer2017/slides

    • @МихаилЮрков-т1э
      @МихаилЮрков-т1э 6 років тому

      Институт биоинформатики Спасибо большое!

    • @loradolores
      @loradolores 3 роки тому

      @@bioinforussia Эта ссылка уже устарела. Не могли бы обновить?

    • @artemykrylov
      @artemykrylov 2 роки тому

      @@loradolores edu.bioinf.me/files/vvedenie_v_deep_learning.pdf

  • @daniiltroshkov6081
    @daniiltroshkov6081 2 роки тому

    Хорошая лекция! Как я понял, четыре года прошло. Хочется еще апдейта со State Of Art. Если есть у кого линки на похожий современный материал, делитесь, плиз...

  • @ivanesan5235
    @ivanesan5235 3 роки тому

    Очень доступно и интересно! Спасибо за контент!

  • @warnalexfrost605
    @warnalexfrost605 3 роки тому +1

    Сложно слооожно , много математики
    Зверский доклад
    Огонь

  • @artemykrylov
    @artemykrylov 2 роки тому +1

    Слайды: edu.bioinf.me/files/vvedenie_v_deep_learning.pdf

  • @TheMitPitt
    @TheMitPitt 4 роки тому +24

    Комментаторы к этому видео пытаются обучить нейросеть?

    • @eRatube
      @eRatube 3 роки тому +3

      Это нейросети комментировали)

  • @klev1983
    @klev1983 6 років тому +1

    Нормально так пробежались по машинному обучению

  • @johnsfppanthonyvtw1387
    @johnsfppanthonyvtw1387 4 роки тому

    Нормально так пробежались по машинному обучению
    Сложно сложно , мнооого математики

  • @ЮрийПредбанников
    @ЮрийПредбанников 3 роки тому

    ну я этот пример где-то слышал, про отличие кошки от собаки для трёх летнего ребёнка, но там вроде речь была про простоту запоминания, то-есть, трёхлетнему покажи на пару сек и он запомнит и скорее всего распознает другой вид кошки, а компьютеру обучаться долго надо и иметь не одну картинку а целый дата сет. Но если про скорость говорить, то да это понятие не соответствует действительности, так как всё зависит от ресурсов вычислительных

  • @illuzkameluz
    @illuzkameluz 4 роки тому +15

    Зверский доклад

  • @s.nielsenkeith3684
    @s.nielsenkeith3684 4 роки тому

    Сложно сложно , мнооого математики
    Зверский доклад
    просмотрела 40 минут и ничего не поняла

    • @elenasaht1379
      @elenasaht1379 4 роки тому

      Вроде уровня первого курса любого техничего вуза.

  • @maratzvizdets1208
    @maratzvizdets1208 4 роки тому +1

    я знаю кун-фу!
    А вообще нормально так пробежались по машинному обучению, хоть и сложно сложно , мнооого математики.
    Про что вообще лекция была?

  • @a.bibbspatricia2839
    @a.bibbspatricia2839 4 роки тому +1

    Сложно сложно , мнооого математики
    Зверский доклад

  • @ZugDuk
    @ZugDuk 5 років тому +1

    Я не понял, нейросеть умеет считать? А она умеет рисовать график? Умеет рисовать линии на графике?
    Про что вообще лекция была?

    • @ВасяПетров-п1з
      @ВасяПетров-п1з 2 роки тому

      А зачем? Графики прекрасно рисует обычный алгоритм.

  • @mrGrey2009
    @mrGrey2009 4 роки тому

    Сложно стригся 40 минут, пробежался по зверям, множественная математика

  • @relicthominide5546
    @relicthominide5546 7 років тому +3

    Мой процессор восьмилетней давности в два раза медленнее чем такой же в современной линейке. Какие 1000 раз за 10 лет?) Закон Мура давно не работает.

    • @bnbr8100
      @bnbr8100 7 років тому +8

      внимательней слушайте, процессор и вычислительные мощности понятия не совсем идентичные

    • @relicthominide5546
      @relicthominide5546 7 років тому

      А что, вычисления уже чем-то другим производятся? В видеокартах - не процессор? DSP - не процессор?)) Упомянутый закон Мура не работает даже в буквальном изложении, как количество транзисторов на площадь, это факт. А уж в практическом тем более.

    • @bnbr8100
      @bnbr8100 7 років тому +6

      Почитайте про архитектуры процессоров, много полезного узнаете. Ваш процессор и к примеру специализированный ASIC под нейронки, недавно произведенный гуглами TPU, нельзя "сравнивать в лоб". Выщислительная мощность при равном колличестве транзисторов на кристалле будет существенно разная для разных задач. Или взять программируемые плис, их процессором в обывательском понятии вообще назвать нельзя. То, что плотность, с которой вытравливают на подложках транзисторы на кристалах микросхем уперлась в несколько нанометров, не говорит о том, что достигнут предел развития процессоров. Закон мура не о технологии производства. Просто Мур в свое время интерпретировал эмпирическую зависимость производительности по колличеству транзисторов, так и было - росла плотность - росла частота - росла производительность. Других идей не было у него. Зависимость осталась, но интерпретировать ее уже надо по другому, а название осталось.

    • @relicthominide5546
      @relicthominide5546 7 років тому +3

      Нет уж попрошу, Закон Мура - это закон Мура. Он не работает. Не надо сову на глобус натягивать, как бы мы теперь имеем в виду под законом Мура что-то другое, а не закон Мура. Математическая производительность процессоров также почти не выросла за последние десять лет, ни о какой 1000 раз уж точно тут речи не идет. А что мы теперь на этой математической мощности иногда считаем что-то другое и по-другому, на других алгоритмах и при помощи специализированных архитектур, которые выполняют какие-то задачи лучше чем процессоры общего назначения - это совсем другой вопрос, который к закону Мура ровным счетом никакого отноршения не имеет.
      Так что это вы лучше пойдите что-нибудь почитайте))

    • @bnbr8100
      @bnbr8100 7 років тому +7

      Походу что-то объяснять человеку нет смысла, если он черное видит белым. Те вычисления, которые мог провести ваш процессор имея в своей структуре N транзисторов, не медленнее в 2 раза процессора абсолютно другой архитектуры имеющего 2*N транзисторов. Так понятнее? Вычислительные мощности растут по закону мура а не мощность вычислений частного случая реализованного на основе какого либо одного процессора. Лектор имел ввиду это, говоря что те алгоритмы которые еще сейчас не представляется возможным общитать, уже через десять лет будут реализовываться на обычном персональном компьютере.

  • @sashausb1
    @sashausb1 6 років тому

    просмотрела 40 минут и ничего не поняла