Введение в машинное обучение | Григорий Сапунов (Intento)

Поділитися
Вставка
  • Опубліковано 1 сер 2017
  • Летняя школа по биоинформатике: bioinformaticsinstitute.ru/sum...
    Краткое введение в основы машинного обучения. Терминология, виды задач, решаемых машинным обучением. Этапы процесса машинного обучения, виды моделей и метрики качества.
    Институт биоинформатики: bioinf.me

КОМЕНТАРІ • 6

  • @vasilys9776
    @vasilys9776 3 роки тому

    Лектор очень толково доносить материал. Спасибо.

  • @Jingotube
    @Jingotube 4 роки тому

    отличная лекция!

  • @NikolaiZolotykh
    @NikolaiZolotykh 4 роки тому

    Хорошая лекция.
    Автор оговорился: чем больше k в методе ближайших соседей, тем МЕНЕЕ сложная граница получается (а не более)

  • @Anastasia-qm7oz
    @Anastasia-qm7oz 4 роки тому

    👍

  • @IgorDataScience
    @IgorDataScience 6 років тому

    Утверждение о том, что логит проигрывает ВСЕГДА на большом количестве данных, это неправда. Лектор обманывает сознательно или по не знанию? 32:00

    • @GrigorySapunov
      @GrigorySapunov 6 років тому +11

      Там не это говорится, там говорится, что на большом количестве данных более сложные алгоритмы имеют больше шансов обойти более простые (логрегрессию). Слова ВСЕГДА там нет вообще.