ПЕРЕОБУЧЕНИЕ И НЕДООБУЧЕНИЕ В МАШИННОМ ОБУЧЕНИИ | overfitting, underfitting для регрессии

Поділитися
Вставка
  • Опубліковано 14 жов 2024

КОМЕНТАРІ • 20

  • @catlilface
    @catlilface 2 роки тому +8

    Как же я тебя обожаю! Самый крутой канал с самыми понятными объяснениями машинки!

  • @Denzi33
    @Denzi33 Рік тому

    Солнышко, заячка, дай Бог здоровья Тебе.

  • @Anton16180
    @Anton16180 2 роки тому +7

    Лучший канал по теме ML
    Спасибо!

  • @TheRudolfSchnaps
    @TheRudolfSchnaps Рік тому

    Сразу видно университетского преподавателя! Аплодирую!

  • @lidok1553
    @lidok1553 2 роки тому +4

    Очень классный ролик! Все доступно рассказано и показано. Спасибо за то, что делаете это для нас

  • @jackma2760
    @jackma2760 2 роки тому +1

    Ты потрясающая преподаватель)

  • @IvanSedov-i7f
    @IvanSedov-i7f Рік тому +2

    Большое спасибо!

  • @datorikai9911
    @datorikai9911 2 роки тому +1

    Спасибо, удачи на продолжение

  • @Rich-yj7gr
    @Rich-yj7gr Рік тому

    немного поначалу резало слух "модельКА" (на вкус и цвет... как говорится), но по качеству объяснения безупречно, спасибо

  • @doniyordjon_pro
    @doniyordjon_pro Рік тому

    Про матплотлиб сиборн и плотли что нибудь будет? Очень жду

  • @datorikai9911
    @datorikai9911 2 роки тому +1

    Супер

  • @parvizyuldashev4668
    @parvizyuldashev4668 2 роки тому

    Классное объяснение!
    Можете объяснить как именно рисовать закон обучения модели или дать ссылку на статью?

    • @machine_learrrning
      @machine_learrrning  2 роки тому +1

      Нарисовать такой закон можно, если у вас есть только один или два признака, чтобы визуализация получилась в 2D или 3D
      Вот есть небольшой пример по визуализации предсказаний линейной модели: scikit-learn.org/stable/auto_examples/linear_model/plot_ols.html#sphx-glr-auto-examples-linear-model-plot-ols-py

  • @НастяАфанасьева-щ2ь

    Спасибо

  • @kirill_prog
    @kirill_prog Рік тому

    А почему Вы всегда X большой пишите, а y маленький?

    • @freedomtv2295
      @freedomtv2295 4 місяці тому

      может уже не актуельно, на Х это по своей природе матрица(матрица фичей) а у по своей природе вектор, таким образом мы хотим показать разницу между структурой объектов

  • @ДмитрийЧерепов-л9ч

    В голову приходит запихнуть модель в цикл с подбором оптимального колличества вопросов

    • @machine_learrrning
      @machine_learrrning  2 роки тому +1

      Или же воспользоваться GridSearchCV из sklearn, чтобы не руками всё это обучать :)

  • @firewick3723
    @firewick3723 2 роки тому

    Старого пса новым трюкам не обучишь!

  • @firewick3723
    @firewick3723 2 роки тому

    11:56 Когда она начинает искать свои зависимости значит сеть развивается правильно и она умнее её создателей, которые обрубают её говоря что это переобучение.
    Короче ясно - переобучением называют появление интеллекта. А кто называет? Недообученные недопрограммситы.