Вадим Леонардович, хочу поблагодарить вас за этот прекрасный курс! Благодаря Вам, получил работу в сфере Data Science, Спасибо Вам большое! Вы преподаватель от Бога!
Ну что могу сказать, в сентябре выхожу data-аналитиком на новую работу :), до этого 6 лет java enterprise, готовился по Вашим лекциям. Жаль, на матмехе СПбГУ не удалось попасть к Вам на курс. Надеюсь карма в мире есть, поэтому желаю всех благ. Спасибо Вам, Вадим Леонардович.
Глубокое замечание на 35:25, ведь действительно, мы используем классификаторы для конкретного порога, а roc-auc-и сравниваются по всем возможным. В этом смысле F_beta гораздо осмысленнее.
Я вот вспоминаю как нам преподавали курс по ML в универе и у меня появляется чувство что меня обплевали, препод приходил на пару говорил "открывайте учебник и читайте" и уходил пить чай. Вот бы все преподы рассказывали материал как Вадим Леонардович
Возможно ли, что вычисление частичной площади под кривой (только для тех порогов, которые реально будут использоваться) решит задачу корректного сравнения классификаторов с помощью AUC? И «красный» классификатор, у которого AUC, вычисленный по всем порогам, меньше, чем у «чёрного», станет лучше по частичной AUC?
Вадим Леонардович, хочу поблагодарить вас за этот прекрасный курс! Благодаря Вам, получил работу в сфере Data Science, Спасибо Вам большое! Вы преподаватель от Бога!
Удачи! Поздравляю! Спасибо за теплые слова
Ну что могу сказать, в сентябре выхожу data-аналитиком на новую работу :), до этого 6 лет java enterprise, готовился по Вашим лекциям. Жаль, на матмехе СПбГУ не удалось попасть к Вам на курс. Надеюсь карма в мире есть, поэтому желаю всех благ.
Спасибо Вам, Вадим Леонардович.
И Вам спасибо, удачи!
Time code. Теория начинается с 9:20
Прекрасное видео, только благодаря этой лекции и гайда с coderlessons смог сделать практическую работу в универе.
Глубокое замечание на 35:25, ведь действительно, мы используем классификаторы для конкретного порога, а roc-auc-и сравниваются по всем возможным. В этом смысле F_beta гораздо осмысленнее.
Я вот вспоминаю как нам преподавали курс по ML в универе и у меня появляется чувство что меня обплевали, препод приходил на пару говорил "открывайте учебник и читайте" и уходил пить чай. Вот бы все преподы рассказывали материал как Вадим Леонардович
Если бы преподов тоже получали 200+
Возможно ли, что вычисление частичной площади под кривой (только для тех порогов, которые реально будут использоваться) решит задачу корректного сравнения классификаторов с помощью AUC? И «красный» классификатор, у которого AUC, вычисленный по всем порогам, меньше, чем у «чёрного», станет лучше по частичной AUC?
Затрудняюсь с ответом
А для каких "тех" порогов? Порог использоваться будет только один, и их сравнение это и есть сравнение расстояния до 1
спасибо за курс!
ссылка на сайте ведет на 11 лекцию, вместо 12
Спасибо огромное! Поправили
Коллеги понятно
Звук тихий