Machine Learning Phystech
Machine Learning Phystech
  • 1 029
  • 545 567

Відео

Тематическое моделирование. Лекция 13 осень 2024.
Переглядів 9721 день тому
Тематическое моделирование. Лекция 13 осень 2024.
Тематическое моделирование. Лекция 12 осень 2024.
Переглядів 6521 день тому
Тематическое моделирование. Лекция 12 осень 2024.
Тематическое моделирование. Лекция 11 осень 2024.
Переглядів 88Місяць тому
Тематическое моделирование. Лекция 11 осень 2024.
Интеллектуальный анализ данных. Лекция 9, осень 2024.
Переглядів 88Місяць тому
Get busy living or get busy dying.
Тематическое моделирование. Лекция 10 осень 2024.
Переглядів 61Місяць тому
Тематическое моделирование. Лекция 10 осень 2024.
Обработка сигналов. Лекция 6, осень 2024.
Переглядів 101Місяць тому
Обработка сигналов. Лекция 6, осень 2024.
Обработка сигналов. Семинар 4, осень 2024.
Переглядів 42Місяць тому
Обработка сигналов. Семинар 4, осень 2024.
Тематическое моделирование. Лекция 9 осень 2024.
Переглядів 108Місяць тому
Тематическое моделирование. Лекция 9 осень 2024.
Интеллектуальный анализ данных. Лекция 8, осень 2024.
Переглядів 138Місяць тому
Интеллектуальный анализ данных. Лекция 8, осень 2024.
Тематическое моделирование. Лекция 8 осень 2024.
Переглядів 61Місяць тому
Тематическое моделирование. Лекция 8 осень 2024.
Обработка сигналов. Лекция 5, осень 2024.
Переглядів 1532 місяці тому
Обработка сигналов. Лекция 5, осень 2024.
Интеллектуальный анализ данных. Лекция 7, осень 2024.
Переглядів 902 місяці тому
Интеллектуальный анализ данных. Лекция 7, осень 2024.
Тематическое моделирование. Лекция 7 осень 2024.
Переглядів 892 місяці тому
Тематическое моделирование. Лекция 7 осень 2024.
Тематическое моделирование. Лекция 6 осень 2024.
Переглядів 992 місяці тому
Тематическое моделирование. Лекция 6 осень 2024.
Интеллектуальный анализ данных. Лекция 6, осень 2024.
Переглядів 1552 місяці тому
Интеллектуальный анализ данных. Лекция 6, осень 2024.
Обработка сигналов. Cеминар 3, осень 2024
Переглядів 1242 місяці тому
Обработка сигналов. Cеминар 3, осень 2024
Тематическое моделирование. Лекция 4, осень 2024.
Переглядів 1022 місяці тому
Тематическое моделирование. Лекция 4, осень 2024.
Обработка сигналов. Лекция 4, осень 2024.
Переглядів 1232 місяці тому
Обработка сигналов. Лекция 4, осень 2024.
Обработка сигналов. Лекция 3, осень 2024.
Переглядів 1412 місяці тому
Обработка сигналов. Лекция 3, осень 2024.
Тематическое моделирование. Лекция 3, осень 2024.
Переглядів 1232 місяці тому
Тематическое моделирование. Лекция 3, осень 2024.
Интеллектуальный анализ данных. Лекция 4, осень 2024.
Переглядів 2012 місяці тому
Интеллектуальный анализ данных. Лекция 4, осень 2024.
Интеллектуальный анализ данных. Лекция 3, осень 2024.
Переглядів 1313 місяці тому
Интеллектуальный анализ данных. Лекция 3, осень 2024.
Тематическое моделирование. Лекция 2, осень 2024.
Переглядів 653 місяці тому
Тематическое моделирование. Лекция 2, осень 2024.
Обработка сигналов. Cеминар 2, осень 2024
Переглядів 653 місяці тому
Обработка сигналов. Cеминар 2, осень 2024
Интеллектуальный анализ данных. Лекция 2, осень 2024.
Переглядів 1983 місяці тому
Интеллектуальный анализ данных. Лекция 2, осень 2024.
Обработка сигналов. Лекция 2, осень 2024.
Переглядів 1283 місяці тому
Обработка сигналов. Лекция 2, осень 2024.
Тематическое моделирование. Лекция 1, осень 2024.
Переглядів 2753 місяці тому
Тематическое моделирование. Лекция 1, осень 2024.
Обработка сигналов. Cеминар 1, осень 2024
Переглядів 1763 місяці тому
Обработка сигналов. Cеминар 1, осень 2024
Обработка сигналов. Лекция 1, осень 2024.
Переглядів 3393 місяці тому
Обработка сигналов. Лекция 1, осень 2024.

КОМЕНТАРІ

  • @slavapotapon
    @slavapotapon День тому

    Здравствуйте, верно ли, что функцию СофтМакс мы получаем, устанавливая эквивалентность "вероятностная модель" -- "функция принятия решения + функция потерь" в случае многоклассовой логистической регрессии, беря линейную "функцию принятия решений" a(x) = arg\max_{y\in Y}\left<x, w_y ight> и следующую "функцию потерь": Loss_i(W) = log \left( 1 + \sum_{z eq y_i} e^{-\left<x_i,w_i-w_z ight>} ight) ? Т. е. на сайте курса в актуальных к этой лекции слайдах (на 26-ом слайде) просто опущена эта же функция потерь ? Если так, то это идёт несколько в разрез к 5-ому слайду , где говорится, что потери на i-ом объекте (в случае нескольких классов) мы ограничиваем сверху СУММОЙ монотонно убывающих функций L от отступа i-ого объекта от каждого класса. А предложенная выше Loss_i(W) -- логарифм суммы, который не разбивается в СУММУ функций L от соответствующих отступов. Как быть ?

    • @slavapotapon
      @slavapotapon День тому

      единичка в логарифме = пропущенное в стоящей справа сумме слагаемое при z как раз равному y_i

  • @AnaB-l7b
    @AnaB-l7b 28 днів тому

    Прекрасный лектор! Наглядная презентация. Спасибо большое!

  • @ДмитрийСтюарт
    @ДмитрийСтюарт Місяць тому

    Чел вообще знает машинное обучение?

  • @aramuradyan2138
    @aramuradyan2138 Місяць тому

    К какому плейлисту относится?

    • @edyarich
      @edyarich Місяць тому

      [ИАД, осень 2024] Методы глубокого обучения

    • @aramuradyan2138
      @aramuradyan2138 Місяць тому

      @@edyarich но туда еще не включен, получается?

    • @edyarich
      @edyarich Місяць тому

      @@aramuradyan2138 всё так

  • @pronobible
    @pronobible Місяць тому

    тематическое моделирование? пикантно😎

  • @zkprintf
    @zkprintf Місяць тому

    Задача 2: 1:23 (выпуклость мн-в) Задача 4: 31:38 (субградиент) Задача 5: 45:43 (сопряжённые множества) Задача 6: 1:14:38 (сопряжённые ф-ии) Задача 7: 1:37:50 (двойственная задача) Задача 8: 2:12:18 (ККТ) Задача 1: 2:40:21 (дифференцирование) Задача 3: 2:48:28 (выпуклость ф-й) Задача 9: 2:50:58 (константа гладкости) Задача 10: 2:57:59 (градиентный спуск) Задача 12: 2:59:52 (метод Франк-Вульфа) Задача 11: 3:04:49 (метод Ньютона)

  • @GalaBas15
    @GalaBas15 Місяць тому

    Спасибо! Очень полезная информация!

  • @chuuhan1
    @chuuhan1 Місяць тому

    Спасибо большое!

  • @maryamergasheva6024
    @maryamergasheva6024 2 місяці тому

    32:32, Скажите пожалуйста, подобные таблицы нужно где-то хранить или они формируются на лету, в процессе работы алгоритма?

  • @бегокна
    @бегокна 2 місяці тому

    то тут то там меняется понятие о том, что такое выборка: это подмножество объектов X ({x1, x2, ..., xl}) или же множество пар объект-ответ ((xi, yi)). что же всё-таки такое выборка?

  • @ГерманРыков-ъ6в
    @ГерманРыков-ъ6в 2 місяці тому

    Вот в какие времена живем. Лекции лучшего ВУЗ страны по самой востребованной специальности и совершенно бесплатно. На огрехи все равно.

  • @aramuradyan2138
    @aramuradyan2138 2 місяці тому

    Отличный преподаватель! Он семинары не ведет?

  • @ДмитрийМартынов-ф5н
    @ДмитрийМартынов-ф5н 3 місяці тому

    А можно ссылку на ноутбук плиз

  • @kenkeles
    @kenkeles 3 місяці тому

    сразу скажу если вы в математике ноль, то урок не для Вас, сначала надо вообще самые азы изучить

    • @Engineering_systems1
      @Engineering_systems1 Місяць тому

      Ну конечно, этож физтех, как минимум полнеценные курсы линала, матана и теорвера уже должны быть в голове

    • @kenkeles
      @kenkeles Місяць тому

      @@Engineering_systems1 да, я просто написал для тех кто захотел войти в машинное обучение, но совсем не бум-бум

  • @АлександрПетровский-я7б

    Чья-то соска ...

  • @АлексейБойко-ш5е
    @АлексейБойко-ш5е 3 місяці тому

    Прекрасные лекции и просто ужаснейшие семинары... Орфографические, морфологические, математические, технические ошибки... Не говоря уже о том, что сам руководитель занятия путается на каждом шагу... Ощущение, что он вчера сдал экзамен, а сегодня его поставили преподавать... Хотя, я думаю так и есть...

  • @Dalavir
    @Dalavir 4 місяці тому

    Просто фантастические лекции, спасибо Леониду. Жалко, что он не увидит...

  • @Dalavir
    @Dalavir 4 місяці тому

    Отличные лекции! Не стоит флейтисту стесняться 🙂

  • @Dalavir
    @Dalavir 4 місяці тому

    как интересно, какие были алгоритмы выпрямления, после обнаружения точек решётки

  • @АлексейКузин-х2ы
    @АлексейКузин-х2ы 4 місяці тому

    Почему-то не работает ссылка

  • @AlexanderSteinitz-b1y
    @AlexanderSteinitz-b1y 4 місяці тому

    Я понимаю тех ребят, которые не любят Anaconda, во-первых весит 15 гб, во вторых мне часто нужен лишь отдельно Jupyter Notebook и только те библиотеки, которые я хочу себе поставить

  • @Rodious
    @Rodious 4 місяці тому

    Рекомендательные системы Ютуба порекомендовали мне это видео, когда я захотел научиться рекомендовательным системам😄

  • @tatianavovk5898
    @tatianavovk5898 4 місяці тому

    Жаль связь прерывается. Тем не менее, лекции шикарные, очень информативно и системно, спасибо большое!

  • @maxwar1113
    @maxwar1113 5 місяців тому

    Огромное спасибо за труд, но у меня потёк мозг при просмотре, надо было учить математику :D

  • @ingaochneva1564
    @ingaochneva1564 5 місяців тому

    Слайды очень тяжело понимать. Лектор не проговаривает, что скрывается за аббревиатурами в названиях формул, и далеко не все они легко гуглятся. В самих пояснениях тоже тяжело разобраться. Например слайд на 19:13 : написано, что k_u is the average rank of items by u. Мало того, что у этой текстовой формулировки совершенно неочевидное формульное представление, так такая переменная вообще не используется ни на одной формуле на слайде.

    • @ingaochneva1564
      @ingaochneva1564 5 місяців тому

      на том же слайде в последней формуле что такое индекс j? Хочется заменить на i.

  • @SmadyarovBerik
    @SmadyarovBerik 5 місяців тому

    Если кто хочет дослушать рассказ про нелинейное ансамблирование то вот та же лекция только для ВМК МГУ - ua-cam.com/video/KCi3rzwJohs/v-deo.html

  • @SmadyarovBerik
    @SmadyarovBerik 5 місяців тому

    Парень в начале к-ый задавал вопросы - спасибо тебе большое)

  • @Dalavir
    @Dalavir 6 місяців тому

    Очень приятный лектор, придётся слушать лекции :-)

  • @ИгорьСмороди
    @ИгорьСмороди 6 місяців тому

    Это точно бакалавры?

    • @MachineLearningIS
      @MachineLearningIS 6 місяців тому

      Давайте проверим. Те, кто претендуют на приемлемую оценку, публикуют свои результаты в научных журналах. Это означает принятие их результатов научным сообществом. Достаточное условие для получения степени бакалавра. Получается, это они.

  • @dimitribolt9172
    @dimitribolt9172 6 місяців тому

    Если не сложно - выложите, пожалуйста саму презентацию. А также ссылки на все отригинальные статьи, на которые вы ссылаетесь. Спасибо.

  • @user-mp7il3je9d
    @user-mp7il3je9d 7 місяців тому

    А на каком моменте говорили про "штраф за приближение к границе классов" (4ый пункт последнего слайда), я как-то не могу найти.

    • @ЗакарянАрсен
      @ЗакарянАрсен 6 місяців тому

      6 слайд, примерно 11:58. Если присмотритесь, некоторые функции ненулевые даже при небольшом положительном отступе, как квадратичная, например (светло-зеленая), это и значит штраф за приближение к границе

    • @user-mp7il3je9d
      @user-mp7il3je9d 6 місяців тому

      ​@@ЗакарянАрсенпремного благодарен

  • @TAF3000
    @TAF3000 8 місяців тому

    попалось в рекомендациях, проматал чисто по интересу, и во фласке есть аналог pydantic называет marshmellow(и датакалссы можете юзать и вообще это дело вкуса) спеку тоже можно генерить и сам Pydantic тоже можете использовать, по нагрузке flask тоже справляется не плохо, и в нём уже вроде как тоже завезли асинхронщину(но это не точно или скоро завезут), а если у вас крутится модель в фастапи, то асинхронщина вам не поможет и можно смело использовать фласк, есть cpu и io задачи, и модель ml как раз cpu задача, и во фласке тоже можно несколько инстансов запускать, вообщем жопа подгорела и я написал

  • @korifey24
    @korifey24 8 місяців тому

  • @dmitryivlev850
    @dmitryivlev850 9 місяців тому

    Когда назвали математическую статистику модными словами

  • @_artexxx
    @_artexxx 9 місяців тому

    Ээээ... Ээээ... Мммм

  • @yerbolshudabay7619
    @yerbolshudabay7619 9 місяців тому

    45 минуте вопрос выскочки сбил меня 😬

  • @АлександрВальвачев-я6ъ

    Да-с.....Надо учиться подавать материал.

  • @lifewithlenny7570
    @lifewithlenny7570 9 місяців тому

    Не осиливаю все смотреть по времени(

  • @sfilkin
    @sfilkin 10 місяців тому

    Шикарный курс!

  • @ВладиславКорчагин-н2п
    @ВладиславКорчагин-н2п 11 місяців тому

    Добрый день! Возможно ли подключаться и слушать лекции в онлайне не являясь студентом вашего учебного заведения ?

  • @piclkesthedrummer6439
    @piclkesthedrummer6439 11 місяців тому

    17:44 - на слайде про СВД разве нет опечатки? матрицы U (lxl),V(nxn) должны быть квадратными, т.к. состоят из собственных векторов соответвующих размерностей, матрица Sigma(lxn) прямоугольная с соответсвующими размерами?

  • @nikitakornilov9609
    @nikitakornilov9609 11 місяців тому

    Легенда на лекторе

  • @inftech8976
    @inftech8976 Рік тому

    Как то гении говорили для создания ИИ вышмат нахуй не нужен

  • @АлександрВальвачев-я6ъ

    Отлично. Царско-советская школа. В стиле Ю.И.Журавлева. Спасибо. Блеск.

  • @nikitakornilov9609
    @nikitakornilov9609 Рік тому

    30:50 Josh Hutcherson reference?!?!?!

  • @exusiaii3691
    @exusiaii3691 Рік тому

    22:45 - почему в формуле u^h(x_i) стоит f(x_i) а не просто x_i, и откуда взялась функция f?

  • @chdm
    @chdm Рік тому

    Марии Ковалевой только не понятно где искать доклад? Если ссылку кто-то подскажет, буду благодарен

  • @chdm
    @chdm Рік тому

    Курс очень интересный и полезный! Спасибо

  • @karapetsargsyan3193
    @karapetsargsyan3193 Рік тому

    ujasnij zvuk

  • @m.onyshchuk1764
    @m.onyshchuk1764 Рік тому

    Спасибо за видео! Существуют ли видео "Математические методы прогнозирования, 5" ... "Математические методы прогнозирования, 1" ? Если да, то можно ли как-то дать на них ссылки под этим видео.