- 1 029
- 545 567
Machine Learning Phystech
France
Приєднався 24 кві 2016
The channel for scientific and educational seminars. The main topic is machine learning and its applications.
Интеллектуальный анализ данных. Лекция 10, осень 2024.
Good morning, and in case I don't see ya: Good afternoon, good evening, and good night!
Переглядів: 91
Відео
Тематическое моделирование. Лекция 13 осень 2024.
Переглядів 9721 день тому
Тематическое моделирование. Лекция 13 осень 2024.
Тематическое моделирование. Лекция 12 осень 2024.
Переглядів 6521 день тому
Тематическое моделирование. Лекция 12 осень 2024.
Тематическое моделирование. Лекция 11 осень 2024.
Переглядів 88Місяць тому
Тематическое моделирование. Лекция 11 осень 2024.
Интеллектуальный анализ данных. Лекция 9, осень 2024.
Переглядів 88Місяць тому
Get busy living or get busy dying.
Тематическое моделирование. Лекция 10 осень 2024.
Переглядів 61Місяць тому
Тематическое моделирование. Лекция 10 осень 2024.
Обработка сигналов. Лекция 6, осень 2024.
Переглядів 101Місяць тому
Обработка сигналов. Лекция 6, осень 2024.
Обработка сигналов. Семинар 4, осень 2024.
Переглядів 42Місяць тому
Обработка сигналов. Семинар 4, осень 2024.
Тематическое моделирование. Лекция 9 осень 2024.
Переглядів 108Місяць тому
Тематическое моделирование. Лекция 9 осень 2024.
Интеллектуальный анализ данных. Лекция 8, осень 2024.
Переглядів 138Місяць тому
Интеллектуальный анализ данных. Лекция 8, осень 2024.
Тематическое моделирование. Лекция 8 осень 2024.
Переглядів 61Місяць тому
Тематическое моделирование. Лекция 8 осень 2024.
Обработка сигналов. Лекция 5, осень 2024.
Переглядів 1532 місяці тому
Обработка сигналов. Лекция 5, осень 2024.
Интеллектуальный анализ данных. Лекция 7, осень 2024.
Переглядів 902 місяці тому
Интеллектуальный анализ данных. Лекция 7, осень 2024.
Тематическое моделирование. Лекция 7 осень 2024.
Переглядів 892 місяці тому
Тематическое моделирование. Лекция 7 осень 2024.
Тематическое моделирование. Лекция 6 осень 2024.
Переглядів 992 місяці тому
Тематическое моделирование. Лекция 6 осень 2024.
Интеллектуальный анализ данных. Лекция 6, осень 2024.
Переглядів 1552 місяці тому
Интеллектуальный анализ данных. Лекция 6, осень 2024.
Обработка сигналов. Cеминар 3, осень 2024
Переглядів 1242 місяці тому
Обработка сигналов. Cеминар 3, осень 2024
Тематическое моделирование. Лекция 4, осень 2024.
Переглядів 1022 місяці тому
Тематическое моделирование. Лекция 4, осень 2024.
Обработка сигналов. Лекция 4, осень 2024.
Переглядів 1232 місяці тому
Обработка сигналов. Лекция 4, осень 2024.
Обработка сигналов. Лекция 3, осень 2024.
Переглядів 1412 місяці тому
Обработка сигналов. Лекция 3, осень 2024.
Тематическое моделирование. Лекция 3, осень 2024.
Переглядів 1232 місяці тому
Тематическое моделирование. Лекция 3, осень 2024.
Интеллектуальный анализ данных. Лекция 4, осень 2024.
Переглядів 2012 місяці тому
Интеллектуальный анализ данных. Лекция 4, осень 2024.
Интеллектуальный анализ данных. Лекция 3, осень 2024.
Переглядів 1313 місяці тому
Интеллектуальный анализ данных. Лекция 3, осень 2024.
Тематическое моделирование. Лекция 2, осень 2024.
Переглядів 653 місяці тому
Тематическое моделирование. Лекция 2, осень 2024.
Обработка сигналов. Cеминар 2, осень 2024
Переглядів 653 місяці тому
Обработка сигналов. Cеминар 2, осень 2024
Интеллектуальный анализ данных. Лекция 2, осень 2024.
Переглядів 1983 місяці тому
Интеллектуальный анализ данных. Лекция 2, осень 2024.
Обработка сигналов. Лекция 2, осень 2024.
Переглядів 1283 місяці тому
Обработка сигналов. Лекция 2, осень 2024.
Тематическое моделирование. Лекция 1, осень 2024.
Переглядів 2753 місяці тому
Тематическое моделирование. Лекция 1, осень 2024.
Обработка сигналов. Cеминар 1, осень 2024
Переглядів 1763 місяці тому
Обработка сигналов. Cеминар 1, осень 2024
Обработка сигналов. Лекция 1, осень 2024.
Переглядів 3393 місяці тому
Обработка сигналов. Лекция 1, осень 2024.
Здравствуйте, верно ли, что функцию СофтМакс мы получаем, устанавливая эквивалентность "вероятностная модель" -- "функция принятия решения + функция потерь" в случае многоклассовой логистической регрессии, беря линейную "функцию принятия решений" a(x) = arg\max_{y\in Y}\left<x, w_y ight> и следующую "функцию потерь": Loss_i(W) = log \left( 1 + \sum_{z eq y_i} e^{-\left<x_i,w_i-w_z ight>} ight) ? Т. е. на сайте курса в актуальных к этой лекции слайдах (на 26-ом слайде) просто опущена эта же функция потерь ? Если так, то это идёт несколько в разрез к 5-ому слайду , где говорится, что потери на i-ом объекте (в случае нескольких классов) мы ограничиваем сверху СУММОЙ монотонно убывающих функций L от отступа i-ого объекта от каждого класса. А предложенная выше Loss_i(W) -- логарифм суммы, который не разбивается в СУММУ функций L от соответствующих отступов. Как быть ?
единичка в логарифме = пропущенное в стоящей справа сумме слагаемое при z как раз равному y_i
Прекрасный лектор! Наглядная презентация. Спасибо большое!
Как успехи?
Чел вообще знает машинное обучение?
К какому плейлисту относится?
[ИАД, осень 2024] Методы глубокого обучения
@@edyarich но туда еще не включен, получается?
@@aramuradyan2138 всё так
тематическое моделирование? пикантно😎
Задача 2: 1:23 (выпуклость мн-в) Задача 4: 31:38 (субградиент) Задача 5: 45:43 (сопряжённые множества) Задача 6: 1:14:38 (сопряжённые ф-ии) Задача 7: 1:37:50 (двойственная задача) Задача 8: 2:12:18 (ККТ) Задача 1: 2:40:21 (дифференцирование) Задача 3: 2:48:28 (выпуклость ф-й) Задача 9: 2:50:58 (константа гладкости) Задача 10: 2:57:59 (градиентный спуск) Задача 12: 2:59:52 (метод Франк-Вульфа) Задача 11: 3:04:49 (метод Ньютона)
Спасибо! Очень полезная информация!
Спасибо большое!
32:32, Скажите пожалуйста, подобные таблицы нужно где-то хранить или они формируются на лету, в процессе работы алгоритма?
то тут то там меняется понятие о том, что такое выборка: это подмножество объектов X ({x1, x2, ..., xl}) или же множество пар объект-ответ ((xi, yi)). что же всё-таки такое выборка?
Вот в какие времена живем. Лекции лучшего ВУЗ страны по самой востребованной специальности и совершенно бесплатно. На огрехи все равно.
Отличный преподаватель! Он семинары не ведет?
А можно ссылку на ноутбук плиз
сразу скажу если вы в математике ноль, то урок не для Вас, сначала надо вообще самые азы изучить
Ну конечно, этож физтех, как минимум полнеценные курсы линала, матана и теорвера уже должны быть в голове
@@Engineering_systems1 да, я просто написал для тех кто захотел войти в машинное обучение, но совсем не бум-бум
Чья-то соска ...
Прекрасные лекции и просто ужаснейшие семинары... Орфографические, морфологические, математические, технические ошибки... Не говоря уже о том, что сам руководитель занятия путается на каждом шагу... Ощущение, что он вчера сдал экзамен, а сегодня его поставили преподавать... Хотя, я думаю так и есть...
Просто фантастические лекции, спасибо Леониду. Жалко, что он не увидит...
Отличные лекции! Не стоит флейтисту стесняться 🙂
как интересно, какие были алгоритмы выпрямления, после обнаружения точек решётки
Почему-то не работает ссылка
Я понимаю тех ребят, которые не любят Anaconda, во-первых весит 15 гб, во вторых мне часто нужен лишь отдельно Jupyter Notebook и только те библиотеки, которые я хочу себе поставить
Рекомендательные системы Ютуба порекомендовали мне это видео, когда я захотел научиться рекомендовательным системам😄
Жаль связь прерывается. Тем не менее, лекции шикарные, очень информативно и системно, спасибо большое!
Огромное спасибо за труд, но у меня потёк мозг при просмотре, надо было учить математику :D
Слайды очень тяжело понимать. Лектор не проговаривает, что скрывается за аббревиатурами в названиях формул, и далеко не все они легко гуглятся. В самих пояснениях тоже тяжело разобраться. Например слайд на 19:13 : написано, что k_u is the average rank of items by u. Мало того, что у этой текстовой формулировки совершенно неочевидное формульное представление, так такая переменная вообще не используется ни на одной формуле на слайде.
на том же слайде в последней формуле что такое индекс j? Хочется заменить на i.
Если кто хочет дослушать рассказ про нелинейное ансамблирование то вот та же лекция только для ВМК МГУ - ua-cam.com/video/KCi3rzwJohs/v-deo.html
Парень в начале к-ый задавал вопросы - спасибо тебе большое)
Очень приятный лектор, придётся слушать лекции :-)
Это точно бакалавры?
Давайте проверим. Те, кто претендуют на приемлемую оценку, публикуют свои результаты в научных журналах. Это означает принятие их результатов научным сообществом. Достаточное условие для получения степени бакалавра. Получается, это они.
Если не сложно - выложите, пожалуйста саму презентацию. А также ссылки на все отригинальные статьи, на которые вы ссылаетесь. Спасибо.
А на каком моменте говорили про "штраф за приближение к границе классов" (4ый пункт последнего слайда), я как-то не могу найти.
6 слайд, примерно 11:58. Если присмотритесь, некоторые функции ненулевые даже при небольшом положительном отступе, как квадратичная, например (светло-зеленая), это и значит штраф за приближение к границе
@@ЗакарянАрсенпремного благодарен
попалось в рекомендациях, проматал чисто по интересу, и во фласке есть аналог pydantic называет marshmellow(и датакалссы можете юзать и вообще это дело вкуса) спеку тоже можно генерить и сам Pydantic тоже можете использовать, по нагрузке flask тоже справляется не плохо, и в нём уже вроде как тоже завезли асинхронщину(но это не точно или скоро завезут), а если у вас крутится модель в фастапи, то асинхронщина вам не поможет и можно смело использовать фласк, есть cpu и io задачи, и модель ml как раз cpu задача, и во фласке тоже можно несколько инстансов запускать, вообщем жопа подгорела и я написал
❤
Когда назвали математическую статистику модными словами
Ээээ... Ээээ... Мммм
45 минуте вопрос выскочки сбил меня 😬
Да-с.....Надо учиться подавать материал.
Не осиливаю все смотреть по времени(
Шикарный курс!
Добрый день! Возможно ли подключаться и слушать лекции в онлайне не являясь студентом вашего учебного заведения ?
17:44 - на слайде про СВД разве нет опечатки? матрицы U (lxl),V(nxn) должны быть квадратными, т.к. состоят из собственных векторов соответвующих размерностей, матрица Sigma(lxn) прямоугольная с соответсвующими размерами?
Легенда на лекторе
Как то гении говорили для создания ИИ вышмат нахуй не нужен
Отлично. Царско-советская школа. В стиле Ю.И.Журавлева. Спасибо. Блеск.
30:50 Josh Hutcherson reference?!?!?!
22:45 - почему в формуле u^h(x_i) стоит f(x_i) а не просто x_i, и откуда взялась функция f?
Марии Ковалевой только не понятно где искать доклад? Если ссылку кто-то подскажет, буду благодарен
Курс очень интересный и полезный! Спасибо
ujasnij zvuk
Спасибо за видео! Существуют ли видео "Математические методы прогнозирования, 5" ... "Математические методы прогнозирования, 1" ? Если да, то можно ли как-то дать на них ссылки под этим видео.