Marc Deisenroth
Marc Deisenroth
  • 65
  • 245 701

Відео

4 some extensions
Переглядів 281Рік тому
4 some extensions
Iterative State Estimation in Non-linear Dynamical Systems Using Approximate Expectation Propagation
Переглядів 472Рік тому
video summarizing TMLR paper available at openreview.net/forum?id=xyt4wfdo4J
Jackie Kay: Fairness for Unobserved Characteristics
Переглядів 3113 роки тому
Recent advances in algorithmic fairness have largely omitted sexual orientation and gender identity. We explore the concerns of the queer community in privacy, censorship, language, online safety, health, and employment to study the positive and negative effects of artificial intelligence on queer communities. These issues highlight a multiplicity of considerations for fairness research, such a...
Inference in Time Series
Переглядів 1,4 тис.3 роки тому
Inference in Time Series
Numerical Integration
Переглядів 9693 роки тому
Numerical Integration
Gaussian Processes - Part 2
Переглядів 3,7 тис.3 роки тому
Gaussian Processes - Part 2
Bayesian Optimization
Переглядів 17 тис.3 роки тому
Bayesian Optimization
Gaussian Processes - Part 1
Переглядів 12 тис.3 роки тому
Gaussian Processes - Part 1
Monte Carlo Integration
Переглядів 8593 роки тому
Monte Carlo Integration
Normalizing Flows
Переглядів 9073 роки тому
Normalizing Flows
Introduction to Integration in Machine Learning
Переглядів 1,5 тис.3 роки тому
Introduction to Integration in Machine Learning
12 Stochastic Gradient Estimators
Переглядів 1,2 тис.3 роки тому
Slides and more information: mml-book.github.io/slopes-expectations.html
05 Normalizing flows
Переглядів 4,4 тис.3 роки тому
Slides and more information: mml-book.github.io/slopes-expectations.html
06 Inference in Time Series
Переглядів 7913 роки тому
Slides and more information: mml-book.github.io/slopes-expectations.html
04 Monte Carlo Integration
Переглядів 1,5 тис.3 роки тому
04 Monte Carlo Integration
03 Numerical Integration
Переглядів 1,5 тис.3 роки тому
03 Numerical Integration
02 Introduction to Integration
Переглядів 1,5 тис.3 роки тому
02 Introduction to Integration
01 Welcome
Переглядів 2,4 тис.3 роки тому
01 Welcome
Bayesian Optimization (backup)
Переглядів 5593 роки тому
Bayesian Optimization (backup)
Projections (video 1): Motivation
Переглядів 8765 років тому
Projections (video 1): Motivation
Inner Products (video 2): Dot Product
Переглядів 1,1 тис.5 років тому
Inner Products (video 2): Dot Product
Inner products (video 3): Definition
Переглядів 8885 років тому
Inner products (video 3): Definition
Inner products (video 8): Outro
Переглядів 3835 років тому
Inner products (video 8): Outro
Introduction to the Course
Переглядів 7 тис.5 років тому
Introduction to the Course
Statistics (video 7): Outro
Переглядів 6635 років тому
Statistics (video 7): Outro
Projections (video 5): Example N-dimensional Projections
Переглядів 4835 років тому
Projections (video 5): Example N-dimensional Projections
Outro Course
Переглядів 2205 років тому
Outro Course
Inner Products (video 4): Lengths and Distances, Part 1/2
Переглядів 7775 років тому
Inner Products (video 4): Lengths and Distances, Part 1/2
Statistics (video 6): Linear Transformations, Part 2/2
Переглядів 9055 років тому
Statistics (video 6): Linear Transformations, Part 2/2

КОМЕНТАРІ

  • @Sheriff_Schlong
    @Sheriff_Schlong Місяць тому

    Very good video. Understandable, not too extensive, but also your querying of important conceptual questions can give the viewers a chance to pause and try to answer as well! You sound similar to Elon Musk... im wondering if maybe you ARE him lol

  • @rajanalexander4949
    @rajanalexander4949 2 місяці тому

    Incredible lecture; thank you

  • @violetzzzz
    @violetzzzz 3 місяці тому

    This is interesting! May I know where can I find the slides?

  • @EmmanuelAyobami-ni2ck
    @EmmanuelAyobami-ni2ck 3 місяці тому

    Thank you for your insightful explanation of projection in your UA-cam video! Your clear and concise approach made understanding the concept so much easier. Grateful for your teaching!

  • @vearchen7939
    @vearchen7939 6 місяців тому

    Thank you! This video is really helpful for me!!

  • @kianacademy7853
    @kianacademy7853 6 місяців тому

    rational Qudratic kernel has |x1-x2|^2 term, not |x1-x2|

  • @appliedstatistics2043
    @appliedstatistics2043 7 місяців тому

    Does anyone know where to download the slides?

  • @lyian5595
    @lyian5595 7 місяців тому

    Danke für die Mathematik. Sehr verständlich!

  • @zitafang7888
    @zitafang7888 8 місяців тому

    Thanks for your explanation. May I ask where I can download the slide?

  • @matej6418
    @matej6418 8 місяців тому

    elite content

  • @matej6418
    @matej6418 8 місяців тому

    Elite content, i ve never seen a better explanation for timeseries modelling using GPs

  • @StratosFair
    @StratosFair 9 місяців тому

    Excellent lecture, thank you.

  • @blup737
    @blup737 9 місяців тому

    3:09 how you get root 12

  • @forheuristiclifeksh7836
    @forheuristiclifeksh7836 11 місяців тому

    43:04

  • @forheuristiclifeksh7836
    @forheuristiclifeksh7836 11 місяців тому

    52:33

  • @fikusznumerikusz5816
    @fikusznumerikusz5816 Рік тому

    At 58:10 , f1,..., fk and x1,...xk are with stars I guess. At 1:00:59 what is cov( f(x);f(x*))? Maybe it is a (k+N)x(k+N) covariance matrix there defined via kernels.

  • @cexploreful
    @cexploreful Рік тому

    WOOOOOOOOOOOOOOOW you blow my mind! 🤯

  • @sakcee
    @sakcee Рік тому

    Excellent !!! very clear explanation

  • @DogDoggieDog
    @DogDoggieDog Рік тому

    I've watched a handful of other videos on Bayesian optimisation but after this video I actually understood it. Many thanks for this!

  • @yashwanths-dz2gp
    @yashwanths-dz2gp Рік тому

    still wondering why you didn't get enough views for this awesome content

  • @Vikram-wx4hg
    @Vikram-wx4hg Рік тому

    Super tutorial! Only wish: I wish I could see what Richard is pointing to when he is discussing a slide.

  • @GauravJoshi-te6fc
    @GauravJoshi-te6fc Рік тому

    Woah! Amazing explanation.

  • @leiqin5756
    @leiqin5756 Рік тому

    Hi Marc, I find the lecture very interesting. Could you please share with me the slides?

  • @user-rx5tp8xk3u
    @user-rx5tp8xk3u Рік тому

  • @samirelzein1095
    @samirelzein1095 Рік тому

    need a version with a Python code and live graph

  • @jasonhe6947
    @jasonhe6947 Рік тому

    Excellent explanation. Thank you so much for making this video.

  • @Raven-bi3xn
    @Raven-bi3xn Рік тому

    At 3’:45”, you mention that if we have the x observations, given that we have z0 distribution, if we had good parameters of phi, we can map z0 to x. Is the path into finding the parameters of phi related to diffusion models?

  • @zakreynolds5472
    @zakreynolds5472 Рік тому

    Thanks this presentation has been really useful but I am a little stuck and have a question. In this first portion of the presentation the CoV function is shown to show correlation between random variables (x axis=variable index) but from there on it seems to revert to being used to compared to values within the same variable (from X in bold on axis to lower case x). I appreciate that this is a difference between multivariate and univariate (I think?) But could you please elaborate?

  • @heyjianjing
    @heyjianjing Рік тому

    By far the best introduction to GP, thank you Prof. Turner!

  • @thepresistence5935
    @thepresistence5935 Рік тому

    At last I find a gold :)

  • @nanjiang2738
    @nanjiang2738 Рік тому

    really appreciated for your high-quality explanation!

  • @findoc9282
    @findoc9282 Рік тому

    Sir may I ask why in the slide page 40 the Posterior has different functions instead like in pages before only one function?

  • @findoc9282
    @findoc9282 Рік тому

    the last 5 mins of process adding observation is so insightful and helped me a lot, thanks professor!

  • @yeshuip
    @yeshuip Рік тому

    i understood like variable index coressponds to the variable and we are plotting its values then somehow you talking about variable index can take real values and forgot about the distances. I didn't understand this concept. Can anyone explain me this

  • @yeshuip
    @yeshuip Рік тому

    hello can anyone provide the code please

  • @danielliu3039
    @danielliu3039 Рік тому

    The discussion in the video is restricted to inference, but how would one incorporate EP into the learning in a latent time series? Regrettably EP does not specify a variational lower bound of log likelihood (as compared to variational, EM-like methods), and, learning non-linear state transition functions in a time-series is non-trivial.

  • @vi5hnupradeep
    @vi5hnupradeep Рік тому

    Thankyou so much ! This series is very helpful.

  • @katateo328
    @katateo328 Рік тому

    hahaha, generally, lazy is goooooood.

  • @katateo328
    @katateo328 Рік тому

    yeah, Gaussian quadrature is exactly the boosting concept.

  • @katateo328
    @katateo328 Рік тому

    shifting with rotation the nodes a little bit would create other weak estimators.

  • @katateo328
    @katateo328 Рік тому

    dont you think we can improve the performance of trapezoidal method by using boosting concept?? trapezoidal is a weak estimator. Boosting weak estimators may have as well performance as Simpson method.

  • @katateo328
    @katateo328 Рік тому

    wowowo, super cool!! you have a wide vision.

  • @norkamal7697
    @norkamal7697 2 роки тому

    The best GP explanation evaaa

  • @maddoo23
    @maddoo23 2 роки тому

    At 45:30, the covariance of brownian motion cov(B_s, B_t) = min(s,t), right? And not whats given on the slide..

    • @ret2666
      @ret2666 Рік тому

      See here for the sense this is Brownian motion: en.wikipedia.org/wiki/Ornstein-Uhlenbeck_process

  • @airindutta1094
    @airindutta1094 2 роки тому

    Best GP visualization and explanation I have ever seen.

  • @marc_deisenroth
    @marc_deisenroth 2 роки тому

    Slides are available at deisenroth.cc/teaching/2019-20/linear-regression-aims/lecture_bayesian_optimization.pdf

  • @suvkaka
    @suvkaka 2 роки тому

    Thanks for sharing this video Marc!!!!!!

  • @seongwonlee5645
    @seongwonlee5645 2 роки тому

    Awesome explanation

  • @0929zhurong
    @0929zhurong 2 роки тому

    The best GP explanation, amazingly done