Principal Component Analysis | PCA | Dimensionality Reduction in Machine Learning by Mahesh Huddar

Поділитися
Вставка
  • Опубліковано 19 тра 2024
  • Principal Component Analysis | PCA | Dimensionality Reduction in Machine Learning by Mahesh Huddar
    The following concepts are discussed:
    ______________________________
    principal component analysis,
    pca machine learning,
    principal component analysis example,
    principal component analysis explained,
    Principal Component Analysis Solved example,
    Principal Component Analysis Numerical example,
    PCA solved example,
    pca numerical example,
    pca machine learning example,
    principal component analysis machine learning,
    dimensionality reduction pca,
    dimensionality reduction,
    dimensionality reduction machine learning
    ********************************
    1. Blog / Website: www.vtupulse.com/
    2. Like Facebook Page: / vtupulse
    3. Follow us on Instagram: / vtupulse
    4. Like, Share, Subscribe, and Don't forget to press the bell ICON for regular updates

КОМЕНТАРІ • 88

  • @kenway346
    @kenway346 Рік тому +96

    I noticed that your channel contains the entirety of Data Mining taught at the Master's level! Thank you very much, subscribing immediately!

  • @ishu_official
    @ishu_official 5 місяців тому +15

    Super explanation.. today is my machine learning paper

    • @MaheshHuddar
      @MaheshHuddar  5 місяців тому

      Thanks and welcome
      Do like share and subscribe

    • @ankitjha_03
      @ankitjha_03 Місяць тому +1

      Mine is tomorrow!

  • @RaviShankar-gm9of
    @RaviShankar-gm9of 4 місяці тому +3

    Super Bhayya ...

  • @VDCreatures-kc6uf
    @VDCreatures-kc6uf 6 місяців тому +5

    Super explanation..the best channel in UA-cam to learn machine learning and ann topics ❤❤

    • @MaheshHuddar
      @MaheshHuddar  6 місяців тому

      Thank You
      Do like share and subscribe

  • @TrueTalenta
    @TrueTalenta Рік тому +19

    Amazing step-by-step outline!
    I love it💌, so I subscribe!

  • @rodrigorcbb
    @rodrigorcbb 11 місяців тому +4

    Thanks for the video. Great explanation!

    • @MaheshHuddar
      @MaheshHuddar  11 місяців тому

      Welcome
      Do like share and subscribe

  • @jambulingamlogababu8914
    @jambulingamlogababu8914 6 місяців тому +2

    Excellent Teaching. Salute to you sir

  • @kapras711
    @kapras711 8 місяців тому +1

    super explanation .. very easy to understand with out any hook ups sir
    thanks ...Inspr KVV.Prasad

    • @MaheshHuddar
      @MaheshHuddar  8 місяців тому

      Thank You
      Do like share and subscribe

  • @thilagarajthangamuthu2935
    @thilagarajthangamuthu2935 11 місяців тому +2

    Thank you sir. Clear and easy to understand. Thank you.

    • @MaheshHuddar
      @MaheshHuddar  11 місяців тому

      Welcome
      Do like share and subscribe

  • @venkateshwarlupurumala6283
    @venkateshwarlupurumala6283 9 місяців тому +3

    Very clear Explanation Sir.... Thank you so much...

    • @MaheshHuddar
      @MaheshHuddar  9 місяців тому

      Welcome
      Please do like share and subscribe

  • @junaidahmad218
    @junaidahmad218 5 місяців тому +1

    This man has depth knowledge of this topic.

    • @MaheshHuddar
      @MaheshHuddar  5 місяців тому

      Thank You
      Do like share and subscribe

  • @radhay4291
    @radhay4291 7 місяців тому +1

    Thank u very much.Very clear explanation and it is to understand

    • @MaheshHuddar
      @MaheshHuddar  7 місяців тому

      Welcome
      Do like share and subscribe

  • @yuvagopi6547
    @yuvagopi6547 Рік тому +1

    Thanks sir for your explanation 🎉

  • @NandeeshBilagi
    @NandeeshBilagi 2 місяці тому +1

    Clear and nice explanation. Thanks for the video

    • @MaheshHuddar
      @MaheshHuddar  2 місяці тому

      Welcome
      Do like share and subscribe

  • @Dinesh-be8ys
    @Dinesh-be8ys Рік тому +3

    thank u for uploading like this video

  • @HamidAli-ff2zn
    @HamidAli-ff2zn 11 місяців тому

    Thank you so much sir amazing explaination♥♥♥

    • @MaheshHuddar
      @MaheshHuddar  11 місяців тому

      Welcome
      Do like share and subscribe

  • @krishnachaitanya3089
    @krishnachaitanya3089 Рік тому +2

    Thats a clear explanation i have seen

    • @MaheshHuddar
      @MaheshHuddar  Рік тому +1

      Thank you
      Do like share and subscribe

  • @Straight_Forward615
    @Straight_Forward615 Місяць тому

    thanks a lot for this wonderful lecture.

    • @MaheshHuddar
      @MaheshHuddar  Місяць тому

      Welcome!
      Do like share and subscribe

  • @user-qz4yu5lo1r
    @user-qz4yu5lo1r 4 місяці тому +1

    tq sir for this wonderful concept

    • @MaheshHuddar
      @MaheshHuddar  4 місяці тому

      Welcome
      Do like share and subscribe

  • @SaifMohamed-de8uo
    @SaifMohamed-de8uo 4 місяці тому

    thank you so much you are great professor

    • @MaheshHuddar
      @MaheshHuddar  4 місяці тому +1

      You are very welcome
      Do like share and subscribe

  • @shubhangibaruah3940
    @shubhangibaruah3940 5 місяців тому +1

    thank you sir, you were amazing🤩

    • @MaheshHuddar
      @MaheshHuddar  5 місяців тому

      Welcome
      Please do like share and subscribe

  • @sinarezaei4288
    @sinarezaei4288 2 місяці тому

    Thank you very much master huddar❤

    • @MaheshHuddar
      @MaheshHuddar  2 місяці тому

      Welcome
      Do like share and subscribe

  • @ashishlal7212
    @ashishlal7212 23 дні тому

    Thank you so much today is my data mining and ML paper

    • @MaheshHuddar
      @MaheshHuddar  23 дні тому

      Welcome
      Do like share and subscribe

  • @yashtiwari4696
    @yashtiwari4696 Рік тому +3

    Sir please upload the content of ensemble methods bagging boosting and random forest

    • @MaheshHuddar
      @MaheshHuddar  Рік тому +3

      Ensemble Learning: ua-cam.com/video/eNyUfpGBLts/v-deo.html
      Random Forest: ua-cam.com/video/kPq328mJNE0/v-deo.html

  • @priyalmaheta690
    @priyalmaheta690 2 місяці тому

    content and teaching is very good please also provide the notes it will be helpful

    • @MaheshHuddar
      @MaheshHuddar  2 місяці тому

      Thank You
      Do like share and subscribe

  • @RaviShankar-gm9of
    @RaviShankar-gm9of 4 місяці тому

    linear discriminent analysis please make a video bhayya

  • @user-of6qi2hk1e
    @user-of6qi2hk1e 6 місяців тому

    Thank you very much sir

    • @MaheshHuddar
      @MaheshHuddar  6 місяців тому

      Welcome
      Do like share and subscribe

  • @waidapapa1514
    @waidapapa1514 8 місяців тому +2

    Why we are not dealing with e2 means why we not do e2^T.[cov matrix]

    • @rohanshah8129
      @rohanshah8129 8 місяців тому +1

      Here, we had considered 2 dimension as the high dimensonal data for example.
      One of the most usecase of PCA is in dimensionality reduction.
      So, if you want you can use e2 and get second PC. But then think about it.
      From 2 variable, we again got 2 variables. That's why he has shown only PC1.
      However, in reality we generally use 2 PC axes (mostly depends on your data). If it has a lot of variables, then 3 or 4 can also be good but we don't generally go beyond that. So, in this case you will need e2, e3 and e4 as well. So this is how it works.

  • @priya1912
    @priya1912 4 місяці тому +1

    thank u so much

    • @MaheshHuddar
      @MaheshHuddar  4 місяці тому

      Welcome
      Do like share and subscribe

  • @putridisperindag6986
    @putridisperindag6986 5 місяців тому +1

    thank you very much Sir, for ur explantion on that video. I still confused so I would like to ask how to get the value of: [-4.3052, 3.7361, 5.6928, -5.1238] how can I get the value. I still dont get. Thank u Sir

    • @jvbrothers5454
      @jvbrothers5454 5 місяців тому

      yeahh im also confused how did he get im getting values diffrent 0.3761 5.6928 -5.128

  • @zafar151
    @zafar151 2 місяці тому

    Excellent

    • @MaheshHuddar
      @MaheshHuddar  2 місяці тому

      Thank You
      Do like share and subscribe

  • @brucewayne.64
    @brucewayne.64 5 місяців тому

    Thanks Sir

    • @MaheshHuddar
      @MaheshHuddar  5 місяців тому

      Welcome
      Do like share and subscribe

  • @nikks9969
    @nikks9969 2 місяці тому

    Hello sir, thank you for your explanation.I have a doubt at 08:17 why you have considered only first equation?

    • @MaheshHuddar
      @MaheshHuddar  2 місяці тому

      You will get same answer with second equation
      You can use either first or second no issues

  • @mango-strawberry
    @mango-strawberry 4 дні тому

    thanks a lot

    • @MaheshHuddar
      @MaheshHuddar  4 дні тому

      You are most welcome
      Do like share and subscribe

  • @MadaraUchiha-wj8sl
    @MadaraUchiha-wj8sl 3 місяці тому

    Thanks you,sir

    • @MaheshHuddar
      @MaheshHuddar  3 місяці тому

      Welcome
      Do like share and subscribe

  • @advancedappliedandpuremath
    @advancedappliedandpuremath 11 місяців тому +1

    Sir book name please

  • @muhammadsaad3793
    @muhammadsaad3793 6 місяців тому

    Nice!

    • @MaheshHuddar
      @MaheshHuddar  6 місяців тому

      Thank You
      Do like share and subscribe

  • @Blackoutfor10days
    @Blackoutfor10days 22 дні тому +1

    Can you add the concept of hidden Markov model in your machine learning playlist

  • @Ateeq10
    @Ateeq10 3 місяці тому

    Thank you

    • @MaheshHuddar
      @MaheshHuddar  3 місяці тому

      Welcome
      Do like share and subscribe

  • @user-kn7sr8tg4q
    @user-kn7sr8tg4q 11 місяців тому +2

    Hi Sir, Great explanation about PCA. But when I searched the covariance matrix for more 2 variables it's showing that covariance is only done between 2 variables.
    How to calculate the covariance if a dataset have more than 2 variables. Could you please give an explanation on that.....!!

    • @fintech1378
      @fintech1378 11 місяців тому +2

      you need to do for all pairwise combinations

    • @shahmirkhan1502
      @shahmirkhan1502 10 місяців тому +3

      @fintech1378 is right. You need to do pairwise combinations. For example, for 4 variables, your covariance matrix will be 4x4 with the following combinations:
      cov(a, a) cov (a, b) cov (a, c) cov(a,d)
      cov(b, a) cov(b, b) cov(b, c) cov(b, d)
      cov(c, a) cov (c, b) cov(c, c) cov(c, d)
      cov(d, a) cov(d, b) cov (d, c) cov(d, d)

    • @rohanshah8129
      @rohanshah8129 8 місяців тому +1

      If there are n variables, covariance matrix will be of nxn shape.

    • @parthibdey6005
      @parthibdey6005 3 місяці тому

      is this covariance for reducing 4 to 1@@shahmirkhan1502

  • @user-of4rz5cq1i
    @user-of4rz5cq1i 11 місяців тому +1

    بحبككككككككككككككككككككككككككككككككككككككككك يا سوسو

    • @MaheshHuddar
      @MaheshHuddar  11 місяців тому +1

      What it means..?

    • @abishekraju4521
      @abishekraju4521 11 місяців тому +2

      @@MaheshHuddar According to google translate: _"I love you sooo"_

  • @jameykeller5055
    @jameykeller5055 4 місяці тому

    devru sir neevu