TheDataPost
TheDataPost
  • 20
  • 198 271
Feature Scaling
Explanation of feature scaling clearly explained.
Image Links:
towardsdatascience.com/gradient-descent-algorithm-and-its-variants-10f652806a3
mccormickml.com/2013/08/15/the-gaussian-kernel/
Переглядів: 9 557

Відео

Cross Validation
Переглядів 10 тис.4 роки тому
Cross validation clearly explained.
Gradient Descent II
Переглядів 5474 роки тому
An introduction to the gradient descent algorithm
Gradient Descent I
Переглядів 6684 роки тому
An introduction to the gradient descent algorithm.
Linear Regression Part II
Переглядів 8404 роки тому
A continued explanation of linear regression. Links: www.quora.com/How-is-it-determined-if-a-slope-is-positive-negative-or-undefined
Linear Regression Part I
Переглядів 9444 роки тому
Simple explanation of linear regression.
Overfitting
Переглядів 5884 роки тому
An explanation of the data science concept overfitting. Links: www.geeksforgeeks.org/underfitting-and-overfitting-in-machine-learning/ www.kaggle.com/learn-forum/61822
Splitting Data
Переглядів 1,1 тис.4 роки тому
An explanation of what splitting data is and why it is necessary. Links: www.commonlounge.com/discussion/5f6c903d4821416b9b2ad2e4b2950250/history www.kaggle.com/learn-forum/61822
Classification vs. Regression
Переглядів 11 тис.4 роки тому
Simple explanation of classification and regression.
Supervised vs. Unsupervised Learning
Переглядів 4,6 тис.4 роки тому
A simple explanation of the differences between supervised and unsupervised learning.
Continuous vs. Discrete Values
Переглядів 9754 роки тому
Explanation of the differences between continuous and discrete values.
What is Machine Learning?
Переглядів 3 тис.4 роки тому
A quick and simple explanation of what machine learning is. Links: giphy.com/gifs/imadeit-qKltgF7Aw515K www.geeksforgeeks.org/clustering-in-machine-learning/
Random Forests Explanation and Visualization
Переглядів 12 тис.4 роки тому
explanation of random forests clearly explained
Bias Variance Tradeoff
Переглядів 3,2 тис.4 роки тому
A core machine learning concept known as bias variance tradeoff clearly explained. Links: scott.fortmann-roe.com/docs/BiasVariance.html www.geeksforgeeks.org/underfitting-and-overfitting-in-machine-learning/
DBSCAN Advantages and Disadvantages
Переглядів 2,8 тис.4 роки тому
analysis of the strengths and weaknesses of the dbscan algorithm
K-Means Implementation and Parameter Tuning
Переглядів 8 тис.4 роки тому
K-Means Implementation and Parameter Tuning
K-Means Clustering Explanation and Visualization
Переглядів 74 тис.4 роки тому
K-Means Clustering Explanation and Visualization
DBSCAN Implementation and Parameter Tuning
Переглядів 9 тис.4 роки тому
DBSCAN Implementation and Parameter Tuning
DBSCAN Explanation and Visualization
Переглядів 41 тис.4 роки тому
DBSCAN Explanation and Visualization
K-Means Advantages and Disadvantages
Переглядів 4 тис.4 роки тому
K-Means Advantages and Disadvantages

КОМЕНТАРІ

  • @PunmasterSTP
    @PunmasterSTP 3 дні тому

    That was a really nice explanation, though I wonder if The Algorithm might deboost this video based on what you said around 0:31...

  • @rgss-eb2xc
    @rgss-eb2xc 8 днів тому

    Concise and Clear!

  • @ivoharsani4181
    @ivoharsani4181 10 днів тому

    phenomal explanation. after watching around a dozen of videos and not being sure what the difference is, you made it so simple in just 2 minutes. excellent job

  • @tharushapiyumal
    @tharushapiyumal 21 день тому

    This is the easiest explanation to understand.

  • @iKicchi
    @iKicchi 25 днів тому

    great explanation..thanks

  • @rubytejackson
    @rubytejackson Місяць тому

    exeptional explanation!

  • @hussamcheema
    @hussamcheema 2 місяці тому

    Simplest and to the point explanation Thank You

  • @erythsea
    @erythsea 2 місяці тому

    Amazing video needed. this for my data mining course

  • @charleslueker2597
    @charleslueker2597 2 місяці тому

    Wow, best explanation Ive seen

  • @kute.kontent
    @kute.kontent 3 місяці тому

    Awesome video man!

  • @o.i.m7851
    @o.i.m7851 3 місяці тому

    Holy moly! i'm so glad i found this channel! i'm bulk watching every video

  • @masliaalias7876
    @masliaalias7876 3 місяці тому

    Im glad I found this. Easy to understand. Thank you

  • @kosstath6761
    @kosstath6761 4 місяці тому

    @TheDataPost Which tool/software do you use for the visualization?

  • @ulqsch7112
    @ulqsch7112 4 місяці тому

    great vid

  • @boulaakladyous
    @boulaakladyous 4 місяці тому

    the best and easy explanation ever, good job

  • @Lucky-rf5db
    @Lucky-rf5db 5 місяців тому

    thanks

  • @daumel98
    @daumel98 5 місяців тому

    Perfectly explained, thanks!

  • @gauss8134
    @gauss8134 5 місяців тому

    Very good video

  • @oraclesql
    @oraclesql 5 місяців тому

    great vid. Thank you

  • @TheBlueFluidBreathe
    @TheBlueFluidBreathe 6 місяців тому

    Thanks

  • @henriquebigodinho9600
    @henriquebigodinho9600 6 місяців тому

    you could use more of the actual terminology, like fit and predict phases, but overall congrats very weel and concise video

  • @nicolacoelho
    @nicolacoelho 6 місяців тому

    This video referred to one aspect many of the videos about the same subject do not: You get one model per fold (one set of "fitted" parameters, one "RMSE" if that is what you are using to evaluate that model, one set of predicted features, etc), not one final model so, as the author said, you use it to evaluate how a certain type of model can perform by averaging the total of models (averaging the statistic you are using to evaluate how good is the model) you get when doing one model training per fold, NOT to find the final model parameters. It is almost never mentioned this tiny detail. And I see many people, like myself, wondering what the end result of this method is and its usage.

  • @Noe0521
    @Noe0521 6 місяців тому

    Thanks for the video! In the 2:30 part of the video, I would like to know what software did you use to create this animation effect?

  • @descy7569
    @descy7569 7 місяців тому

    Very much appreciated. Explained quickly and clearly

  • @sudhanvasatish1218
    @sudhanvasatish1218 7 місяців тому

    Quick and effective. Great video

  • @masashigekusunoki706
    @masashigekusunoki706 7 місяців тому

    Thanks 👍

  • @partyonpython5663
    @partyonpython5663 8 місяців тому

    Initial centroids are based on points already in the dataset, not selecting them randomly like he did in the beginning.

  • @mahfujasif
    @mahfujasif 8 місяців тому

    Excellent tutorial, appreciate your efforts

  • @siyabongahlophe8316
    @siyabongahlophe8316 8 місяців тому

    Best explanation!

  • @Ali-qm8ix
    @Ali-qm8ix 9 місяців тому

    amazing

  • @zozan968
    @zozan968 9 місяців тому

    very cool

  • @fanfoire
    @fanfoire 9 місяців тому

    Vey clear, thank you

  • @MohamedHany-oq7xr
    @MohamedHany-oq7xr 9 місяців тому

    That's a clear explanation, thanks alot

  • @SaulArcans
    @SaulArcans 9 місяців тому

    I love yoy, thanks

  • @bignigeful
    @bignigeful 10 місяців тому

    Now i understand. Thanks

  • @AchiragChiragg
    @AchiragChiragg 10 місяців тому

    @0:27 The strip function seems to not work for some reason. It says " tuple' object has no attribute 'strip' "

  • @Proffagelle
    @Proffagelle Рік тому

    Thank you thank you.. I was puzzled with how do we decide which model to adopt until I saw this video.

  • @afifkhaja
    @afifkhaja Рік тому

    Thanks for this! How to use the number of clusters if you don't know beforehand?

    • @anisjayaram
      @anisjayaram 11 місяців тому

      A gaussian mixed model can be used to estimate the number of clusters

    • @anisjayaram
      @anisjayaram 11 місяців тому

      Or you can use agglomerative clustering where the number of clusters will be equal to the number of observations

    • @luisalfonsoprudenciobarrie1741
      @luisalfonsoprudenciobarrie1741 11 місяців тому

      You can use methods such as "The Elbow Method" to estimate the correct number of clusters for each dataset. What it does is it gets the WSS for each cluster and it selects the number of cluster where the WSS presents diminishing returns. But can you always find more info online. Good luck!

  • @dinaandrei-constantin7212

    This video is proof there are only 2 genders out there! Take that woke people

  • @juststudying1019
    @juststudying1019 Рік тому

    straight to the point, thanks.

  • @viralgamegamer6159
    @viralgamegamer6159 Рік тому

    Best explanation I have seen soooo farr 👏

  • @lucasmoratoaraujo8433
    @lucasmoratoaraujo8433 Рік тому

    very nice! thank you!

  • @varunsharma5917
    @varunsharma5917 Рік тому

    Very intuitively explained! kudos!

  • @TiktoKlips
    @TiktoKlips Рік тому

    short and clear.Thank you

  • @leihejun844
    @leihejun844 Рік тому

    And this was how AI took the world.

    • @thecalculatedcreativecoder1428
      @thecalculatedcreativecoder1428 8 місяців тому

      This is a very basic algorithm. I don't this is the world ending AI we need to be concerned about. Now, reinforcement learning networks are potentially dangerous.

  • @AmNotLegend
    @AmNotLegend Рік тому

    does it mean it has to visulise the points, and then may select initial centroids?

  • @a67tejaskhandale99
    @a67tejaskhandale99 Рік тому

    great

  • @abhishekkumar-xh7ee
    @abhishekkumar-xh7ee Рік тому

    Nice

  • @abuilyas
    @abuilyas Рік тому

    amazing simulation in the end

  • @i_youtube_
    @i_youtube_ Рік тому

    Great explanation. You made it simple and concise.