خوارزميات تعلم الآلة: خوارزمية متجه الدعم الآلي (التصنيف) | Support Vector Machines Algorithm

Поділитися
Вставка
  • Опубліковано 19 гру 2024

КОМЕНТАРІ • 22

  • @bakriyousif5775
    @bakriyousif5775 9 місяців тому +1

    من افضل الاساتذه علي يوتيوب

  • @ahmadnasr177
    @ahmadnasr177 2 роки тому +3

    مكملتش مثال الكفته 🤣🤣🤣 الششرح جميل ربنا يجازيك

  • @soadomar8451
    @soadomar8451 8 місяців тому +1

    عظمة بجد جزاك الله خيرا شرح ممتاز جدا

  • @aria9951
    @aria9951 5 місяців тому

    I'm graduated from mathematics department,oh really I can understand all you said , now I know why I topology and linear algebra are so important 😄👍

  • @muhammadcoding1997
    @muhammadcoding1997 2 місяці тому

    شرحك كويس ما شاء الله .

  • @muhanad_tomeh
    @muhanad_tomeh Рік тому +1

    جزاك الله خيرا يا حبيب
    💙💙

  • @rogaiamohamed4127
    @rogaiamohamed4127 2 роки тому +2

    شكرا ي مهندس الشرح رائع جدا

  • @mohamedfarid7499
    @mohamedfarid7499 3 роки тому +1

    شكرا على مجهودك مهندس مصطفى

  • @yasirabdulkareem9844
    @yasirabdulkareem9844 Рік тому

    جزاك الله الف خير . شرح و مجهود بصراحة جبار

  • @chaoukisalhi6237
    @chaoukisalhi6237 Рік тому +1

    رائع يا باشا ❤

  • @mohamedmellouky8498
    @mohamedmellouky8498 8 місяців тому

    9:33: The performance of an ML model could be evaluated using the base models. It's hard to say that 60% is good or bad. It really depends on the quality of the data and whether the extracted/selected features help predict the target variable (in other words, they are correlated with the target variable). Therefore, 60% accuracy is not bad if the base model performs at 50%. However, the model should be improved, which could be achieved by adjusting the parameters or by having more and/or high-quality data. The point of this comment is this: there's no rule that says 60% accuracy is bad.

  • @كوثرالشلالدة
    @كوثرالشلالدة 3 роки тому +1

    يعطيك الف عافيه

  • @rouassayah
    @rouassayah Рік тому +1

    ممكن تشرح svr?

  • @mominabdlhamed2098
    @mominabdlhamed2098 2 роки тому +1

    لو سمحت ممكن تعمل حلقة عن الsupport Victor regression

    • @rouassayah
      @rouassayah Рік тому

      نفس سؤالي، هل انت فاهم الsvr

  • @طاهرمحمد-غ3ض
    @طاهرمحمد-غ3ض 8 місяців тому

    طب متي يتم استخدام شجره القرار و خوزمية SVM

  • @miraabbassi4784
    @miraabbassi4784 2 роки тому

    the course is well designed well explained, and simplified enough to be understandable.

  • @mohamed.hesham
    @mohamed.hesham Рік тому +1

    Art 🫡♥️

  • @esraamaher3729
    @esraamaher3729 3 роки тому +1

    عاوزة لينك دورة البايثون المدفوعة ؟؟

  • @AbdelrahmanSaeed-q4v
    @AbdelrahmanSaeed-q4v Місяць тому

    ua-cam.com/video/40SamdcOZbM/v-deo.html
    with respect you, but Adding more data is not included in the techniques to solve underfitting. but the model is already more simplify so it won't make your algorithm better. you can reduce the regularization parameter, or do feature engineering to increase the polynomial degree , or add more layers and neurons in the neural network to make model more complex. and thank you for you great explanation.

  • @AbdelrahmanSaeed-q4v
    @AbdelrahmanSaeed-q4v Місяць тому

    ua-cam.com/video/40SamdcOZbM/v-deo.htmlsi=tGpHgZO0WOa1egXk&t=806
    with respect, but the C parameter that is controlling misclassification penalty so,
    Low C → Soft Margin with higher margin (more tolerance for misclassification, better generalization)
    High C → Hard Margin with lower margin (less tolerance, higher risk of overfitting if the data is noisy)
    and this because the C parameter is the inverse of Regularization term. and thank you for your great job.