Multi Layer Perceptron , Back Propagation - مسائل على الشبكات العصبية ذات اكثر من طبقة

Поділитися
Вставка
  • Опубліковано 6 січ 2025

КОМЕНТАРІ • 59

  • @mohamedwalid4850
    @mohamedwalid4850 Рік тому

    شرح ممتاز أستاذي ...
    شرح حضرتك على مدار سنوات دراستي في الكلية دائما يبهرني
    جزاك الله عنا كل خير

  • @shatha8659
    @shatha8659 7 місяців тому

    الله يكتب اجرك مثل ما سهلت علينا الحل وكان بسيط ومفهوم افضل حل شفته للان شكرا لك 🙏🏻

  • @taki7394
    @taki7394 Місяць тому

    بارك الله فيك كنت أحتاج لشرح دقيق مثل هذا

  • @abdallayasin903
    @abdallayasin903 2 роки тому +1

    شرح أكثر من رائع.......وفقك الله .

  • @zainabal_abede9139
    @zainabal_abede9139 3 роки тому +1

    شكرا أستاذ شرح اكثر من ممتاز موفق أن شاء الله

  • @maissal5507
    @maissal5507 2 роки тому

    جزاك الله الف خير وجعله في ميزان حسناتك تحياتي الك

  • @sabahhegazy7606
    @sabahhegazy7606 3 роки тому

    جزاك الله خيرا .. ونفعنا الله بعلمك

  • @Zahraaalkamil
    @Zahraaalkamil 2 роки тому

    ابداع المصرين

  • @احبآللهمناحبالامامعلياميرالمؤم

    سلام آلله🤍على سيدي ومولاي ابا عبدآلله الامام الحسين

  • @lythsh
    @lythsh 3 роки тому

    نفع الله بكم
    كل الاحترام والتقدير 🌹

  • @walidmunawwar
    @walidmunawwar 3 роки тому

    شكراَ يبش مهندس ❤❤❤❤

  • @mohammedk.h.f3016
    @mohammedk.h.f3016 2 роки тому

    بارك الله بك

  • @احبآللهمناحبالامامعلياميرالمؤم

    آشهد آن لا آله🤍آلا آلله🤍آللهم🤍صلي على محمدوآل بيت محمد سلام آلله🤍على سيدي ومولاي ابا عبدآلله الامام الحسين وسيدي ومولاي الامام علي بن ابي طالب امير المؤمنين وآلحمدلله🤍رب🤍العالمين

  • @jamalnuman
    @jamalnuman 2 роки тому

    افضل شرح

  • @yasmineabdulrahman3905
    @yasmineabdulrahman3905 3 роки тому

    شرح ممتاز جزاك الله خيرا

  • @NoureddineBelhani
    @NoureddineBelhani 3 роки тому

    MERCI tres bonne explication

  • @mohamedelganainy4340
    @mohamedelganainy4340 Рік тому

    شرح روعة

  • @mohammedomar265
    @mohammedomar265 2 роки тому

    الله يجزيك الخير

  • @spadaalhemmali5152
    @spadaalhemmali5152 11 місяців тому

    لو سمحت هل متوفر حل المسائل الاخيرة بملف pdf

  • @احبآللهمناحبالامامعلياميرالمؤم

    آشهد آن لا آله🤍آلا آلله🤍آللهم🤍صلي على محمدوآل بيت محمد سلام آلله🤍على سيدي ومولاي ابا عبدآلله الامام الحسين وسيدي ومولاي الامام علي بن ابي طالب امير المؤمنين وآلحمدلله 🤍رب العالمين

  • @soheibabdelkadercharif7222
    @soheibabdelkadercharif7222 2 роки тому

    Very well explained thank you so much , i have a question: after we finish with the training part and we got the final weight, we do a test with a new pattern using the weight that we found on trainning , so if the value of the Y for exemple will be 0.55 it will belongs to class (1 or 0 ) ? thank you again

    • @hazema.6150
      @hazema.6150 2 роки тому +1

      when the problem is binary classification (0 or 1) , the default is if the Y >= 0.5 then it is classified as 1 and if Y < 0.5 then it is classified as 0

    • @mohamedyasser2068
      @mohamedyasser2068 Рік тому

      it means that it's by 55% belongs to class 1 and by 45% it belongs to class 0

  • @ahmedabid6799
    @ahmedabid6799 3 роки тому

    جزاك الله خيرا

  • @mohamedelsaeidy7149
    @mohamedelsaeidy7149 4 роки тому +1

    يا ريت لو سمحت تنزل البي دي اف الخاصه بكل فيديو في الوصف بتاع الفيديو او تحطهم كلهم في مجلد درايف و تحط رابطه في كل فيديو

    • @AhmedYousry609
      @AhmedYousry609  4 роки тому +3

      drive.google.com/file/d/1fCZ5SpPJWV6NHHkJPOfK5_OPypw8hYae/view?usp=sharing

  • @medBkDev
    @medBkDev 5 місяців тому

    يا استاذ لماذا اسعملت طريقة الدلتا وانت عندك نورون متعدد الطبقات ؟
    في الفيديو 7 اعتمد الدلتا لان لديك بارسابترون ولكن هنا لماذا استعملت الدلتا وانت لديك طبقة مخفية ؟

  • @abdelrahmanhesham0
    @abdelrahmanhesham0 2 роки тому

    هو مش قانون الويت هو الويت القديم ناقص الحاجات اللى بعده مش زائد؟؟؟

    • @AhmedYousry609
      @AhmedYousry609  2 роки тому +1

      دا بيتحدد علي حسب قيمة الخطأ ممكن تكون سالب او موجب

  • @menouerdjillali2358
    @menouerdjillali2358 2 роки тому

    اذا كان عندنا one layer perceptron هل نستعمل فقط forward probagation بدون backward probagation للوصول error =0

  • @hasnahaouchet1149
    @hasnahaouchet1149 2 роки тому

    شكرا بارك الله فيك
    ممكن شرح وافي كهذا الشرح للقيام بكل العملية على matlab

    • @AhmedYousry609
      @AhmedYousry609  2 роки тому +1

      للاسف مش بنشتغل ماتلاب

    • @hasnahaouchet1149
      @hasnahaouchet1149 2 роки тому

      @@AhmedYousry609 شكرا
      اي برنامج تنصحني باستعماله backpropagation neural network و تكون قد استعملته و اقترح لي دليل او tutorial من فضلك

  • @msibai
    @msibai 4 роки тому

    What is the software you are using to record your videos while you are explaining?

  • @hortensiasar4685
    @hortensiasar4685 Рік тому

    السلام عليكم من فضلك استاذ بحثي حول associatives functions using neural networks

  • @hassenzaayra5419
    @hassenzaayra5419 4 роки тому

    ماهو الفرق بين epoch و batch خاصة عندما يكون لدينا داتا متكونة من الصور

    • @AhmedYousry609
      @AhmedYousry609  4 роки тому +2

      batch هو تكنيك يستخدم لتفسبم الداتا الى اجازاء متساوية مثلا لو عندنا 1000 صورة بيقسم ال 1000 دول الى عشر اجزاء كل منها 100
      صورة ويدخلم على الالجورزم والهدف من ذلك تقليل الوقت

    • @AhmedYousry609
      @AhmedYousry609  4 роки тому +1

      اما ا epoch كما قلت فى الفيديو هو تنفيذ الالجورزم على كل samples المتاحة يعنى مثلا لو عندى بيانات 1000 مريض بعد ما قسمت الدات الى batches تخلص شغل الالجورزم على ال 100 مريض كده دا بالنسبة لنا epoch ايا كان ممكن يكونو ال 100 مريض دول batch او ممكن يكونو 1000 مريض كلهم لو شغال من غير batch

  • @فتحاللهعليالكالح
    @فتحاللهعليالكالح 3 роки тому

    أنا فعلاً ممتن كثيرا لحضرتك، لي سؤال لوفيه مثال يتعلق بمصفوفات مش أرقام .... يعني الOutput بدل ما يطلع رقم ...لأ ...المخرجات عبارة عن مصفوفة. ؟؟؟؟ أيه العمل ساعتها ... ؟؟؟

    • @AhmedYousry609
      @AhmedYousry609  3 роки тому

      عادى جدا تابع المشاريع هتلاقي في حاجات شبيهه

    • @pascal3458
      @pascal3458 2 роки тому

      باي جامعة يدرس هذا العلم؟

  • @muhammadabdulmecid9946
    @muhammadabdulmecid9946 2 роки тому

    جزاك الله خيرا..
    هل يوجد كتاب تنصح به بحيث يكون مرجع؟

    • @AhmedYousry609
      @AhmedYousry609  2 роки тому +1

      hands on machine learning using scikit learn

  • @abdelrhmanahmed5920
    @abdelrhmanahmed5920 Рік тому

    ممكن ال pdf

  • @wabisabi6680
    @wabisabi6680 4 роки тому

    جزاك الله كل خير\
    ممكن نشوف كيف يتم تطبيقها على الماتلاب وعندي مشكلة (عدد Layer كيف يتم تحديده ) هل من المستخدم ولا هي متعلقة من قبل عدد Epoch ,بالأحرى عدد Layerبماذا متعلق مشكور على الرد

    • @AhmedYousry609
      @AhmedYousry609  4 роки тому +1

      عدد الطبقات هوه يحدد من المبرمج على حسب المشكلة اما بالذيادة او النقصان وفى tool اسمها keras tuner يمكن تساعدك فى تحديد افضل عدد طبقات اما بالنسبة للماتلاب انا لا اشتغل ماتلاب

  • @AzizAhmed-s4b
    @AzizAhmed-s4b 10 днів тому

    من فضلك يا بش مهندس جيب لنا ملف الـ pdf الذي تشرح منه

    • @AhmedYousry609
      @AhmedYousry609  9 днів тому

      كل شيء موجود فى وصف اول فيديو

  • @billhaya
    @billhaya 3 роки тому

    هل قيمة n ودالة error ثابتة
    وكيف نحدد n

  • @menouerdjillali2358
    @menouerdjillali2358 2 роки тому

    t IS disered output it IS not actuel output

  • @hortensiasar4685
    @hortensiasar4685 Рік тому

    plzzzzzzzzzzzzzz heeeeeelp

  • @asmaamahmoud7465
    @asmaamahmoud7465 3 роки тому +1

    جزاك الله خيرا

    • @SajaF-tp9ts
      @SajaF-tp9ts 2 роки тому

      عاشت ايدك و جزاك الله خير الجزاء

  • @dinakh9990
    @dinakh9990 7 місяців тому

    جزاك الله خيرا