1.2.3 Gradient Descent for NN الإنحدار الإشتقاقي للشبكات العصبية

Поділитися
Вставка
  • Опубліковано 31 січ 2025

КОМЕНТАРІ • 9

  • @محمدشعبان-غ3ث8ع
    @محمدشعبان-غ3ث8ع 5 місяців тому

    متالق ديما جزاك الله خيرا ربنا يكتر من امثالك ي باشمهندس ياريت بس لو يبقي في تطبيقات عمليه بروجكت كبير نعرف ازاي بنبي neural ونستخدم ال tenserflow يبقي اللهم بارك
    ❤❤❤

  • @mariama8157
    @mariama8157 Рік тому

    ربنا يبارك في علمك يا بشمهندس.

  • @zaidsaleh4
    @zaidsaleh4 Рік тому

    جزاك الله خيرا

  • @khuloodnasher1606
    @khuloodnasher1606 5 років тому

    شرح رايع فهمت الفكره اكثر هنا لاني لم افهمها جيدا في محاضرة اندرو في الماشين ليرنينج

  • @محمدغنام-ذ6خ
    @محمدغنام-ذ6خ 5 років тому +1

    السلام عليكم ورحمة الله وبركاته
    عمل رائع وانا من متابعيك
    اتمني تشرح لنا activation function
    وتغطي الانواع هذه وتوضح الفرق بينها واستخدامات كل واحده العملية
    Sigmoid
    hard_sigmoid
    TanH / Hyperbolic Tangent
    selu
    ReLU (Rectified Linear Unit)
    Swish
    softplus
    softsign
    exponential
    linear
    PReLU
    LeakyReLU
    ELU
    ThresholdedReLU
    LogSigmoid

  • @محمدغنام-ذ6خ
    @محمدغنام-ذ6خ 5 років тому +2

    اتمني تشرح لنا افضل الطرق لضبط الهايبر برامتر
    بشكل الي
    Hyperparameter optimization
    Random Search for Hyper-Parameter Optimization
    GridSearch for Hyper-Parameter Optimization
    هل في انواع اخري غير
    Random Search , GridSearch
    كما تعلم ان Hyperparameter من اهم الاشياء التي تؤثر في كفائة المودل اتمني تغطية هذا الموضوع
    انا من عشاق هذا العلم وبحثت كثير عن شرح واضح لانواع دوال التفعيل ومتي استخدم كل واحده عمليا ونفس الشئ عن الهايبر بارمتر كيف اضبطها تلقائيا بحيث توفر كثير في زمن التعلم وتعطيني افضل النتائج
    activation function
    Hyperparameter optimization
    وشكرا لك علي شرحك الرائع

    • @hebahd240
      @hebahd240 4 роки тому +1

      قدرت تحصل الاجابه؟

  • @abdulrahmanzeyad7969
    @abdulrahmanzeyad7969 5 років тому

    شكراً لك