Backpropagation: How Neural Networks Learn

Поділитися
Вставка
  • Опубліковано 24 гру 2024

КОМЕНТАРІ • 6

  • @markr9640
    @markr9640 11 місяців тому +2

    Nicely done. Love the coloured up maths symbols. Realy makes it look more cuddly and easy.

  • @apianoadventure
    @apianoadventure 14 днів тому

    7:50 'say we have a neuron i connected to every neuron k in the following layer': proceeds to calculate dL/dyi ??? How does the output yi depend on the next weights ???
    A few minutes before with the first example, you calculated dL/dyj ?

  • @saminsolouki
    @saminsolouki 8 місяців тому +1

    what is xj hat ? why "xj hat = yj + wij"?

  • @alicefox538
    @alicefox538 Рік тому +2

    notation could be clearer

  • @pensiveintrovert4318
    @pensiveintrovert4318 Рік тому +1

    You need to be more monotone, to help viewers to feel more excited about backprop.