El Perceptrón Multicapa - Clasificación

Поділитися
Вставка

КОМЕНТАРІ • 4

  • @emoai77
    @emoai77 Рік тому

    La función de activación no lineal permite al perceptrón multicapa aprender y representar relaciones no lineales entre las variables de entrada y salida. Si solo se utilizara una función de activación lineal, la red estaría limitada a aprender solo transformaciones lineales de los datos.

  • @Bola10010
    @Bola10010 3 роки тому +1

    No tiene caso poner una función lineal en las capas ocultas, ya que dará los mismo que si solo trabajamos con un perceptrón.

  • @victorcalderon8496
    @victorcalderon8496 2 роки тому

    Crack !(11)

  • @Cpacti
    @Cpacti 4 роки тому

    Creo que se debe poner una función de activación relu para evitar poner funciones lineales que su respuesta sea otra salida lineal