La función de activación no lineal permite al perceptrón multicapa aprender y representar relaciones no lineales entre las variables de entrada y salida. Si solo se utilizara una función de activación lineal, la red estaría limitada a aprender solo transformaciones lineales de los datos.
La función de activación no lineal permite al perceptrón multicapa aprender y representar relaciones no lineales entre las variables de entrada y salida. Si solo se utilizara una función de activación lineal, la red estaría limitada a aprender solo transformaciones lineales de los datos.
No tiene caso poner una función lineal en las capas ocultas, ya que dará los mismo que si solo trabajamos con un perceptrón.
Crack !(11)
Creo que se debe poner una función de activación relu para evitar poner funciones lineales que su respuesta sea otra salida lineal