Primeramente quería felicitarlo por lo ameno y lo clarificador que resulta escucharlo en cada video. Le animo encarecidamente a que siga aunando y compartiendo su conocimiento, y a su vez, quisiera sugerirle otro foco de estudio como puede ser el tratamiento predictivo de datos de mercado, un clasificador de escenarios de mercado, PCA sobre acciones...sería genial poder obtener su feedback al respecto en un próximo video. Reciba un cordial saludo y muchas gracias de antemano.
Hola Enrique, gracias por tus comentarios. Y desde luego, el tema de PCA y la predicción de acciones y movimientos del mercado está en la lista de videos por venir. ¡Un saludo!
Creo que dentro de muy poco tiempo este canal sera una referencia en el tema, sobre todo para los hispanohablantes. Muy buen material, excelente didáctica y edición impecable. Muy agradecido por la claridad y precision en la exposición del tema. Animos. Y espero que sigan viniendo mas videos.
Hola Miguel, muchas gracias por tan magnifica pagina. Estoy estudiando Data Science y justo estoy en un proyecto de detección de transacciones fraudulentas. En este, no tenemos una característica (columna) que identifique los casos de fraudes. Es posible que, utilizando "autoencoder" podamos detectar posibles casos de fraudes. Desde ya gracias y atento a tus comentarios.
Hola! Independientemente de la arquitectura que uses (autoencoders o redes neuronales convencionales), es ideal conocer qué datos pertenecen a cada categoría (transacciones normales o fraudulentas). La otra opción que se me ocurre es por ejemplo entrenar el autoencoder para obtener una representación compacta del dato, y luego usar algún algoritmo de "clustering" con dos categorías, para que de forma no-supervisada (es decir sin conocer a qué categoría pertenece cada dato) clasifique el set en dos agrupaciones. Es un problema interesante. La verdad no he resuelto algo similar, pero creo que lo que te sugiero podría ser una alternativa. Me cuentas cómo te va. Un saludo!
Muy buen video, bien explicado y puntual Tengo una duda a que hacen referencia los datos de las características? solo me falta entender eso para saber que es y ver otras formas de trabajar con el dataset.
Hola Santiago. Desafortunadamente los dueños del dataset, entidades bancarias de Europa, no divulgaron esta información, por temas de privacidad. Un saludo!
Hola Jean. La forma recomendada de crearlo es usando Input y Model, porque esta sintaxis te permite luego interconectar el codificador con el decodificador. Un saludo!
Porque la funcion de actvacion de TanH es ta siendo usada en el encoder y decoder, cual seria la diferencia en este ejemplo de usar otra funcion de activacion? No se si tengas un ejemplo de en que casos es mejor usar una funcion u otra, osea un poco mas dando ejemplos de problemas mas especificos.
Hola Miguel. No entiendo como generar una predicción para los proximos 10 dias x ejemplo. Tenes alguna referencia o link donde pueda aprenderlo? Gracias
Sergio te refieres al video sobre predicción de acciones en la bolsa con redes LSTM? El código fuente permite hacer la predicción para el próximo día, tomando el dato de los 60 días anteriores. Así que si quieres hacer la predicción para los próximos 10 días te sugiero: 1. Tomar el dato conocido de los días 1-60 y predecir el día 61 2. Tomar el dato conocido de los días 2-60 y la nueva predicción del día 61, para predecir el día 62 3. Repetir el paso 2 hasta llegar a la predicción del día 70 Un saludo!
muchas gracias por tus explicaciones tan claras y entretenidas. Espero sigas haciendo muchos mas, por cierto has pensado hacer algo con trasferencia de estilo para imágenes o deepdream?
Hola! Claro que sí, el tema de transferencia de estilo es súper interesante, y desde luego que se encuentra en la lista de videos por venir. Un saludo!
Hola Carlos. Tal vez tuvo una caída temporal el servidor. Acabo de revisar y está funcionando el enlace: www.codificandobits.com/blog/autoencoders-explicacion-y-tutorial-python/ Un saludo!
Si los datos no pueden diferenciarse por ninguna caracteristica (como vimos en los gráficos) qué es lo que detecta el algoritmo, que hace que al entrenarse con datos normales , al final el error de estos sea menor que en los fraudulentos ?, o sí tienen diferencia (captable por la computadora y no por el ojo humano) y sería los montos más bajos ?. Estoy algo perdido, si me responden por favor explicarme cual es la diferencia que notó el algoritmo que hace que funcione a menor error con los datos normales.
Saludos Miguel, ante todo excelente el material y la presentación, muy didáctico te felicito. Pero parece ser que ya no esta disponible el dataset creditcardfraud.zip en la dirección que lo pusiste, como podría tener acceso a una copia?, te agradecería si pudieras compartirlo.
Hola, enhorabuena por el canal. Son buenisimas las explicaciones. Pero tengo un problema a la hora de descargar el código, ya que me dice que el repositorio esta vacío. Saludos y gracias
🔥🔥Academia Online: codificandobits.com 🔥🔥
🔥🔥Asesorías y formación personalizada: codificandobits.com/servicios 🔥🔥
Primeramente quería felicitarlo por lo ameno y lo clarificador que resulta escucharlo en cada video. Le animo encarecidamente a que siga aunando y compartiendo su conocimiento, y a su vez, quisiera sugerirle otro foco de estudio como puede ser el tratamiento predictivo de datos de mercado, un clasificador de escenarios de mercado, PCA sobre acciones...sería genial poder obtener su feedback al respecto en un próximo video. Reciba un cordial saludo y muchas gracias de antemano.
Hola Enrique, gracias por tus comentarios. Y desde luego, el tema de PCA y la predicción de acciones y movimientos del mercado está en la lista de videos por venir.
¡Un saludo!
@@codificandobits trato de descargar el codigo y no da
Este es el mejor canal para aprender estos temas, felicitaciones Miguel!!!
Gracias por tu comentario Juan! Un saludo 😉
Creo que dentro de muy poco tiempo este canal sera una referencia en el tema, sobre todo para los hispanohablantes. Muy buen material, excelente didáctica y edición impecable. Muy agradecido por la claridad y precision en la exposición del tema. Animos. Y espero que sigan viniendo mas videos.
Hola y gracias por tu comentario, esto me motiva montones. Y claro que sí, vienen más videos, y ahora semanalmente!
Hola Miguel, muchas gracias por tan magnifica pagina. Estoy estudiando Data Science y justo estoy en un proyecto de detección de transacciones fraudulentas. En este, no tenemos una característica (columna) que identifique los casos de fraudes. Es posible que, utilizando "autoencoder" podamos detectar posibles casos de fraudes.
Desde ya gracias y atento a tus comentarios.
Hola!
Independientemente de la arquitectura que uses (autoencoders o redes neuronales convencionales), es ideal conocer qué datos pertenecen a cada categoría (transacciones normales o fraudulentas).
La otra opción que se me ocurre es por ejemplo entrenar el autoencoder para obtener una representación compacta del dato, y luego usar algún algoritmo de "clustering" con dos categorías, para que de forma no-supervisada (es decir sin conocer a qué categoría pertenece cada dato) clasifique el set en dos agrupaciones.
Es un problema interesante. La verdad no he resuelto algo similar, pero creo que lo que te sugiero podría ser una alternativa.
Me cuentas cómo te va. Un saludo!
Hola, buenas tardes, por qué se usó la variable 'ecm' como valor para 'preds_proba' dentro del cálculo de precision_recall_curve. Saludos
Muchas gracias por la explicacion Profe. Super deductivo y facil de entender... Pulgar arriba..
Como supuesto siempre evito contenido en español, pero le di una oportunidad a este canal. Gratamente me sorprendiste, muy buen contenido.
El mejor canal en español que explica bien todo!!! :"3
Gracias por ese comentario Johann, me motiva a continuar publicando cada vez mejores videos. Un saludo!
Muchas gracias por compartir este contenido!!!!
Creo que en la explicación de Y pred en el 11:45 lo has dicho al revés ya que asigna 1 si está por encima del umbral de error.
Muy buen video, bien explicado y puntual
Tengo una duda a que hacen referencia los datos de las características? solo me falta entender eso para saber que es y ver otras formas de trabajar con el dataset.
Hola Santiago. Desafortunadamente los dueños del dataset, entidades bancarias de Europa, no divulgaron esta información, por temas de privacidad. Un saludo!
Que gran video, muchas gracias por el contenido
felicitaciones explicas muy bien
😉
Genial muy buen contenido; tengo una duda puedo crear un autoencoder usando keras.Squential o necesariamente debo crearlo usando Input, Model....
Hola Jean. La forma recomendada de crearlo es usando Input y Model, porque esta sintaxis te permite luego interconectar el codificador con el decodificador. Un saludo!
Esto es una joya.... Muchas gracias....🎉
Que canal tan genial
Porque la funcion de actvacion de TanH es ta siendo usada en el encoder y decoder, cual seria la diferencia en este ejemplo de usar otra funcion de activacion?
No se si tengas un ejemplo de en que casos es mejor usar una funcion u otra, osea un poco mas dando ejemplos de problemas mas especificos.
Muy bien video, Muchas gracias
😉
Hola Miguel. No entiendo como generar una predicción para los proximos 10 dias x ejemplo. Tenes alguna referencia o link donde pueda aprenderlo? Gracias
Sergio te refieres al video sobre predicción de acciones en la bolsa con redes LSTM? El código fuente permite hacer la predicción para el próximo día, tomando el dato de los 60 días anteriores. Así que si quieres hacer la predicción para los próximos 10 días te sugiero:
1. Tomar el dato conocido de los días 1-60 y predecir el día 61
2. Tomar el dato conocido de los días 2-60 y la nueva predicción del día 61, para predecir el día 62
3. Repetir el paso 2 hasta llegar a la predicción del día 70
Un saludo!
Exelente explicación
Gracias por tu comentario, y ¡bienvenido al canal!
excelente contenido mi amigo, hazle un poco más de seo a tu contenido para aumentar tu alcance 😅
woow...Excelente explicación!!!
😉
muchas gracias por tus explicaciones tan claras y entretenidas. Espero sigas haciendo muchos mas, por cierto has pensado hacer algo con trasferencia de estilo para imágenes o deepdream?
Hola! Claro que sí, el tema de transferencia de estilo es súper interesante, y desde luego que se encuentra en la lista de videos por venir. Un saludo!
@@codificandobits que bueno, lo esperare !! gracias por tus enseñanzas
Gracias por las explicaciones, pero el enlace al blog no funciona. Saludos.
Hola Carlos. Tal vez tuvo una caída temporal el servidor. Acabo de revisar y está funcionando el enlace: www.codificandobits.com/blog/autoencoders-explicacion-y-tutorial-python/
Un saludo!
Si los datos no pueden diferenciarse por ninguna caracteristica (como vimos en los gráficos) qué es lo que detecta el algoritmo, que hace que al entrenarse con datos normales , al final el error de estos sea menor que en los fraudulentos ?, o sí tienen diferencia (captable por la computadora y no por el ojo humano) y sería los montos más bajos ?. Estoy algo perdido, si me responden por favor explicarme cual es la diferencia que notó el algoritmo que hace que funcione a menor error con los datos normales.
Los cursos son así de intuitibos y claros como este video? Me interesa mucho!
Hola Paula Andrea. Sí, son por el estilo. Pero con muuucho más detalle y con el componente práctico paso a paso. Un saludo!
Saludos Miguel, ante todo excelente el material y la presentación, muy didáctico te felicito. Pero parece ser que ya no esta disponible el dataset creditcardfraud.zip en la dirección que lo pusiste, como podría tener acceso a una copia?, te agradecería si pudieras compartirlo.
Hola Pablo, no lo había notado. Acabo de actualizar el repositorio y del mismo ya puedes descargar el set de datos.
¡Un saludo!
en que lenguaje se trabajo este proyecto ?
Hola Andrés. Es Python.
Un saludo!
Me acabo de enamorar de este canal :)
¡Wow, gracias por ese comentario! Vienen más videos, espero sigamos conectados. ¡Un saludo!
Hola, enhorabuena por el canal. Son buenisimas las explicaciones. Pero tengo un problema a la hora de descargar el código, ya que me dice que el repositorio esta vacío. Saludos y gracias
Hola Rafael! Acabo de actualizar el repositorio en Github, ya se encuentra allí toda la información. Saludos!
Puedes hacer un tutorial de Autoencoder Convolucional porfavor ??
Gracias por tu comentario Edward. Tu sugerencia va de una vez a la lista de videos que tengo por hacer. Un saludo!
👍👍👍
No entiendo, que es class
El link me envia a repositorio vacio u.u
Hola Rossic! Acabo de actualizar el repositorio en GitHub. Un saludo!
@@codificandobits muchas gracias!! Buen video