👉 Xiperia ofrece consultoría empresarial que transforma datos en conocimiento accionable para alcanzar los objetivos de tu negocio. Conoce más en www.xiperia.com
@EduardoMarck-jo6mt muchísimas gracias por creer en este proyecto y por apoyarnos. Como una pequeña muestra de nuestro agradecimiento, por favor échale un ojo a nuestro último video de "backpropagation" por ahí del segundo 48: ua-cam.com/video/iOsR-EC9z6I/v-deo.html
Joya de video, una consulta, los subgrupos para la validación cruzada también son tomados los datos de forma aleatoria (como se divide el train y test)
Permíteme una pregunta, en dónde puedo encontrar una guía respecto de una hoja de ruta para evaluar cada modelo, es decir: 1. Cómo selecciona el dataset. 2. Cómo limpiar, ordenar, preparar el dataset 3. Cuáles son las librerías utilizadas, 4. Cuál es la estructura del modelo. 5. Aparte de la estructura qué métricas de desempeño o ajuste se deben realizar 6. Qué otras recomendaciones más hay que realizar al momento de desarrollar un modelo. 7. Etc. Saludos !!
Excelente Octavio nos aterriza un poco el tema. Te puedo sugerir que incluyas entre los videos , uno de modelo de redes neuronales de sklearn. me intereza mucho Saludos
Como siempre excelente video, solo una duda... a la hora de configurar croos_val_score siempre debemos agregar las variables completas(X=X, y=y) sin división? como lo realizaste en el video, o debemos aplicar Croos Validation solo con los datos de entrenamiento (X=X_train, y=y_train), muchas gracias Octavio.
Muchas gracias por tus comentarios y por tu pregunta. Si tienes muy pocos datos, entonces, si se utilizan todos los datos. Sin embargo, idealmente, si hay muchos datos, se utiliza un cierto porcentaje (ejemplo el 80%) de los datos para determinar los hiper-parámetros de un modelo usando cross-validation, y el resto de los datos (ejemplo 20%) se utiliza para evaluar el desempeño del modelo. Espero la respuesta ayude un poco :)
Muy buen video gracias por compartir la información!!! Tengo una pregunta respecto a este método, se podría dividir el dataset en train y test calcular la matriz de confusión y las métricas de score para compararlos con la validación cruzada? Lo pregunto porque podríamos tener un dataset y aplicar distintos tipos de algoritmos de clasificación y con la validación cruzada podríamos determinar cual de ellos tiene la mayor precisión y a su vez la mejor aproximación a la métricas calculadas previamente, seria de utilidad hacer esta comparación?
Gracias por tus comentarios y pregunta. Al respecto, si tienes los datos suficientes, es preferible comparar los diferentes modelos utilizando validación cruzada pues es una evaluación más robusta. Si no hay datos suficientes, puedes comparar los modelos usando su rendimiento con el test set. Lo que te recomiendo es evaluar todos los modelos utilizando la misma metodología (ya sea test set o validación cruzada) para que los resultados sean comparables.
¡Excelente explicación! De las mejores que haya escuchado, tengo una pequeña duda ¿Es una buena práctica al momento de dividir los datos en train, test y validación utilizar un K-fold cross validation para que los datos estén muy bien permutados o no vale la pena?
Gracias por preguntar. Muchas librerías ya realizan un muestreo aleatorio para crear los folds de cross-validation. Entonces, no habría ganancia al realizar un doble muestreo aleatorio. Gracias por el ver el canal :)
excelente contenido , sin embargo lo vi a una velocidad de 1.75 y aun así me parece que habla lento, podría considerar ponerle mayor velocidad antes de subirlo, super clara la explicación
👉 Xiperia ofrece consultoría empresarial que transforma datos en conocimiento accionable para alcanzar los objetivos de tu negocio. Conoce más en www.xiperia.com
Excelente explicación, no solo es un canal muy bueno explicando ML en español, es muy bueno explicando ML/IA en general.
Muchas gracias por tus comentarios 😉
La mejor explicación del tema que he visto por internet.
José Manuel muchas gracias por tus comentarios y por seguir el contenido del canal :)
Excelente, tu explicación es muy buena, explicas en forma clara y al detalle, te felicito 👍👍
Te agradezco mucho!!
Este canal es oro!
¡¡¡Muchas Gracias!!!
Que canal tan bueno, un moton de detalles que uno no sabe y que pueden hacer la diferencia las aprendo acá.
Brahian muchas gracias por tus comentarios y por interactuar en el canal :)
Eres un excelente profesor. Te saludo desde Barranquilla Colombia
@JavierCarpintero muchas gracias por tus palabras. Saludos desde la Ciudad de México :)
Thanks!
@EduardoMarck-jo6mt muchísimas gracias por creer en este proyecto y por apoyarnos. Como una pequeña muestra de nuestro agradecimiento, por favor échale un ojo a nuestro último video de "backpropagation" por ahí del segundo 48: ua-cam.com/video/iOsR-EC9z6I/v-deo.html
excelente!!!, muchas gracias por su contenido, muy claro y entendible!
Muchas gracias por seguir el contenido del canal!!!
Los videos de este canal son demasiado útiles!!. Muchísimas gracias
¡Muchas gracias!
Muchas gracias Octavio, todo a quedado claro !!
Muchas gracias por comentar :)
Muchas gracias por el material, es de calidad y claro
@manuelcorrea256 muchas gracias y feliz año!!!
Excelente explicación.!! te ganaste un nuevo suscriptor
¡¡¡Muchas gracias!!!
Mas claro que mi profesora de data science
Gracias, muy buena explicaciòn
@user-do3wk5ng2h es un placer. Feliz año!!!
Excelente canal , sos muy buen profesor . Saludos
¡Muchas gracias! :)
Genial buen video, ere muy bueno ojala sigas subiendo mas videos
Gracias por tu apoyo José. Saludos!!
Todos los videos son una genialidad, ilustrativo, claro, didáctico. Queda de uno el estudiar y aplicar lo que mencionas Octavio. Saludos
Muchas gracias por tus comentarios :)
Joya de video, una consulta, los subgrupos para la validación cruzada también son tomados los datos de forma aleatoria (como se divide el train y test)
super claro, gracias Octavio!
Gracias por interactuar y por tus comentarios :)
Gracias Octavio, excelente video.
Muchas gracias por ver el canal e interactuar con nosotros :)
Muchas gracias por el video! De verdad, muy enriquecedor! Sigue así!
¡Muchas gracias por tus comentarios! :)
Permíteme una pregunta, en dónde puedo encontrar una guía respecto de una hoja de ruta para evaluar cada modelo, es decir:
1. Cómo selecciona el dataset.
2. Cómo limpiar, ordenar, preparar el dataset
3. Cuáles son las librerías utilizadas,
4. Cuál es la estructura del modelo.
5. Aparte de la estructura qué métricas de desempeño o ajuste se deben realizar
6. Qué otras recomendaciones más hay que realizar al momento de desarrollar un modelo.
7. Etc.
Saludos !!
Excelente Octavio nos aterriza un poco el tema. Te puedo sugerir que incluyas entre los videos , uno de modelo de redes neuronales de sklearn. me intereza mucho Saludos
Muchas gracias por tus comentarios y por esa excelente sugerencia. Muy probablemente iniciando el año metamos algunos videos sobre redes neuronales :)
Buenisimo!
Muchas gracias por tus palabras!!!
Como siempre excelente video, solo una duda... a la hora de configurar croos_val_score siempre debemos agregar las variables completas(X=X, y=y) sin división? como lo realizaste en el video, o debemos aplicar Croos Validation solo con los datos de entrenamiento (X=X_train, y=y_train), muchas gracias Octavio.
La Croos Validation solo se hace sobre los datos de entrenamiento
Muchas gracias por tus comentarios y por tu pregunta. Si tienes muy pocos datos, entonces, si se utilizan todos los datos. Sin embargo, idealmente, si hay muchos datos, se utiliza un cierto porcentaje (ejemplo el 80%) de los datos para determinar los hiper-parámetros de un modelo usando cross-validation, y el resto de los datos (ejemplo 20%) se utiliza para evaluar el desempeño del modelo. Espero la respuesta ayude un poco :)
@@CodigoMaquina cuantos datos serian muchos como para que ameriten hacer un split de los datos y separar ese 20% para dejarlo para evaluar?
Puedo hacer una validación cruzada teniendo los datos ya clasificados fuera de python?
Muy buen video gracias por compartir la información!!! Tengo una pregunta respecto a este método, se podría dividir el dataset en train y test calcular la matriz de confusión y las métricas de score para compararlos con la validación cruzada? Lo pregunto porque podríamos tener un dataset y aplicar distintos tipos de algoritmos de clasificación y con la validación cruzada podríamos determinar cual de ellos tiene la mayor precisión y a su vez la mejor aproximación a la métricas calculadas previamente, seria de utilidad hacer esta comparación?
Gracias por tus comentarios y pregunta. Al respecto, si tienes los datos suficientes, es preferible comparar los diferentes modelos utilizando validación cruzada pues es una evaluación más robusta. Si no hay datos suficientes, puedes comparar los modelos usando su rendimiento con el test set. Lo que te recomiendo es evaluar todos los modelos utilizando la misma metodología (ya sea test set o validación cruzada) para que los resultados sean comparables.
¡Excelente explicación! De las mejores que haya escuchado, tengo una pequeña duda ¿Es una buena práctica al momento de dividir los datos en train, test y validación utilizar un K-fold cross validation para que los datos estén muy bien permutados o no vale la pena?
Gracias por preguntar. Muchas librerías ya realizan un muestreo aleatorio para crear los folds de cross-validation. Entonces, no habría ganancia al realizar un doble muestreo aleatorio. Gracias por el ver el canal :)
😀
@israelmg1749 lo mejor para este 2024!
excelente contenido , sin embargo lo vi a una velocidad de 1.75 y aun así me parece que habla lento, podría considerar ponerle mayor velocidad antes de subirlo, super clara la explicación
A mi me parece bien la voz tal cual está. Tal vez en algunos países se habla mucho más rápido.
@@RaulOramas soy chileno y me acomoda la velocidad en la que explica AJAJAJ
@@yaredlevi jajaja qué buena¡