Excelente tu contenido! Desde la base y los fundamentos de Machine Learning! 🎉 Surge una pregunta: No sería posible entrenar un modelo para que precisamente indique con lenguaje humano o mediante variables conocidas, por qué un sistema de IA tomó ciertas decisiones?
Buen video, gracias. Que pasa con las redes neuronales que detectan por ejemplo cáncer, deberían ser interpretables pero solo son explicables. Seria bueno un video donde expliques el método SHAP para interpretabilidad.
INTERPRETABILIDAD Un modelo es interpretable cuando puede ser entendido desde el input hasta el output, sin necesidad de herramientas adicionales. Esto implica que los pasos que realiza el modelo para llegar a una predicción son transparentes y comprensibles. Esto pasa en modelos sencillos con pocos inputs. - En la regresión lineal se ven los coeficientes de cada variable de entrada y se entiende cómo afectan la predicción - En un árbol de decisión, se visualiza el gráfico del árbol para comprender cómo se toman las decisiones basadas en los umbrales EXPLICABILIDAD Capacidad de un modelo complejo de proporcionar una explicación sobre cómo llegó a un resultado. Requiere de técnicas específicas para analizar las contribuciones de las variables de entrada o los pasos del modelo. - En una Deep NN que predice si una imagen contiene un gato, Grad-CAM sirve para visualizar qué partes de la imagen fueron más relevantes para la predicción - Herramientas como SHAP o LIME se usan para identificar qué variables influyen más en una predicción
Hermano, ¿En que eres Graduado de una Universidad?...🤔 Estoy estudiando Ing computacional, pero veo que usted domina muchos temas que no siempre aparecen en ciertas ramas de informatica, y me dio curiosidad. Recomiendeme libros porfa. 👏😅
Lo que el explica no es algo que se ve en tu carrera porque este tema es avanzado y forma parte del Machine Learning. Y si, el profesor tiene un doctorado.
@@danlessrs Cuando tomaba la materia de "inteligencia Artificial", ahí fue donde vi Álgebra Lineal, Estadística y Probabilidad, pero no cosas tan profundo como esto. Pero, ya entiendo lo del Dotorado👌
🔥🔥Academia Online: codificandobits.com 🔥🔥
🔥🔥Asesorías y formación personalizada: www.codificandobits.com/servicios/ 🔥🔥
Que interesante. Muy buen aporte.
Muy bueno!! 👏👏👏
Buen día. Estaremos atentos a aprender cuales son las técnicas de explicabilidad. Gracias
Si. buena idea para el siguiente video.
Me gusta este tema, podrías hacer un video más largo y analizar algunos paper pls
Excelente tu contenido! Desde la base y los fundamentos de Machine Learning! 🎉
Surge una pregunta: No sería posible entrenar un modelo para que precisamente indique con lenguaje humano o mediante variables conocidas, por qué un sistema de IA tomó ciertas decisiones?
No creo que funcione así, hay varios papers y recursos que lo explican más a fondo
Buen video, gracias. Que pasa con las redes neuronales que detectan por ejemplo cáncer, deberían ser interpretables pero solo son explicables. Seria bueno un video donde expliques el método SHAP para interpretabilidad.
Perfecto Víctor Hugo, tomo nota para en un próximo video hablar en detalle de SHAP aplicado a redes neuronales 😉 Un saludo!
INTERPRETABILIDAD
Un modelo es interpretable cuando puede ser entendido desde el input hasta el output, sin necesidad de herramientas adicionales. Esto implica que los pasos que realiza el modelo para llegar a una predicción son transparentes y comprensibles. Esto pasa en modelos sencillos con pocos inputs.
- En la regresión lineal se ven los coeficientes de cada variable de entrada y se entiende cómo afectan la predicción
- En un árbol de decisión, se visualiza el gráfico del árbol para comprender cómo se toman las decisiones basadas en los umbrales
EXPLICABILIDAD
Capacidad de un modelo complejo de proporcionar una explicación sobre cómo llegó a un resultado. Requiere de técnicas específicas para analizar las contribuciones de las variables de entrada o los pasos del modelo.
- En una Deep NN que predice si una imagen contiene un gato, Grad-CAM sirve para visualizar qué partes de la imagen fueron más relevantes para la predicción
- Herramientas como SHAP o LIME se usan para identificar qué variables influyen más en una predicción
Hermano, ¿En que eres Graduado de una Universidad?...🤔
Estoy estudiando Ing computacional, pero veo que usted domina muchos temas que no siempre aparecen en ciertas ramas de informatica, y me dio curiosidad.
Recomiendeme libros porfa. 👏😅
Lo que el explica no es algo que se ve en tu carrera porque este tema es avanzado y forma parte del Machine Learning. Y si, el profesor tiene un doctorado.
@@danlessrs Cuando tomaba la materia de "inteligencia Artificial", ahí fue donde vi Álgebra Lineal, Estadística y Probabilidad, pero no cosas tan profundo como esto.
Pero, ya entiendo lo del Dotorado👌
@@Elmer_curio lo ves a nivel muy básico. El señor del vídeo lo estudio en profundidad tanto académico como de forma empírica.