Це відео не доступне.
Перепрошуємо.
¿Qué tan buenos son tus Clusters? Métricas para Clustering con Python: Silueta y Davies Bouldin
Вставка
- Опубліковано 14 сер 2024
- Los clusters son patrones subyacentes o agrupamientos que se encuentran naturalmente dentro de datos. Existen muchas técnicas para detectar clusters, sin embargo, estas técnicas por sí solas, no indican qué tan buenos o malos son los clusters que se detectaron. Este video explica dos de las métricas más utilizadas para evaluar clusters, en particular, el coeficiente Silueta y el índice Davies Bouldin.
Para citar este recurso educativo utiliza la siguiente referencia:
Gutiérrez-García, J.O. [Código Máquina]. (2023, 24 de Julio). ¿Qué tan buenos son tus Clusters? Métricas para Clustering con Python: Silueta y Davies Bouldin [Video]. UA-cam. [Incluye aquí la URL del video].
********************************************
Para guiar tu aprendizaje, en este vínculo ( • Curso de Inteligencia ... ) se encuentra una guía secuencial para aprender:
1. Programación Básica con Python;
2. Manejo de Datos;
3. Visualización de Datos;
4. Análisis de Datos; y
5. Aprendizaje de Máquina y Ciencia de Datos.
********************************************
Índice del Video:
0:00 Introducción
2:03 Cohesión de un cluster
3:28 Distancia o Separación entre clusters
5:09 Coeficiente Silueta
13:27 Índice Davies-Bouldin
21:19 Comparación de técnicas: K-Medias vs Propagación de Afinidad
26:23 Cómo determinar el mejor número de clusters (k) en K-Means
29:30 Coeficiente Silueta e Índice Davies-Bouldin con Python
Apoya a Código Máquina dando un Like, con un Super Gracias o visitando nuestra tienda en: / shop
El código y datos del video están disponibles en GitHub github.com/Cod...
⭐ Apoya a Código Máquina dando un Like, Comentando, Compartiendo o con un Super Gracias.
⭐ De la co-fundadora de Código Máquina, productos de cosmética natural SINHAKI:
www.amazon.com...
#MachineLearning #AprendizajeAutomático #Python #AprendizajeDeMaquina #AprendizajeNoSupervisado #Clustering #Silueta #DaviesBouldin #CienciaDeDatos #DataScience
⭐ Apoya a Código Máquina dando un Like, Comentando, Compartiendo o con un Super Gracias.
⭐ De la co-fundadora de Código Máquina, productos de cosmética natural SINHAKI:
www.amazon.com.mx/stores/sinHaki/page/1BD34FBC-C0F9-44F5-AC69-520634334C61?ref_=ast_bln
Octavio, muchas gracias por todos los contenidos publicados, están todos muy bien explicados, es un buen maestro de IA a nivel de programación. Gracias, muchas bendiciones y felicidades. Continúa enriqueciéndonos por favor con más contenido.
Muchas gracias por tus palabras. Son altamente apreciadas!!!
Muy buena explicación y contenido. Te animo a seguir así, eres un crack!
@fandonfandon5777 muchas gracias por tus palabras. Feliz Año!!!
muy bien explicado, muchas gracias
Gracias por comentar!!!
Hola Octavio, de 10 me vino tu explicación, tengo que entregar un trabajo practico y justamente no e tendía bien como entender las metricas. Con el like 9. Mjchas Gracias y Saludos.
@Leonardo-od1sc muchas gracias por tus comentarios y por el apoyo con los likes :)
Eres una máquina Octavio, son buenísimos tus vídeos
@MrOouiui muchas gracias!!!
¡Brutal! Excelente explicación. Me parece fundamental conocer estas métricas junto con los algoritmos de clustering. ¿Existen más métricas o son las únicas?
Parece que me espías cada vez que estoy en un proyecto 😂. Me vino como anillo al dedo. Gracias por todo!!!
@darkstyllv9251 gracias por tus comentarios :)
Me gusta mucho tus videos, espero que vengan muchos más. Eres muy bueno explicando estos temas.
@brayanalexanderramossaravi3212 muchas gracias por tus palabras!!!
Excelente explicación muy digerida!
@mauriciojimenez4022 muchas gracias!!!
Excelente video!!! Podrías considerar dar una explicación de Reducción con T-SNE
@yazielbarbosa1909 gracias por tu comentario. Muy pronto haremos un video sobre t-SNE es un tema muy interesante y útil :)
uff esto es un joya
Eres un crack la verdad, una lastima que la IA no sea tan atractiva para todos
Soberbio, mi Oct, soberbio. No hay manera de remunerarte semejante trabajo. También estaba pensando en que si se ponen las dos métricas en un cartesiano, entre más pegado el valor de la norma de éstas estén sobre el eje x positivó tendrían un mejor balance. Estaría interesante discutirlo. Un abrazo.
@Acrhonoz muchas gracias por tus palabras :) Efectivamente, se pueden usar los valores de las métricas para crear un frete de pareto, si se plantea como un problema de optimización multi-objetivo. Excelente observación!