Métricas para Clasificadores de Machine Learning ➤ Matriz de Confusión Precision Accuracy Recall F1

Поділитися
Вставка
  • Опубліковано 22 жов 2024

КОМЕНТАРІ • 19

  • @CodigoMaquina
    @CodigoMaquina  2 роки тому +4

    👉 Xiperia ofrece consultoría empresarial que transforma datos en conocimiento accionable para alcanzar los objetivos de tu negocio. Conoce más en www.xiperia.com

  • @fpicado1
    @fpicado1 7 місяців тому +2

    De los mejores canales por mucho, mil gracias por esto!

    • @CodigoMaquina
      @CodigoMaquina  2 місяці тому

      Muchas gracias por tus palabras!!!

  • @edwardbrandt4868
    @edwardbrandt4868 Рік тому +3

    Primeramente, agradecer lo excelente que es este canal llevando el conocimiento de ML en nuestra lengua, eso es impagable. Como aporte a este video quiero indicar la accuracy o exactitud es una metrica global, que indica la calidad del modelo para predecir los estados o respuestas cuando trabajamos con data supervisada. En términos simples la probabilidad de predecir cualquiera de los estados defenidos. Ahora recall y precisión no son globales como se presentó. Precison es la probabilidad del modelo de predecir un estado en particular, en este caso saludable o mortal. Por lo tanto cuando hablamos de precision debemos hacer referencia en su valor a que estado esta referencia. Lo mismo con recall o sensibilidad donde corresponde a la probabilidad de que el modelo capture la condicion particular. Es decir tendremos un recall para saludable y uno para mortal, no global. Como sugerencia la matriz de confusion si bien se puede mostrar en términos contables, es mas ludica cuando se mueatra en términos de porcentajes, y esto porque la diagonal de la matriz representa el recall que el modelo aplica al estado real. Me parecio miy bien explicar el concepto de data desbalanceada, ahora el que el clasificador tenga calificativos depende de la data, del modelo elegido, sus hiperparametros y de normalizacion o standarizacion escogida, dado que en el ejemplo se utilizo arbol de decisión no requiere normalizar la data en cuanto a modelos como svm que realizan clasificaciones basedas en distancia euclidiana para la data. Es un gran trabajo el que desarrollas, un abrazo.

    • @CodigoMaquina
      @CodigoMaquina  Рік тому

      Estimado Edward gracias por toda la información que brindas. Comentarios como el tuyo son aportes muy valiosos.

  • @carlosandrestellocardenas7536
    @carlosandrestellocardenas7536 2 роки тому +1

    Excelente su trabajo para los que estamos aprendiendo. Muchas Gracias

    • @CodigoMaquina
      @CodigoMaquina  2 роки тому

      Gracias a ti Carlos, por tomarte el tiempo de comentar. Saludos!!

  • @alberthpinco3543
    @alberthpinco3543 8 місяців тому +1

    Gran contenido, muy buena explicación del tema y del código

    • @CodigoMaquina
      @CodigoMaquina  2 місяці тому

      Muchas gracias por tus palabras!!!

  • @TOTE77
    @TOTE77 Рік тому +1

    Excelente aporte

  • @darkstyllv9251
    @darkstyllv9251 2 роки тому +1

    Muchas gracias! Lo que necesitaba!!!

    • @CodigoMaquina
      @CodigoMaquina  2 роки тому

      Es un placer leer que los videos son de utilidad. Ese es justo su propósito :)

  • @joseernestomoralesventura9286
    @joseernestomoralesventura9286 Рік тому +1

    Como siempre, gracias! Me ha ayudado bastante tu explicación.

    • @CodigoMaquina
      @CodigoMaquina  Рік тому

      @joseernestomoralesventura9286 muchas gracias por seguir el contenido del canal!

  • @yuniorbatista2416
    @yuniorbatista2416 Рік тому +1

    Los verdaderos positivos deberian estar en la parte superior Izquierda porque efectivamente eran sanas y se clasificron como sanas?

    • @CodigoMaquina
      @CodigoMaquina  Рік тому +1

      Hola Yunior. Gracias por la pregunta. Te comento que con respecto a la posición de los verdaderos positivos en la matriz de confusión, no hay un estándar (hasta donde tengo conocimiento) para ponerlos en la parte superior izquierda o en la parte inferior derecha, siempre cuando se organicen las otras celdas y etiquetas en función de su posición. Lo más importante es llevarse es el entendimiento de los falsos positivos/negativos y los verdaderos positivos/negativos. Te agradezco tu interacción y el seguimiento al contenido de canal :)

    • @joseernestomoralesventura9286
      @joseernestomoralesventura9286 Рік тому

      ​@@CodigoMaquina eso veo, buscando información sobre lo que retorna la matriz de confusión se encuentra que la respuesta queda en esta forma ( ('TN', 'FP'), ('FN','TP') ) . Lo mismo que preguntas @yuniorbatista2416 lo puedes reinterpretar con esto. En base a esto debes ubicar correctamente las etiquetas de tu matriz de confusión (para que no te confundas jajajaja)

  • @brayanneciosup9873
    @brayanneciosup9873 2 місяці тому

    tengo estos resultados de mis metricas, sobre un dominio de 1=persona enferma y 0= persona sana.
    **METRICAS DE ENTRENAMIENTO RF:
    {'Accuracy': 0.8651421778709294, 'Precision': np.float64(0.9462677453823843), 'Recall': np.float64(0.7746329272102468), 'F1 score': np.float64(0.8518912976260006), 'Specificity': np.float64(0.9558952512216514)}
    **METRICAS DE VALIDACION RF:
    {'Accuracy': 0.8369343065693431, 'Precision': np.float64(0.9072964399013042), 'Recall': np.float64(0.7508751458576429), 'F1 score': np.float64(0.82170790103751), 'Specificity': np.float64(0.9231443600233782)}
    **METRICAS DE PRUEBAS RF:
    {'Accuracy': 0.8238213399503722, 'Precision': np.float64(0.9072011878247959), 'Recall': np.float64(0.7186121728903264), 'F1 score': np.float64(0.8019688269073011), 'Specificity': np.float64(0.927536231884058)}
    y el AUC-ROC es 0.88, estara bien el modelo para poder desplegarlo?. De antemano muchas gracias