Hola, podrías experimentar con el control de Streamlit st.camera_input docs.streamlit.io/develop/api-reference/widgets/st.camera_input y tomando la imagen para comparar con tu lista. Otra es que desde otra aplicación tomen las fotos y las monten en una carpeta donde el programa de Python las procese.
Hola, en el repositorio de la librería hay un ejemplo al respecto github.com/ageitgey/face_recognition usa el VideoCapture de CV2. Gracias por comentar.
Hola, para implementar con una base de datos, sería necesario hacer encoding de todas las imágenes y hacer la búsqueda solo con los encodings y no leer imagen por imagen. Sería necesario hacer un proceso inicial de indexación, donde se generan los encodings de las imágenes y se almacenan y luego, en lugar de leer imágenes como en este tutorial, se comparan los encodings y se retorna la imagen asociada al encoding encontrado. Otra versión más avanzada sería almacenando los encodings en una base de datos vectorial. Gracias por tu comentario
Amigo, gracias super video de enseñanza, sigue asi por favor, bendiciones, Me sirve muchisimo
muy bueno gracias!!
Gracias por comentar, espero que te sea de utilidad.
Muy bueno!
Gracias por comentar.
Excelente contenido! Gracias!
Gracias por comentar, me alegra que lo encuentres de utilidad
Crees que pueda adaptar esto para un sistema de control de asistencia al trabajo?
Hola, podrías experimentar con el control de Streamlit st.camera_input docs.streamlit.io/develop/api-reference/widgets/st.camera_input y tomando la imagen para comparar con tu lista. Otra es que desde otra aplicación tomen las fotos y las monten en una carpeta donde el programa de Python las procese.
Quisiera saber si es adaptable para usar con web cam, para captura en tiempo real? Gracias
Hola, en el repositorio de la librería hay un ejemplo al respecto github.com/ageitgey/face_recognition usa el VideoCapture de CV2. Gracias por comentar.
Bro como implementar con base de datos super su contenido
Hola, para implementar con una base de datos, sería necesario hacer encoding de todas las imágenes y hacer la búsqueda solo con los encodings y no leer imagen por imagen. Sería necesario hacer un proceso inicial de indexación, donde se generan los encodings de las imágenes y se almacenan y luego, en lugar de leer imágenes como en este tutorial, se comparan los encodings y se retorna la imagen asociada al encoding encontrado. Otra versión más avanzada sería almacenando los encodings en una base de datos vectorial. Gracias por tu comentario