Será este el vídeo del MILLÓN DE VISITAS?!?!?! 🔥 probablemente... NO. Pero espero que les sirva y le encuentren una utilidad :) 👍 👉 Suscríbete!!! 🔥 Es gratis y me ayuda mucho! :) ua-cam.com/users/Errodringer
En caso no se den cuenta de que librerías instala, les paso lo codigos para que los coloquen en el terminal: pip install requests pip install pandas pip install beautifulsoup4
@@leninns para que funcionara tuve que instalarlas en comandos de windows powershell , de otra manera en visutal estudio code, no me arroja ninguna instalación, tengo VSC 3.11 , SALUDOS
muchisimas gracias saludos desde Colombia, me ha encantado con la facilidad que has explicado, todo me ha salido, importante decir que para que lo del pandas sirva debe tener puntaje, porque lo estaba haciendo sin puntos, osea ponia como una tilde y salia error, y asi mismo no olvidar borrar los anteriores prints. Te aplaudo muchisimas gracias por introducirnos en el web scraping
segui paso a paso tu video y logre hacerlo, con los datos mas actuales! agradecido, me dio un punta pie inicial para poder comprender mejor todo esto, ahora se me viene otro desafío, poder extraer los datos que yo quiero pero desde una pagina con usuario y contraseña, espero poder lograrlo
Te doy las gracias por este vídeo. Estoy haciendo una formación en la que tengo un modulo de Web Scrapping y si no llega a ser por tu tutorial, creo que no habría entendido nada. Muchas gracias!!!
Gracias capo. Estaba un enredo tremeno antes de encontrar tú vídeo pero me has aclarado muchas cosas. Ahora lo voy a adaptar a un ejercicio que necesito. Saludos desde Colombia.
excelente explicacion, muchas gracias por ser tan claro, es de gran utilidad, no sabia lo que era web scraping y ahora tengo una herramienta muy util a mi favor.
Gracias por el video. Nunca he programado y llevaba dos semanas investigando para poder separar datos por columnas y con el DataFrame me lo has solucionado. Muchisimas gracias.
Hola Errodringer, realmente explicativo y sencillo tutorial! Se agradece. Consulta, es posible que hagas la continuación de este vídeo, pero que recorra todas las hojas de un sitio?? Eres un grande, saludos.
Muy bueno señor!!! no te detengas y sigue avanzando. En este canal tienes algo que no es fácil de encontrar en otros y creo que es la línea que debes de seguir. Lo explicas muy fácil y sobre la marcha. Son proyectos chulos. Ideas muy interesantes. Ánimo y no te rindas. Molaría un vídeo como este en el que descargues todas las fotos de una web y les ponga el nombre. Un saludo.
Muchas gracias por el comentario! Muy muy motivador! tengo muchas ideas apuntadas para vídeo, pero me falta tiempo! Espero en breve poder subir de nuevo vídeos divertidos para aprender cosillas, Saludos!
Buenas, esta increible el video, eres muy bueno enseñando y simplificando el metodo de hacer Web Scraping, Gracias por este videazo rey. Voy a aplicarlo y te cuento que tal me va
Muchas gracias por tu video, reproduje todo lo que explicaste, pero lo hice para la liga de fútbol de mi país, Chile. Quería preguntarte qué programa o que configuración usas para que cuando te pones sobre la variable que quieres escrapear, aparezca de manera automática la etiqueta y la clase??? Eso aparece, por ejemplo en el minuto 7:20 aprox.
Muchas gracias por el comentario, Johan. Selenium es algo que he utilizado en alguna ocasión y lo tengo en mente para un video, asi que presta atencion! ;) Un saludo!
Hola, y cómo haría para colocar un buscador para descargar información de un equipo específico? Gracias por compartir este tipo de videos. Saludos desde Chancayllo, Perú.
excelente, actualmente lo acomode para sacar precios y modelos en compañias celulares jajaja me costo acomodar los datos ya que las paginas estan en js y los /n/t dan jugo, pero nada mejor que su .split("$")[-1] :D
Hola, infinitas gracias por compartir tu conocimiento, tengo una duda, si la información no está en la misma ventana, es decir en tu ejemplo la información está en la misma venta y casi arreglada como una tabla, pero si no es el caso, si debes tomar elementos de diferentes links, por ejemplo si fuera un equipo de futbol y quieres ver las estadisticas partido por partido e ir tomando lo que te interese como formas el código?. Saludos
Hola, gracias por compartir esta valiosa información. en el caso que no aparezca class como seria, me aparece esto 14 == $ 0. Gracias de ante mano. Saludos
Muchas gracias por el comentario! respecto a tu pregunta... no, no se actualizan de manera automática. Para tener los datos actualizados, tendrías que ejecutar el script de nuevo. Por ejemplo, si quisieras tener actualizada la lista cada hora, tendrías que programar que se lanzará el programa cada hora. Espero que te haya ayudado! un saludo.
Hola, muchas gracias me quedo súper claro como hacerlo. Se puede automatizar con phyton buscar en una página por ej donde la información es solo números solo el de elección? Por ej entre todos los números visibles en esa página se quiere seleccionar el 1 , la máquina puede hacer una selección automática o solo es posible de manera manual ??
Gracias por el video, por casualidad algun ejemplo de un caso donde hay un link donde en la primera pagina hay un url y basado en lo que se encuentra en la segunda pagina se muestra cierta informacion. Gracias.
Hola Amigo ! Como andas ? Soy Cristian de Argentina, me encanto tu video , ya que estoy arrancando en el mundo Python y lo de web scraping me encanta. Te queria consultar si hicistes el video ese con Amazon que habias comentado sobre los precios. Te mando un abrazo Cristian
Yo probé ese método pero no sirve con la puntuación si dos equipos tienen el mismo puntaje; sirve con los equipos pero los retorna ordenados alfabéticamente y si el propósito es sacar los equipos con el puntaje no sirve
Hola, vi tu video, apliqué tu ejemplo pero con otra página y funcionó (te agradezco por eso), pero me entró una duda... qué pasa si yo quiero que se me ordenen los equipos y puntos... dependiendo de los puntos, o sea, si ordeno a que aparezcan los puntos de mayor a menor, que también se ordenen los equipos al igual que los puntos y que no esté disparejo... cómo lo podría hacer? Gracias por tu ayuda infinita!!!
Magnifico video. Estoy experimentando y Queria comentarte si es posible hacer web scraping y traducir con la aplicacion deepl gratuita de 5000 palabras y luego unir y pegar como con un excell. Gracias estamos en contacto Errodringer
Si quieres que se actualice constantemente deberías hacer un scraper que corra del lado del servidor y con un trigger de tiempo lo vaya corriendo cada minuto, cada hora, etc.
Magnifico video Errodringer. Me gustaria comentarte si es posible hacer web scraping y luego traducir con la aplicacion deepl gratuita que esta limitada a 5000 palabras, como con un excell para unir y pegar?? no se si me he explicado pues mi conocimientos de python son nulos. Gracias
Un hack: Podes descargar los datos a un google sheets, y con integromat conectarse a ese documento + la api de deelp...
2 роки тому
Hola Errodringer , gracias por este video el cual estaba necesitando, una consulta con este codigo puedo extraer antecedentes judiciales y de multas de transito de una pagina web del estado?
Hola, me gustó muchísimo el ejemplo, solo quería dar una recomendación si se me permite. Acercar la pantalla para ver las acciones, porque se mira pequeño Y lo otro, es posible hacer un scrapping de un sitio que se logea con usuario y contraseña y que al estar logeado yo pueda extraer una tabla que se genera con un botón de: seleccionar mes y año
Muy buen video ! nuevo subscriptor tengo una pregunta si quiero hacer una lista pero es en mas paginas como puedo hacer la linea de codigo para mas paginas
Eso es lo bonito... no saber que viene! jajaja pero bueno en el siguiente vídeo quiero hacer visualización de datos, creo que es importante tener información de esa en el canal y aun no tengo! saludos!
Buenas compañero me gustaría saber si hay alguna libreria con nos ayude no soo a leer tarjetas o llaveros Rfid sino poder trabajar con ellos, aplicarles nombre a esos numeros de tarjetas, meterlos en diccionarios y poder hacer una entrada y salida de cada uno de ellos pero no sé si existe una librería que capture estos datos. Si la hay sería un tema interesante para un video genial de los tuyos. Un saludo. Javier Fiestas
Será este el vídeo del MILLÓN DE VISITAS?!?!?! 🔥
probablemente... NO. Pero espero que les sirva y le encuentren una utilidad :) 👍
👉 Suscríbete!!! 🔥 Es gratis y me ayuda mucho! :)
ua-cam.com/users/Errodringer
Excelente contenido! se agradece que se haya explicado en tan poco tiempo y de forma tan eficiente
y... ¿como hacer para recolectar los url vinculados?
Thanks you bro (Y)
me salvaste bro!
mis respetos hombre, claro que me suscribiré, genial el webscraping.
En caso no se den cuenta de que librerías instala, les paso lo codigos para que los coloquen en el terminal:
pip install requests
pip install pandas
pip install beautifulsoup4
héroe sin capa 🙂🙂👍👍
@@leninns para que funcionara tuve que instalarlas en comandos de windows powershell , de otra manera en visutal estudio code, no me arroja ninguna instalación, tengo VSC 3.11 , SALUDOS
Loco sos todo lo que está bien. Gracias por tanto. Abrazo desde Argentina, aprendi a scrapear con vos
Enhorabuena , me ha costado encontrar un video de webscraping tan conciso,sencillo y directo como el tuyo.
Esta genial,suscrito !
No sabía que Broncano se había metido al mundo de la programación jajjaja (de buen rollo eh ;) )
Jajaja no te preocupes compadre, si es una comparación con ese crak me lo tomo como un halago! ;) Un saludo!
Impresionante material en video que ha servido como inspiración para nuestros nuevos miembros. ¡Tu generosidad es muy valiosa!
Muchas gracias crack, en 12 mintos me explicaste de manera sencilla, lo que un tipo en un curso de 4 horas no pudo
muchisimas gracias saludos desde Colombia, me ha encantado con la facilidad que has explicado, todo me ha salido, importante decir que para que lo del pandas sirva debe tener puntaje, porque lo estaba haciendo sin puntos, osea ponia como una tilde y salia error, y asi mismo no olvidar borrar los anteriores prints. Te aplaudo muchisimas gracias por introducirnos en el web scraping
segui paso a paso tu video y logre hacerlo, con los datos mas actuales! agradecido, me dio un punta pie inicial para poder comprender mejor todo esto, ahora se me viene otro desafío, poder extraer los datos que yo quiero pero desde una pagina con usuario y contraseña, espero poder lograrlo
Te doy las gracias por este vídeo. Estoy haciendo una formación en la que tengo un modulo de Web Scrapping y si no llega a ser por tu tutorial, creo que no habría entendido nada. Muchas gracias!!!
Gracias, me has hecho entender en 12 minutos lo que en el master no consiguieron en 3 horas.
Muy buena explicación. Muchas gracias por compartir de forma tan didáctica y práctica. Probaré y comento cómo me va. Un saludo!
Gracias por este video! Me ha servido mucho para comprender completamente cómo funciona 😊
Una muy buena explicación, sin duda ayuda mucho, agradecido con la gente como vos.
Gracias!!
Gracias capo. Estaba un enredo tremeno antes de encontrar tú vídeo pero me has aclarado muchas cosas. Ahora lo voy a adaptar a un ejercicio que necesito. Saludos desde Colombia.
Gracias Carlos por el comentario! Genial que te haya ayudado!
Saludos desde España.
Excelente. Gracias por el vídeo... Bien explicado. Toca hacerlo en implementarlo
Hermano buenisimo el video, sencillo y directo. Felicidades
Muchisimas gracias por este video. Me habia costado mucho trabajo hacerlo siguiendo otros tutoriales
Gracias a este vídeo pude terminar un proyecto para mi materia de estructura de archivos, gran tutorial crack!
excelente explicacion, muchas gracias por ser tan claro, es de gran utilidad, no sabia lo que era web scraping y ahora tengo una herramienta muy util a mi favor.
Gracias por el video. Nunca he programado y llevaba dos semanas investigando para poder separar datos por columnas y con el DataFrame me lo has solucionado. Muchisimas gracias.
muchas gracias. Gracias a ti he creado mi primer parser
maestro!!! la tenes clarisima con el tema ! gracias
muchas gracias, logre ejecutar en git bash, excelente.
Imponente, era lo que yo estaba buscando amigo, notable esta este video
Felicitaciones..! Sigue activo y produciendo cada día mas. Tu técnica es muy buena.
Lo pudiste en alguna web con paginas de resultados? Ej mercado libre
Gracias por tu apoyo, seguiremos produciendo ;) Un saludo!
Gracias por compartir, muy didáctica tu explicación. Sería prudente colocar el Script como prototipo.
Sencillo y directo, gracias master!
Muy bueno, maestro!! Gracias, simple, útil y 100% funcional!
Hola Errodringer, realmente explicativo y sencillo tutorial! Se agradece. Consulta, es posible que hagas la continuación de este vídeo, pero que recorra todas las hojas de un sitio?? Eres un grande, saludos.
Bien explicado Errodringer, infinitas gracias.
Muy bueno señor!!! no te detengas y sigue avanzando. En este canal tienes algo que no es fácil de encontrar en otros y creo que es la línea que debes de seguir.
Lo explicas muy fácil y sobre la marcha.
Son proyectos chulos.
Ideas muy interesantes.
Ánimo y no te rindas.
Molaría un vídeo como este en el que descargues todas las fotos de una web y les ponga el nombre.
Un saludo.
Muchas gracias por el comentario! Muy muy motivador! tengo muchas ideas apuntadas para vídeo, pero me falta tiempo! Espero en breve poder subir de nuevo vídeos divertidos para aprender cosillas, Saludos!
@@errodringer Si necesitases algún tipo de ayuda en algo puedes contar con migo. Un saludo.
¡Muy buen aporte!
¿Como se haría para webs que usan mucho javascript dentro de su código fuente?
un saludo.
Buenas, esta increible el video, eres muy bueno enseñando y simplificando el metodo de hacer Web Scraping, Gracias por este videazo rey. Voy a aplicarlo y te cuento que tal me va
Fantástico, tío! Muchas gracias por el tutorial.
¡¡¡Excelente video, te mereces un 100 !!!
Bro, que buen video por fin alguien que lo explica paso a paso. Genial
Muy muy bueno.
Muchísimas gracias.
Gracias a usted por comentar, bienvenido al canal!
gracias bro, me sirvió muchísimo casi me rindo hasta que encontré tu vídeo y fue muy fácil nuevo sub y super like,
Installed, everything works, thanks!
La verdad muy buena explicación
Que agradable sujeto.
Excelente, necesito más tutoriales sobre scrapping. :)
Muchas Gracias, ahora vamos a probar
Muy buen video, a pesar de ser un poco antiguo me ayudo
Este video es perfecto para iniciar. No me fijé aun, pero ojalá haya mas! Gracias
Excelente contenido! Nuevo sub
Muchas gracias por tu video, reproduje todo lo que explicaste, pero lo hice para la liga de fútbol de mi país, Chile. Quería preguntarte qué programa o que configuración usas para que cuando te pones sobre la variable que quieres escrapear, aparezca de manera automática la etiqueta y la clase??? Eso aparece, por ejemplo en el minuto 7:20 aprox.
Que belleza!! Claro y sencillo!!
Has salvado mi trabajo jaja.. eres un crack. Saludos compadre, SUSCRITO!!
Oleee! me alegro que te sirva. Bienvenido al canal tocayo!
Excelente vídeo , eres muy didáctico en tus explicaciones ojala pronto puedas hacer un tutorial de Selenium ...Gracias Crack
Muchas gracias por el comentario, Johan. Selenium es algo que he utilizado en alguna ocasión y lo tengo en mente para un video, asi que presta atencion! ;) Un saludo!
Muchas gracias por el vídeo, claro, sencillo y perfecto para comenzar a aprender e investigar sobre el scraping. Saludos.
Muchas gracias Antonio por el comentario! saludos!
Por cierto de qué parte de España eres? ☺️
de Andalucía
Jejeje no serás de Granada,? yo soy de Granada
gracias muy bueno, me funciono todo
Hola, y cómo haría para colocar un buscador para descargar información de un equipo específico?
Gracias por compartir este tipo de videos.
Saludos desde Chancayllo, Perú.
Muchas Gracias Justo lo que estaba buscando 😃
Gracias por el comentario! Saludos!
Sos un crack explicando!!! muy bueno !!!
Tu si q eres un crack! un saludo!
Muy util, gracias por compartir
amigo explicas re bien! mil gracias
Gracias por comentar
Gracias te rifaste amigo ❤🎉🎉
excelente, actualmente lo acomode para sacar precios y modelos en compañias celulares jajaja me costo acomodar los datos ya que las paginas estan en js y los /n/t dan jugo, pero nada mejor que su .split("$")[-1] :D
Muy muy bien Gerardo! me alegro que esto lo utilice la gente y le sirva de utilidad!
un capo por dar ese dato ya lo inclui, como hiciste para usarlo en varias urls?
sos un crack papá, saludos
Gracias, saludos!
Muchas gracias amigo!
Hola, infinitas gracias por compartir tu conocimiento, tengo una duda, si la información no está en la misma ventana, es decir en tu ejemplo la información está en la misma venta y casi arreglada como una tabla, pero si no es el caso, si debes tomar elementos de diferentes links, por ejemplo si fuera un equipo de futbol y quieres ver las estadisticas partido por partido e ir tomando lo que te interese como formas el código?. Saludos
excelente video muchas gracias
Gracias por comentar Ariel! Saludos!
Te ganaste un like tio saludos desde Colombia.
Gracias Orlando! te ganaste tu un corazoncito! jajaa saludos desde España
muy bueno , tu objetivo mi objetivo, busco precisamente cotizar de manera mas efectiva, millon de gracias por la aportacion.
Muchas gracias a ti por el comentario!
Que buen video amigo.
Buen video amigo, gracias por compartir!
Hola, gracias por compartir esta valiosa información. en el caso que no aparezca class como seria, me aparece esto 14 == $ 0. Gracias de ante mano. Saludos
Genial, un vídeo conciso y que explica todo de manera clara. Una duda: esos datos se van actualizando de manera automática?
Muchas gracias por el comentario! respecto a tu pregunta... no, no se actualizan de manera automática. Para tener los datos actualizados, tendrías que ejecutar el script de nuevo. Por ejemplo, si quisieras tener actualizada la lista cada hora, tendrías que programar que se lanzará el programa cada hora.
Espero que te haya ayudado! un saludo.
Buen vídeo, me ha resultado muy útil!
Me alegro! Saludos Arturo
Muy buen video! super facil y re bien explicado!
Gracias, gran comentario.
Vaya máquina hermano
Hola, muchas gracias me quedo súper claro como hacerlo. Se puede automatizar con phyton buscar en una página por ej donde la información es solo números solo el de elección? Por ej entre todos los números visibles en esa página se quiere seleccionar el 1 , la máquina puede hacer una selección automática o solo es posible de manera manual ??
Gracias por el video, por casualidad algun ejemplo de un caso donde hay un link donde en la primera pagina hay un url y basado en lo que se encuentra en la segunda pagina se muestra cierta informacion. Gracias.
Hola Amigo ! Como andas ? Soy Cristian de Argentina, me encanto tu video , ya que estoy arrancando en el mundo Python y lo de web scraping me encanta. Te queria consultar si hicistes el video ese con Amazon que habias comentado sobre los precios. Te mando un abrazo Cristian
Si se te repiten, creas la lista y luego haces np.unique() y ya, que cojas los primeros 20 podría hacerte perder información quizá
interesante, podrías poner el código amigo
Yo probé ese método pero no sirve con la puntuación si dos equipos tienen el mismo puntaje; sirve con los equipos pero los retorna ordenados alfabéticamente y si el propósito es sacar los equipos con el puntaje no sirve
@@Jose-uhd en ese caso usa pandas.unique() pues
Hola, vi tu video, apliqué tu ejemplo pero con otra página y funcionó (te agradezco por eso), pero me entró una duda... qué pasa si yo quiero que se me ordenen los equipos y puntos... dependiendo de los puntos, o sea, si ordeno a que aparezcan los puntos de mayor a menor, que también se ordenen los equipos al igual que los puntos y que no esté disparejo... cómo lo podría hacer?
Gracias por tu ayuda infinita!!!
muy bueno gracias
Eres un crack, Mil gracias !!
Muchas gracias por el comentario Juan! espero que te haya servido! ;)
Magnifico video. Estoy experimentando y Queria comentarte si es posible hacer web scraping y traducir con la aplicacion deepl gratuita de 5000 palabras y luego unir y pegar como con un excell. Gracias estamos en contacto Errodringer
Saludos, buen video... PREGUNTO. si los datos cambian en la página, se actualizarán automáticamente una vez guardado el archivo???
No
Se actualizan cada que le ejecutas el programa scraper
Si quieres que se actualice constantemente deberías hacer un scraper que corra del lado del servidor y con un trigger de tiempo lo vaya corriendo cada minuto, cada hora, etc.
Magnifico video Errodringer. Me gustaria comentarte si es posible hacer web scraping y luego traducir con la aplicacion deepl gratuita que esta limitada a 5000 palabras, como con un excell para unir y pegar?? no se si me he explicado pues mi conocimientos de python son nulos. Gracias
Un hack: Podes descargar los datos a un google sheets, y con integromat conectarse a ese documento + la api de deelp...
Hola Errodringer , gracias por este video el cual estaba necesitando, una consulta con este codigo puedo extraer antecedentes judiciales y de multas de transito de una pagina web del estado?
Excelente Video
Hola, que tema usas para tu visual studio code
Muy buena explicación.
cuando ejecuto el print() y el resultado es " [ ] " quiere decir que las etiquetas que tomé no tienen data??
Gracias!! muy buen video
Gracias Kevin! saludos!
Muy bueno y ¿como podemos hacer para presionar botones e ingresar datos a la pagina?
Eso se hace con selenium, tenemos un vídeo en el canal, busca y echa un vistazo
Hola, me gustó muchísimo el ejemplo, solo quería dar una recomendación si se me permite. Acercar la pantalla para ver las acciones, porque se mira pequeño
Y lo otro, es posible hacer un scrapping de un sitio que se logea con usuario y contraseña y que al estar logeado yo pueda extraer una tabla que se genera con un botón de: seleccionar mes y año
muchas gracias amigo
Gracias por comentar
Buen video, gracias por la explicacion
Gracias por comentar!
Ganaste un suscriptor
Muy buen video, deberías tener mas subs! :)
Muchas gracias Pablo! estos comentarios dan muchísimos ánimos para seguir creando contenido! Un saludo.
gracias esta bueno esto del scraping
Muy buen video ! nuevo subscriptor
tengo una pregunta si quiero hacer una lista pero es en mas paginas como puedo hacer la linea de codigo para mas paginas
Excelente vídeo! ¿Cómo podría contactarte por privado para algunas dudas sobre el tema del Web Scraping?
Me quedo una duda, ¿Qué vamos a ver en el siguiente video?
Eso es lo bonito... no saber que viene! jajaja
pero bueno en el siguiente vídeo quiero hacer visualización de datos, creo que es importante tener información de esa en el canal y aun no tengo!
saludos!
@@errodringer tio seria bueno si mostraras los datos con Django rest Framework
Buenas compañero me gustaría saber si hay alguna libreria con nos ayude no soo a leer tarjetas o llaveros Rfid sino poder trabajar con ellos, aplicarles nombre a esos numeros de tarjetas, meterlos en diccionarios y poder hacer una entrada y salida de cada uno de ellos pero no sé si existe una librería que capture estos datos. Si la hay sería un tema interesante para un video genial de los tuyos. Un saludo.
Javier Fiestas