Це відео не доступне.
Перепрошуємо.

Curso de Web Scraping en Python | Web Scraping Dinámico con Selenium [Nivel Intermedio]

Поділитися
Вставка
  • Опубліковано 15 сер 2024

КОМЕНТАРІ • 174

  • @thepycoachES
    @thepycoachES  3 роки тому +4

    🚨Asegúrate de instalar la misma versión de Selenium que uso en el video: pip install selenium==3.141.0 para evitar cualquier mensaje de error
    🔥Curso Completo de Web Scraping en Python: De Cero a Experto (Udemy): www.udemy.com/course/curso-completo-de-web-scraping-en-python-de-cero-a-experto/?couponCode=581A9FCE85EC805A23D2
    🎁 Promoción (Solo en mi página): Hasta 50% y 100% de descuento por la compra del segundo/tercer curso. thepycoach.teachable.com/p/spanish

  • @soulfire123456789
    @soulfire123456789 3 роки тому +6

    Siempre tengo problemas con los xpath extraídos de Chrome y tu forma de enseñar me ha ayudado a comprender las diferencias entre absoluto y dinámico... Espero poder aplicarlos mejor a partir de ahora. Buen video

    • @thepycoachES
      @thepycoachES  3 роки тому

      Los XPath son muy útiles cuando se quiere llegar a un nodo específico. Me alegro que el video te haya ayudado!

  • @abrasivomental
    @abrasivomental Рік тому +3

    Muy buen video, bien explicado el Selenium. Lo único a tener en cuenta es que uno mismo tiene que mantener leyendo la documentación porque a la fecha, hay sintaxis que cambió, por ejemplo el By. Adicionalmente, estoy manejando el Firefox y no tuve que instalar driver alguno, solo las librerías

    • @camiloandresmorenolinares3937
      @camiloandresmorenolinares3937 Рік тому

      me podrías explicar como cambio by? intento entrar un poco a este mundo, pero no me salen las diferentes opciones de driver.find_element. Debo instalar alguna otra libería?
      Gracias.

  • @intothevode
    @intothevode 3 роки тому +3

    ES EL MEJOR TUTORIAL DE SELENIUM QUE HE VISTO!!! MUY BUEN TRABAJO COMPADRE! MUCHISIMAS GRACIAS!!!!!!!! MUY CONTENTO :)

  • @rubencarelli1174
    @rubencarelli1174 Рік тому +2

    Muy buenos días! Espero que estén teniendo un excelente código. Estoy dando mis primeros pasos en el Web Scraping y la verdad es que me sorprende todo lo que podemos hacer con un solo tutorial tuyo Frank!. Muchas gracias por compartir este contenido. Tu forma de explicar me parece muy clara, sos un genio.

    • @rafita930
      @rafita930 Рік тому +1

      y si le agarraste la onda

  • @littlejhonn75
    @littlejhonn75 2 роки тому +3

    Magistral! muy bien explicado, con lujo de detalles. Muchas gracias.

  • @abl5213
    @abl5213 Рік тому

    Muy bueno el curso. Para los usuarios de Linux, a la hora de configurar ChromeDriver, deben copiarlo a la carpeta /usr/bin. Después en la terminal, como su, hay que dar privilegios al fichero escribiendo:
    sudo mv chromedriver /usr/bin/chromedriver
    sudo chown root:root /usr/bin/chromedriver
    sudo chmod +x /usr/bin/chromedriver
    Luego, el comando find_element_by_xpath ha cambiado. Ahora es ...find_element("xpath", '//....
    Por lo demás todo genial. Gracias.

  • @yoyo-hs6dj
    @yoyo-hs6dj 3 роки тому +1

    muy detallado, sigue subiendo videos y no dejes el canal por el camino, la constancia te hara ganar seguidores, esto de youtube es duro y mas en un tema especifico que la gente no lo ve por diversion, pero enseñas bien y luego tendras tus colaboraciones que te ayudaran

    • @thepycoachES
      @thepycoachES  3 роки тому +1

      Gracias! Solo paré un mes porque estaba haciendo un curso, pero aún seguí publicando articulos en Medium, pues ahí gano más. Ya terminé mi curso y voy a hacer un video probablemente esta semana.

  • @XavierEsteban
    @XavierEsteban Рік тому

    Genial, muy bien exolicado, vi toddo el tutorial y lo implementaré muy pronto. Gracias.

  • @joaquingonzalez3486
    @joaquingonzalez3486 3 роки тому +1

    Genial video!! Me ayudaste y aprendí mucho. Bien explicado. Gracias!

    • @thepycoachES
      @thepycoachES  3 роки тому

      De nada! Me alegra haberte ayudado

  • @federicoprat9093
    @federicoprat9093 2 роки тому

    De los mejores videos que vi. Gracias!

  • @balbanesi
    @balbanesi 2 роки тому +2

    Muchas gracias!!! explicas super bien!!

  • @jorgeluiszegarraguardamino9883
    @jorgeluiszegarraguardamino9883 2 роки тому +1

    Muy bien explicado. Gracias!

  • @gabrielacristinarodriguez1885

    Excelente!! me encanto y salio todo al final.

  • @Juan_MaCC
    @Juan_MaCC Рік тому

    Súper bien explicado, muy buen video, muchas gracias.

  • @naylamp_gaming
    @naylamp_gaming 2 роки тому +2

    Super didactico! Muchas gracias!

  • @edwardfuentes8135
    @edwardfuentes8135 Рік тому

    El mejor video, gracias por la info bien explicada

  • @eadames2
    @eadames2 2 місяці тому

    Bien explicado Frank, sin embargo al ejecutar me esta generando un error que no entiendo. Me gustaría enviarte la imagen con el error para ver si me puedes ayudar?

  • @mauroe.leguizamon5801
    @mauroe.leguizamon5801 2 роки тому

    Es muy bueno tu contenido. Super claro!

  • @FleynSoft
    @FleynSoft Рік тому

    muy educativo, me sirve para un proyectito.

  • @ivanchogc
    @ivanchogc 2 роки тому

    Muchas gracias Frank. Excelente

  • @augusto99921
    @augusto99921 2 роки тому +3

    Se puede hacer scrping a redes sociales, y tratar de navegar y obtener informacion

    • @thepycoachES
      @thepycoachES  2 роки тому

      Claro. Puedes hacer web scraping a Twitter, Instagram, etc. Dicho esto, recomiendo hacer web scraping sin hacer login a sus cuentas personales puedes pueden ser baneadas.
      Por cierto, en mi curso enseño como hacer web scraping a Twitter.

  • @2u15A
    @2u15A Рік тому

    genio! excelente

  • @arturomorales4586
    @arturomorales4586 2 роки тому +1

    Muy bien explicado, gracias! :)

  • @Diegomartinz
    @Diegomartinz Рік тому

    Excelente explicación, mil gracias! Una pregunta, todo esto podría realizarse también en Jupyter Notebook?

  • @leonardodicesare9952
    @leonardodicesare9952 2 роки тому +1

    Muy claro amigo. Muchas gracias!

    • @thepycoachES
      @thepycoachES  2 роки тому

      De nada! Me alegra haberte ayudado

  • @alkamaster1310
    @alkamaster1310 3 роки тому +1

    Gracias! Me sirvió un montón

  • @diegoctur
    @diegoctur 3 роки тому +1

    Buenísimo como siempre, Fran!

  • @wolfanrodriguez4928
    @wolfanrodriguez4928 2 роки тому +2

    hola, estoy siguiendo el ejemplo tal cual, y me sale: 'WebDriver' object has no attribute 'find_element_by_xpath',
    lo estoy corriendo en jupyter, lo primero si lo hizo, lo de abrir la pagina,. no he podido pasar de aca. gracias. me gustaria poder encontrar la solucion.

    • @thepycoachES
      @thepycoachES  2 роки тому +2

      La sintaxis varía en Selenium 4. Instala Selenium 3 o busca la sintaxis en Selenium 4 que me parece es .find_element(by=“xpath”, value=“”)

  • @apuestastc8948
    @apuestastc8948 Рік тому

    Espectacular video 👏👏👏👏

  • @mariomolinamolina
    @mariomolinamolina Рік тому

    Hola, una duda: al ejecutar driver.Chrome(path), me da un error WebDriverException: unknown error: cannot find Chrome binary. Alguna solución? gracias.

  • @yonko5787
    @yonko5787 3 роки тому +2

    Eres un maestro

  • @ferhf824
    @ferhf824 Рік тому

    Mi mama es profesora y la web para subir notas de mi pais es super ineficiente, es posible con python mediante un CVs subir la información de las notas a la plataforma? es decir el proceso inverso a Scraping

  • @sudakabmx9753
    @sudakabmx9753 3 роки тому +1

    Hola, primero que nada gracias, el tutorial esta excelente, muy util y muy claro. me gustaria saber si se puede iniciar sesion en la pagina a la que queremos hacer scraping

    • @thepycoachES
      @thepycoachES  3 роки тому

      Hola. Si se puede pero no es muy recomendado porque te pueden banear en esa página aunque depende de la página que sea. En redes sociales y páginas de banco es muy probable que te bloqueen tu cuenta, pero en páginas con menor seguridad y tráfico de internet no hay mucho problema.
      Creo que voy a subir un tutorial pronto de como loguearse a Twitter con Selenium.

  • @alfredomorales3017
    @alfredomorales3017 5 місяців тому

    Wow, How I can to split matches, by example [{"date": "05-03-2000", "local": "Getave", "score": "1-0","Visit":"Alaves"}, ....] and save that on CSV file? How I canto get the code of this video? In advance thanks

  • @hugolopez3929
    @hugolopez3929 Рік тому

    Excelente y muy bien explicado, pero tengo un problema con un boton de un ejemplo que no tiene el atributo click() sino que al darle sobre el boton, sale el nombre del button añadiendo la palabra selected, trayendo valores dinámicos. Como se podría disparar este tipo de boton? muchas Gracias por tu colaboracion.

  • @eduardobravo5658
    @eduardobravo5658 Рік тому +2

    hola sabes que puedo hacer si el objeto webdriver no tiene el atributo find_element_by_xpath al escribir el codigo no reconoce ese elemento
    gracias

    • @alejandrocastro4354
      @alejandrocastro4354 Рік тому

      Lo pudiste arreglar??

    • @briggittedumes8337
      @briggittedumes8337 Рік тому

      Según vi por ahí, resulta que han cambiado la forma en la que se tiene que poner el "find_element_by_xpath", ahora es: "find_element('xpath', '//.........')
      lo mismo para los demás (el id, tag name, etc)

  • @ignaciovelazquez8878
    @ignaciovelazquez8878 3 роки тому +1

    Muy buen tutorial gracias por tu tiempo. Quería consultar si esto se puede ejecutar desde una interfaz gráfica en lugar desde la consola, es decir una ventana con una lista para seleccionar el pais y un botón y al precionar el botón te muestre la web con los resultados del país elegido. Muchas gracias

    • @thepycoachES
      @thepycoachES  3 роки тому +1

      En Python puedes usar Tkinter para crear interfaz gráfica (GUI) del scraper creado. También existen software de pago que hacen lo que me comentas, pero eso ya no tiene que ver mucho con programación, sino con software de scraping automático.

  • @susalvadorburns5230
    @susalvadorburns5230 3 роки тому +1

    Bro muchas gracias estaba buscando una guía pero no hay casi en youtube

    • @thepycoachES
      @thepycoachES  3 роки тому

      ¡De nada! Me alegra haberte ayudado

  • @luisurdaneta6519
    @luisurdaneta6519 Рік тому

    una duda se me cierra la pagina momentos despues que se abre por que ocurre eso?

  • @irojasvillamil
    @irojasvillamil Рік тому

    En el primer video dijiste Selenium. Puede extraer paginas dinamicas pero es lenta, entonces no se porque en este video te enfocas en ese software, cuando en tu opinión consideras Scrapy como el mas completo.

  • @wentsalowed203
    @wentsalowed203 3 роки тому +1

    Excelente video, explicas muy bien.

    • @thepycoachES
      @thepycoachES  3 роки тому

      ¡Gracias!

    • @wentsalowed203
      @wentsalowed203 3 роки тому

      @@thepycoachES Te quería preguntar ¿si sabes desarrollar una aplicación para hacer surebets?

    • @wentsalowed203
      @wentsalowed203 3 роки тому

      @@thepycoachES ?????

    • @thepycoachES
      @thepycoachES  3 роки тому

      Puedes usar Selenium/Scrapy para extraer datos de casas de apuestas y luego compararlos. Tengo un script con Selenium pero es un poco lento. Puedes encontrar el código+articulo que escribe en la descripcion.
      Ahora estoy desarrollando uno en Scrapy que extrae data mucho más rápido

    • @wentsalowed203
      @wentsalowed203 3 роки тому

      @@thepycoachES Pero haga un video en donde se compare data de dos casas de apuesta, no hay necesidad de que lo haga sobre surebets, estaré atento a que suba un video al respecto, gracias

  • @telematicos
    @telematicos 11 місяців тому

    Saludos.
    Hay manera de emular el interfaz grafico y que todo sea por consola?

  • @tromds
    @tromds 3 роки тому +1

    Muy buen Vídeo!! sigue así

  • @jhonatanroca7859
    @jhonatanroca7859 Рік тому +1

    hola, elimine el path
    y solo puse driver = webdriver.Chrome() y resulto
    en stackoverflow decia que ponga el chromedriver.exe en el archivo donde estas trabajando el proyecto y salio :), espero ayude

    • @Diegomartinz
      @Diegomartinz Рік тому

      Hola amigo, una pregunta... Hice lo que tú dices y me corre el código, pero sólo me aparece la página por un segundo y se cierra automáticamente. Te sucedió eso también? El código es el mismo del vídeo sólo que sin el path

  • @jesusvargasvillanueva9840
    @jesusvargasvillanueva9840 2 роки тому +2

    Muy buen video, pero como podría hacer para seleccionar el año de la liga inglesa(el de tu ejemplo) ósea quisiera descargar la data de la liga española 2019-2020, y no solamente la actual

    • @thepycoachES
      @thepycoachES  2 роки тому

      Bueno, podrías seleccionar el dropdown que le corresponde al año así como hice con el "country" y cambiar de temporada. Luego los pasos son similares

  • @mcleodesc
    @mcleodesc Рік тому

    Excelente contenido!!!

  • @fri0
    @fri0 3 роки тому +1

    Excelente explicación! Tengo una duda, en el ejemplo final, donde creas la variable caja, para luego usar esa b´suqeuda por class name, entendí que eso se hace porque no tienes id, entonces qué iría en lugar de find_element_by_id? by tag quizás? gracias!

    • @thepycoachES
      @thepycoachES  3 роки тому +1

      Si te refieres a --> caja = driver.find_element_by_class_name('panel-body')
      El elemento no tiene id por ello tuve que hacer una búsqueda por class_name. No hice una búsqueda por tag_name porque el elemento se encuentra dentro de un div y no es una buena referencia, ya que el div es usado por muchos elementos.

    • @fri0
      @fri0 3 роки тому

      @@thepycoachES ok, ya entiendo. Gracias Frank!

  • @mariov.p.486
    @mariov.p.486 3 роки тому +1

    hola Frank! veremos mas sobre este tema en apuestas con Python??. un saludo

    • @thepycoachES
      @thepycoachES  3 роки тому +2

      No estoy seguro. He visto que algunos canales que hablan de apuestas deportivas han tenido problemas con UA-cam y les han borrado varios videos. Por ahora todo sobre ese tema lo tengo en artículos en inglés. Puedes revisar los artículos de apuesta con código en Python en la descripción..

    • @mariov.p.486
      @mariov.p.486 3 роки тому

      @@thepycoachES muchas gracias Frank.

  • @finanziate
    @finanziate 3 роки тому +2

    Frank me indica lo siguiente: SessionNotCreatedException: Message: session not created: This version of ChromeDriver only supports Chrome version 88
    Current browser version is 91.0.4472.77 with binary path C:\Program Files (x86)\Google\Chrome\Application\chrome.exe
    Me descargué la ultima versión que había en la pagina es 91 también como el mío, pero con diferentes números después:(
    Por favor ayuda!

    • @thepycoachES
      @thepycoachES  3 роки тому

      Hola. Significa que tienes que descargarte la chromedriver versión 91 la cual es compatible con tu Google Chrome.
      Por cierto, cada cierto tiempo Chrome se actualiza por ello a veces sale error porque tambien tienes que actualizar el chromedriver.

  • @alejandropariasmoreno9682
    @alejandropariasmoreno9682 3 роки тому +1

    Muy buen video, gracias por la explicación. Hay una duda y es por qué me sale en el excel todo en una casilla y no cada dato en su columna.
    Agradezco que me puedas ayudar.

    • @thepycoachES
      @thepycoachES  3 роки тому

      Es por que en el código que coloqué todo en un elemento "matches". Reemplaza el codigo debajo por el codigo original (empezando por la linea de codigo donde creo la variable matches)
      matches = driver.find_elements_by_tag_name('tr')
      date = []
      home_team = []
      score = []
      away_team = []
      for match in matches:
      date.append(match.find_element_by_xpath('./td[1]').text)
      home = match.find_element_by_xpath('./td[2]').text
      home_team.append(home)
      print(home)
      score.append(match.find_element_by_xpath('./td[3]').text)
      away_team.append(match.find_element_by_xpath('./td[4]').text)
      driver.quit()
      df = pd.DataFrame({'date': date, 'home_team': home_team, 'score': score, 'away_team': away_team})
      df.to_csv('football_data_test.csv', index=False)
      print(df)

  • @veritas2162
    @veritas2162 Рік тому

    No encuentra selenium en mi pc, no se que hacer

  • @maximilianoruiz8985
    @maximilianoruiz8985 3 роки тому +1

    Gracias, sigue así

    • @thepycoachES
      @thepycoachES  3 роки тому

      De nada! Pronto más videos de web scraping

  • @luisforni86
    @luisforni86 3 роки тому +1

    Genial, como se puede buscar un texto que tenemos en una celda de una hoja de calculo de Google Sheets?

    • @thepycoachES
      @thepycoachES  3 роки тому

      Nunca he usado algo así, pero me parece que existen librerías en Python para controlar Google Sheets.

  • @alejandroobregon6617
    @alejandroobregon6617 3 роки тому +1

    excelente tutorial ....alguno tutorial de como importar imagenes

    • @thepycoachES
      @thepycoachES  3 роки тому

      Me parece que puedes hacerlo con la librería Pillow (está en mi lista de videos para hacer)

    • @alejandroobregon6617
      @alejandroobregon6617 3 роки тому

      @@thepycoachES muchas gracias

  • @LuisLopez-sc1qc
    @LuisLopez-sc1qc 3 роки тому +1

    y para entrar a la plataforma de un banco que tiene usuario tarjeta contraseña y despues extrer sus movimientos banacarios de excel eso se puede

    • @thepycoachES
      @thepycoachES  3 роки тому

      Yo diría que si. La parte mas difícil seria introducir la contraseña, pues en la pagina de bancos no puedes ingresar textos sino sale una opción para hacer click en los números.
      De todas formas, no te recomiendo usar Selenium para ingresar a una página de banco (incluso si solo quieres extraer datos de tu cuenta). La página va a detectar Selenium y te va a bloquear y vas a tener problemas con tu banco. Las medidas de seguridad son más altas. Algo similar pasa si intentas entrar a tus redes sociales con Selenium. Es mejor solo extraer data pública o de cuentas cuya página no tengan problemas al ser "scrapeadas"

  • @juandiegoarredondo856
    @juandiegoarredondo856 3 роки тому +1

    Hola Frank.
    Necesito tu ayuda para un trabajo que hago en la Universidad, no sé nada programación.
    Help please!!!

    • @thepycoachES
      @thepycoachES  3 роки тому

      Hola! No sé si ya es tarde, pero puedes escribirme en los comentarios sobre tu duda.

  • @tenjo6669
    @tenjo6669 3 роки тому +1

    Buen tutorial amigo, pero podrias decirme como hago para que cada valor del tr osea los td me quede cada uno en una celda diferente de excel

    • @thepycoachES
      @thepycoachES  3 роки тому +1

      Puedes usar regex (regular expressions o expresiones regulares) luego de exportar la data al dataframe. Por ejemplo, puedes dividir la fecha equipo 1 y equipo 2. Revisa el video que tengo sobre regex para que puedas encontrar la expresion que necesitas.

  • @williamgonzalez9391
    @williamgonzalez9391 2 роки тому +2

    Hola amigo, tengo una pregunta. No se si te ha pasado, pero a mi cuando se me abre la ventana de chrome, carga la pagina y enseguida se cierra la ventana. Sabes si hay alguna solucion?

    • @danielfelipepuentespedrozo7785
      @danielfelipepuentespedrozo7785 Рік тому

      Hola bro, un poco tarde pero te respondo. Me pasó lo mismo y me aparecía el mensaje de "This version of ChromeDriver only supports Chrome version 103 Current browser version is 105.0.5195.53" sucede que la versión del driver no es compatible con la del chrome. Debes ir al navegador y actualizarlo luego reiniciarlo y ahí si descargar e instalar el driver segun la versión de tu navegador (pd: yo lo puse en la carperta de descargas)

    • @gabrielacristinarodriguez1885
      @gabrielacristinarodriguez1885 Рік тому

      Me pasa lo mismo...

  • @victoralvarezhidalgo8218
    @victoralvarezhidalgo8218 3 роки тому +1

    Hola! en el minuto 6:48, hice tal cual lo indicas y me aparece esto: WebDriverException: Message: 'chromedriver' executable needs to be in PATH. Y el path está exactamente en la ruta del archivo. Te agradecería me ayudaras.

    • @thepycoachES
      @thepycoachES  3 роки тому

      Hola. Escribeme en los comentarios el codigo que estás usando (desde el inicio hasta donde declaras la variable "path") para poderte ayudar

  • @nicomuller1789
    @nicomuller1789 3 роки тому +1

    hola frank, tengo un error ;
    Traceback (most recent call last):
    File "C:\Users
    ico\Desktop\botpvu.py", line 7, in
    driver = webdriver.chrome(path)
    TypeError: 'module' object is not callable

    • @thepycoachES
      @thepycoachES  3 роки тому

      Mmmm ... ¿el archivo chromedriver esta en en la ruta de la variable path especificada? ¿tienes la ultima version de chromedriver?

  • @diegonoguez3633
    @diegonoguez3633 3 роки тому +1

    gran tutorial... cómo se podría hacer que al darle script abra el chrome con mi cuenta de google y no como invitado

    • @thepycoachES
      @thepycoachES  3 роки тому +1

      Solo imita los pasos que harías tú manualmente (hacer click en el botón "iniciar sesión", escribir email, escribir contraseña, etc) mediante Selenium/Python. En este caso usarías fórmulas como send_keys(), find_element_by_ y click()

    • @diegonoguez3633
      @diegonoguez3633 3 роки тому

      @@thepycoachES gracias Por tu tiempo crack!

  • @hellymellywell
    @hellymellywell 2 роки тому +1

    Muchas gracias por el vídeo, muy bueno!
    Quiero automatizar un "juego" web pero me gustaría saber si por usar chromedriver te pueden banear o si es detectable.
    Y por otro lado, ¿Que IDE usas?

    • @thepycoachES
      @thepycoachES  2 роки тому +1

      Uso Pycharm. Cualquier pagina te puede banear si detecta que Selenium está siendo usado para acceder a una cuenta. Suelo hacer web scraping a paginar que no requieren login pero hay métodos para reducir el riesgo de baneo (hable sobre eso en uno de mis artículos en Médium)

  • @rubentanus5388
    @rubentanus5388 2 роки тому +2

    Frank, buenas tardes, vi tu video y es muy claro y bueno, gracias por compartir tu conocimiento, tendras algun correo para contactarte y saber si estas interezado en colaborar con nosotros como freelance? somo una agencia de desarrollos y nos llegan requerimientos de este tipo y creo que tu nos podrias apoyar. gracias y al pendiente de tu respuesta

    • @thepycoachES
      @thepycoachES  2 роки тому

      Mi correo de contacto está en unos de los tabs de UA-cam y también en mi perfil de Medium

  • @ingarnaldorodriguez
    @ingarnaldorodriguez Рік тому

    Hermano, no me aparece find_element_by_xpath no he podido seguir por ese error

    • @johanrojas5587
      @johanrojas5587 Рік тому

      all_matches_button = driver.find_element(by = By.XPATH, value = '//*[@id="page-wrapper"]/div/home-away-selector/div/div/div/div/label[2]') es porque tienes selenium 4

  • @thanatosxp
    @thanatosxp 2 роки тому +1

    Excelente contenido, me suscribo de inmediato.
    Tengo una consulta, como haria si la web ya cuenta con un botón de "exportar datos" que me da un csv que cambia cada 5 min y finalmente poder subir dicho archivo a una base MYSQL? Vi tu curso en Udemy pero solo estaba la parte final en MongoDB

    • @thepycoachES
      @thepycoachES  2 роки тому

      No he usado mucho MySQL, pero me imagino que podrías dejar los archivos en una carpeta X y luego crear un proceso en Windows para cargarlos cada cierto tiempo a MySQL

  • @julioarzola1440
    @julioarzola1440 3 роки тому +1

    Gracias pana

  • @gastonlp199
    @gastonlp199 2 роки тому +1

    Buenas Frank! Genial los videos. Tengo una duda, si yo necesito trabajar sobre un programa online por ejemplo, completo la data de manera genial, pero también necesito esperar la respuesta, y trabajar sobre esa otra página a la que deriva la solicitud. Como se podría hacer? Cabe mencionar que la respuesta puede variar según los datos ingresados.

  • @Franklinrevillavergaray
    @Franklinrevillavergaray 3 роки тому +1

    Amigo tengo una consulta, estoy desarrollando un proceso parecido.
    Pero quisiera una sugerencia, estoy accediendo a una web privada con usuario y contraseña.
    Por ahora lo estoy guardado esos datos en el código.
    Pero cuál sería la forma correcta de guardar esos datos.

    • @thepycoachES
      @thepycoachES  3 роки тому

      Hola. Es muy fácil. Lo primero que tienes que hacer es crear una variable para tu usuario y contraseña en tu sistema operativo (es diferente en Windows/MacOs)
      En este video puedes ver como se hace en Windows -> ua-cam.com/video/IolxqkL7cD8/v-deo.html y en este en Mac -> ua-cam.com/video/5iWhQWVXosU/v-deo.html
      Los videos están en ingles pero son cortos y hasta puedes mutearlos y entender como se hace. Luego de esto tienes que importar el módulo OS para obtener los datos de la variable creada. Por ejemplo yo cree una variable para mi usario/contraseña de Twitter y luego con el código de abajo lo escribo en Twitter mediante Selenium.
      import os
      ...
      username.send_keys(os.environ.get("TWITTER_USER"))
      password.send_keys(os.environ.get("TWITTER_PASS"))

  • @nestorhugoibarra2317
    @nestorhugoibarra2317 Рік тому

    Hola, muy buena tu explicacion, pero tengo una problemita. Cuando seleccionas el boton all_matches y copias el xpath, luego
    le asignas a driver ..... all_mathches=driver.find_element_by_xpath('//*[@id="page-wrapper"]/div/home-away-selector/div/div/div/div/label[2]')
    Yo quiero hacer lo mismo find_element_by_path ....
    pero en el autoayuda no me sale .... _by_path
    solo sale : driver.find_element
    Pero copio igual en el codigo y cuando lo ejecuto, no me da error pero tampoco hace click en el boton. Me ayudas ?

    • @KeyzerFS
      @KeyzerFS Рік тому

      Hola encontraste solucion? me pasa lo mismo, vi cual es el problema pero es cambiando la version de selenium a la que tiene el el cual dejo en los comentarios, parece ser que al actualizar selenium cambiaron los metodos y a lo mejor la nomenclatura del codigo cambio quisiera descubrirlo

  • @betynews
    @betynews 2 роки тому +1

    haz la continuacion de este video guardando los datos en archivo de excel

    • @thepycoachES
      @thepycoachES  2 роки тому

      Un archivo CSV es casi igual a un Excel. En caso de que quieras que la extensión sea .xlsx la cual es usada en Excel solo usa df.to_csv('tutorial.xlsx', index=False) en la última linea de código

  • @edgarrubenhernandezflores8136
    @edgarrubenhernandezflores8136 3 роки тому +1

    Muy buen video

  • @dardodariocallado5483
    @dardodariocallado5483 2 роки тому +1

    amigo elchromedirve es un . exe no aparece como a vos

  • @yorvymeza1546
    @yorvymeza1546 Рік тому +1

    En vez de usar find_element_by_xpath usen find_element

    • @yorvymeza1546
      @yorvymeza1546 Рік тому +1

      O fácil si no cambien la versión de selenium a esta versión
      selenium==4.2.0

    • @jeromerojas
      @jeromerojas Рік тому +1

      @@yorvymeza1546 muchas gracias!

    • @alejandrocastro4354
      @alejandrocastro4354 Рік тому

      Yo tengo problemas para hacer click en los botones.
      Tus haz conseguido hacer click en los botones?

  • @piterlanguila3600
    @piterlanguila3600 3 роки тому +1

    Paras sacar datos de un atributo que tiene un json?

    • @thepycoachES
      @thepycoachES  3 роки тому

      No entiendo muy bien a que te refieres. Solo sé que se puede exportar la data scrapeada a json, pero extraer datos de un atributo json ... no entiendo muy bien

    • @piterlanguila3600
      @piterlanguila3600 3 роки тому

      @@thepycoachES tengo un atributo que tiene un value como json

  • @IRedMonkey
    @IRedMonkey 3 роки тому +1

    Para firefox como sería?

    • @thepycoachES
      @thepycoachES  3 роки тому

      Similar solo que deberías de descargar el driver para Firefox y luego insertar el path como lo hice para Chrome. Aunque nunca lo he probado con Firefox. No suelo complicarme mucho. Por ejemplo, además de Chrome uso Safari pero nunca he usado Selenium para Safari.
      Además me parece que Chrome tiene mayor soporte que los otros dos.

  • @augustoramonfavre2318
    @augustoramonfavre2318 2 роки тому

    Hola Frank!
    Excelente video.
    Estoy teniendo problemas en el print de la lista con los partidos aunque seguí paso a paso. Que podrá ser?
    Saludos.

    • @augustoramonfavre2318
      @augustoramonfavre2318 2 роки тому

      Si alguien ve este comentario y le paso lo mismo, lo resolví de la siguiente manera:
      C O D I G O O R I G I N A L:
      for match in matches:
      print(match.text)
      S O L U C I O N:
      for match in matches:
      a= match.text
      print(a)
      PD: Algunos print de text no salen del todo bien, pero es la terminal del VSCode, aun no lo pase a un dataframe

    • @augustoramonfavre2318
      @augustoramonfavre2318 2 роки тому

      Hoy es un nuevo dia y la solucion de ayer ya no me funciona.

  • @rafita930
    @rafita930 Рік тому

    Por que me abre el Google Crhome me lanza el mensaje de que un software esta controlando pero despues se cierra en el espacio de RUn me aprace el siguiente mensaje
    DeprecationWarning: executable_path has been deprecated, please pass in a Service object
    driver = webdriver.Chrome(path)
    Process finished with exit code 0

    • @alejandrocastro4354
      @alejandrocastro4354 Рік тому

      Usa un user-agent para que el navegador te detecte como una persona

    • @alejandrocastro4354
      @alejandrocastro4354 Рік тому +1

      ​@@rafita930 Usa un user-agent para que el navegador te detecte como una persona

    • @rafita930
      @rafita930 Рік тому

      @@alejandrocastro4354 gracias por la recomendación lo intentaré

    • @alejandrocastro4354
      @alejandrocastro4354 Рік тому

      @@rafita930 El canal de FRIKIdelTO es su curso de Python capítulo 022 creo

  • @carloszamora2842
    @carloszamora2842 3 роки тому +1

    ¡Hola!, muy buen video. Sólo me queda una duda: ¿De esta manera se hace el Web Scraping en tiempo real?, es decir, ¿si cambia algo en la página también se actualizará en el programa?, y si no es así, ¿Existe una forma de hacer Web Scraping en tiempo real?, saludos y gracias por este tutorial

    • @thepycoachES
      @thepycoachES  3 роки тому +1

      Si los datos son actualizados, esta data nueva va a ser extraída también. Por ejemplo, si está página actualiza los partidos nuevos cada fin de semana, el código escrito va a extraer la data nueva + antigua si corres el script cada fin de semana.
      Sin embargo, si lo que se actualiza es el código fuente de la página (por ejemplo si hay cambios grandes en el código HTML de la página) el script dejará de funcionar y tendremos que ajustarlo según los cambios hechos.

    • @carloszamora2842
      @carloszamora2842 3 роки тому

      @@thepycoachES ¡Gracias!

  • @momo193639
    @momo193639 Рік тому

    Hola una consulta en mi caso al ejecutar el codigo el chrome apenas terminad e cargar la pagina se cierra automaticamente , a que se puede deber este problema ?

    • @alejandrocastro4354
      @alejandrocastro4354 Рік тому +1

      El programa se cierra porque, después de abrir no recibe ninguna acción a realizar...
      Para que no se te cierre escribe un input:
      Variable = input("para que no cierre")
      Esto mantendrá la web en espera

    • @alejandrocastro4354
      @alejandrocastro4354 Рік тому

      Yo tengo problemas para hacer click en los botones.
      Tus haz conseguido hacer click en los botones?

    • @johanrojas5587
      @johanrojas5587 Рік тому

      @@alejandrocastro4354 Gracias, funciono perfecto y ahora si me abrio el boton, te recomiendo uses esto
      all_matches_button = driver.find_element(by = By.XPATH, value = '//*[@id="page-wrapper"]/div/home-away-selector/div/div/div/div/label[2]'

  • @augusto99921
    @augusto99921 2 роки тому +1

    osea hacer un search, con python

    • @thepycoachES
      @thepycoachES  2 роки тому

      Search con Selenium son posibles con el metodo send_keys() o algo así (debe estar en mi formulario de Python)

    • @enocsolano1145
      @enocsolano1145 2 роки тому

      @@thepycoachES ¿En donde tienes tu formulario?

  • @Meityu514
    @Meityu514 Рік тому

    Muy bien explicado, pero la voz de a momentos es molesta (no se cual sea la causa)
    Recomendación x1.75 de velocidad al video y ya es menos molesta y aparte menos tedioso

  • @bernardo2151
    @bernardo2151 3 роки тому +1

    Hi bro how to contact you?=

    • @thepycoachES
      @thepycoachES  3 роки тому

      Add me on LinkedIn. Check my profile on Medium

  • @martgjepali5266
    @martgjepali5266 3 роки тому +1

    can you do a tutorial in english please where you scrape all the coeficents of winning, loosing and draw , that would be very helpful and generose!

    • @thepycoachES
      @thepycoachES  3 роки тому

      Hi! If you mean scraping bookies odds, I would like to, but bookies' websites change their code and then it's impossible to update the changes in UA-cam videos. However, it's easy to update them in articles since I only have to edit the code and explanation.
      These are some of the articles where I do what you're asking (just today I updated the code because of some changes)
      Scraping prematch odds bookie 1: medium.com/swlh/web-scraping-basics-scraping-a-betting-site-in-10-minutes-8e0529509848
      Scraping prematch odds bookie 2: medium.datadriveninvestor.com/i-used-to-pay-180-yr-for-a-profitable-betting-tool-this-year-i-built-one-in-python-dda1a9b9581f
      Scraping live odds in 3 bookies: medium.datadriveninvestor.com/make-money-with-python-the-sports-arbitrage-project-3b09d81a0098
      Hope that helps!

  • @DavidArangosoychon
    @DavidArangosoychon 3 роки тому +1

    mmm amigo voy a tener que dejar de ver tu video o puedo hacer scraping desde el mejor navegador de la galaxia opera?

    • @thepycoachES
      @thepycoachES  3 роки тому

      No estoy seguro si Selenium driver tiene soporte para Opera 🤔

  • @NovaBraulio
    @NovaBraulio 3 роки тому +2

    Cómo puedo ganar dinero con el Web Scraping?

    • @thepycoachES
      @thepycoachES  3 роки тому +1

      Hay varios modos. Haciendo freelancing, vendiendo data scrapeada o con arbitraje.
      Escribí un artículo sobre arbitraje deportivo --> medium.com/swlh/how-to-make-money-from-web-scraping-without-selling-data-92c1f961b25
      Al final del artículo están los links de las versiones escritas en español/portugués.

  • @wolfanrodriguez4928
    @wolfanrodriguez4928 2 роки тому

    all_matches_button=driver.find_element_by_xpath("//*[@id="page-wrapper"]/div/home-away-selector/div/div/div/div/label[2]")
    asi lo corri y me sale " invalid syntax "

    • @thepycoachES
      @thepycoachES  2 роки тому

      Asegúrate de estar en Selenium 3. Si tienes Selenium 4 la sintaxis varia.

    • @gabrielacristinarodriguez1885
      @gabrielacristinarodriguez1885 Рік тому

      Me pasaba igual y le cambie las comillas dobles por las simples, en este caso,no es lo mismo. Me funciono.