Le meilleur outil de Web Scraping pour débutant: Octoparse

Поділитися
Вставка
  • Опубліковано 14 січ 2025

КОМЕНТАРІ • 171

  •  2 роки тому +3

    Pour télécharger Octoparse:
    octoparse.com?fpr=aus2f
    30% de réduction avec le coupon --- RFL30
    Pour une demande en Web Scraping:
    fdufaurboidin@gmail.com

    •  2 роки тому

      @Mohmaed Amine Oui, ça marche aussi ;)

  • @meolou452
    @meolou452 2 роки тому +4

    Bravo François, tu m'as appris en 11 min, ce que le prof n'a pas pu faire déjà en 6 heures. Merci beaucoup, tu es super pédaguogue ⛷

    •  2 роки тому

      C'est un compliment qui fait chaud au coeur ;)

  • @lachainedusanglier3187
    @lachainedusanglier3187 Рік тому +1

    Je découvre ta chaine.
    Tu fais de l'excellent travail, merci pour ton contenu de qualité.

    •  Рік тому +1

      Merci à toi. Ça fait plaisir.

  • @isaitisa1641
    @isaitisa1641 2 роки тому

    Merci, ça m'a permis de découvrir un outil que je ne connaissais pas. Maintenant grâce à ton tuto je vais pouvoir l'utiliser !! 😉

    •  2 роки тому

      C'est fait pour ça ;)

  • @ThierryNdri
    @ThierryNdri 3 роки тому

    Merci vraiment ça m'a énormément aidé.. j'utilise octo pour scrap mais j'y allais toujours à l'aveuglette. Avec ta vidéo je comprends un peu mieux ce que je fais. 👍

    •  3 роки тому

      Au plaisir Thierry ;)

  • @jean-paulsafran4978
    @jean-paulsafran4978 6 місяців тому

    Bravo pour ta video,
    2:44 mais elle n’a plus rien à voir avec la version d’Octoparse d’aujourd’hui.
    Peux tu la mettre à jour ?

  • @patrickprospa4697
    @patrickprospa4697 3 роки тому +3

    Vraiment cool

    •  3 роки тому

      Merci ;)

  • @sathiesanthambirajah1856
    @sathiesanthambirajah1856 2 роки тому +1

    Trop bien, super bien expliqué 👍👍👍

    •  2 роки тому

      Merci à toi.

  • @mikekindo6289
    @mikekindo6289 Рік тому

    Merciii beaucouppp. Ton contenu a été très utile pour moi. Je m'abonne directe

    •  Рік тому

      Fais-toi plaisir ;)

  • @storageinfo20
    @storageinfo20 3 роки тому +2

    Bonjour Merci pour le tutoriel superbe.
    Est-possible de scraper les information d'un sous page qui est en lien dans la page principale ? Il s'agit de la page qui donne plus de détails sur le produit.

    •  3 роки тому

      Bonjour Bien sûr c'est possible ;)

  • @othmaneerraji7160
    @othmaneerraji7160 3 роки тому +1

    merci bcp pour le contenu

  • @hanktrevel1651
    @hanktrevel1651 2 роки тому +1

    Super! Merci pour ce tuto! Très simple d'utilisation après cette explication détaillée. Mais malheureusement cet outil (Ou manipulation) ne permet pas d'extraire les données d'un site comme celui de Leroy Merlin... Aurais-tu une solution?

    •  2 роки тому +1

      Salut,
      Le problème doit vraisemblablement se situer sur le workflow. Mais si tu n'arrives pas avec Octoparse, tu peux toujours essayer un autre outil comme Data Miner.

    • @francois5591
      @francois5591 Рік тому

      En fait sur LM il y a un sweet captcha (une page où il faut cliquer/déplacer un élément sur le côté) un peu comme le captcha avec la pièce de puzzle à remettre en place. Octoparse gère-t-il ce genre de captcha un peu complexe ? @

    •  Рік тому

      @@francois5591 Un Datadome?
      Non, pas du tout. Il faut une solution d'anti-captcha.
      Mais je ne pense pas qu'on puisse l'intégrer sur Octoparse.

    • @francois5591
      @francois5591 Рік тому

      Oui, c'est effectivement un Datadome qu'utilise LM. Même un scraper assez évolué comme Browse AI qui gère facilement des captcha simples (ReCaptcha, hCaptcha) n'arrive pas à le passer. Pour cela que je posais la question pour Octoparse puisque tu es un spécialiste. Merci pour ton retour rapide ! @

  • @jasmine6255
    @jasmine6255 2 роки тому

    Bonjour
    Merci beaucoup pour toutes ces infos précieuse
    Est-ce qu'il est possible d'injecter les contacts dans un crm ??
    Merci d'avance

    •  2 роки тому

      Bonjour, c'est sans doute possible via Zapier. Il faut s'assurer que le CRM en question est bien répertorié.

  • @alexchmit7836
    @alexchmit7836 2 роки тому +1

    Hello, pour ma part, malgré mes multiples essais, je n'arrive pas à récuprérer des adresses mail... C'est toujours la totalité du site que se trouve scraper... As-tu un conseil à me donner ?

    •  2 роки тому

      Hello Alex, Je fournis à mes clients ce genre de prestation s'ils le souhaitent. Sans plus de détails, j'aurai du mal à te trouver un conseil pertinent.

    • @alexchmit7836
      @alexchmit7836 2 роки тому

      @ Merci pour ta rapide réponse. Comment puis-je te joindre ?

  • @profapps
    @profapps 6 місяців тому

    merci de tes vidéo
    jute j'ai un problèmes avec liste déroulante dynamique comment les scraper

  • @omcb.o5066
    @omcb.o5066 2 роки тому

    Super tuto ... bravo

    •  2 роки тому

      Merci

  • @vincentblaschke9366
    @vincentblaschke9366 Рік тому

    Super tuto mais à 6:03 il n'y a plus moyen de faire "customise field avec un clic droit pour choisir ensuite Page Url... Je suis sur une version plus ressente et ça n’apparait pas. Je ne sais donc pas comment transformer un

    • @vincentblaschke9366
      @vincentblaschke9366 Рік тому +1

      Bon ben j'ai trouvé la réponse dans un de tes tutos en anglais! (No Code Web Scraping Tool: How to Extract Data with Octoparse)
      Merci encore.
      Pour ceux que ça intéresse, il faut cliquer sur le A juste avant le SPAN dans la fenêtre Tips puis choisir link.

  • @MrAmanKino
    @MrAmanKino 2 роки тому

    merci pour la video très utile

    •  2 роки тому

      De rien. C'est fait pour ça.

  • @toute-belle590
    @toute-belle590 2 роки тому

    Bonjour François, merci pour tes vidéos sur Octoparse, elles sont très pédagogiques.
    Néanmoins, je rencontre de grosses difficultés pour extraire les données de certains site, peut-on en discuter ?

    •  2 роки тому

      Bonjour Bien entendu. Tu peux m'envoyer un email à fdufaurboidin@gmail.com

    • @toute-belle590
      @toute-belle590 2 роки тому

      Merci François, je fais ça demain.

    • @toute-belle590
      @toute-belle590 2 роки тому

      Mail envoyé ;-)

  • @parabeaute8176
    @parabeaute8176 6 місяців тому

    Bonjour François, à ton pourquoi quand je scrape un siteweb après un résultat de 10.000 lignes au moment du transfert il 200 lignes uniques et le reste sont des duplications, comment éviter cela. un grand merci pour ta réponse et pour les video que tu fais

  • @MsLifest
    @MsLifest Рік тому

    Merci François

    •  Рік тому

      Je t'en prie.

  • @DocteurSphereNan
    @DocteurSphereNan Рік тому

    Hello je fais exactement ce que tu fais mais ça ne me sort que un résultat sur la page des offres de job WeLoveDev une idée du souci ?

    •  Рік тому

      Hello, Si tu n'as qu'une seule page, c'est que c'est vraisemblablement un problème de pagination.

    • @DocteurSphereNan
      @DocteurSphereNan Рік тому

      ok merci@

  • @jean2221
    @jean2221 9 місяців тому

    Est-il possible de créer une automatisation avec Make vers Notion ?

  • @modesteekambi6591
    @modesteekambi6591 2 роки тому

    Bonjour François, merci bcp pour ton super tuto simple et concis. Stp, serait-ce possible d'extraire en seul coup l'ensemble au lieu de procéder menu après menu et puis catégorie après catégorie puis sous catégorie après.. Pff! puis d'obtenir tous les résultats en un seul output exportable ?

    •  2 роки тому

      Bonjour Modeste,
      Malheureusement, tu ne peux pas tout avoir d'un seul coup. Sauf si les résultats sont sur la même page (ou que tu utilises un SAAS spécialisé sur le site en question).

  • @lucas-wm5je
    @lucas-wm5je Рік тому

    Salut François, top t es tuto merci !
    Cependant, après avoir sélectionné mes éléments a scrapper, dans la barre TIPS je n'ai pas la fonction "extract the text of the selected element" pour save ensuite save et déclancher la RUN.
    Aurais-tu une solution/raccourci pour afficher la fonction ?

    •  Рік тому +1

      Salut Lucas,
      Maintenant, la fonction est renommée sobrement "Text".

    • @lucas-wm5je
      @lucas-wm5je Рік тому

      @
      Tout simplement ahah
      Merci pour ce retour !

  • @moimoi588
    @moimoi588 2 роки тому

    Hello François,
    je trouve ta vidéo vraiment simple et efficace, j'aurais une question à te poser avec OCTOPARSE peux ton extraire quand le numéro de téléphone se trouve "derrière" un lien? ( téléphone ou logo...)
    merci de ton retour

    •  2 роки тому

      Hello,
      Merci à toi.
      Normalement, c'est possible avec Octoparse.

    • @moimoi588
      @moimoi588 2 роки тому

      @ merce de ton retour, on serait sur quel type de manip?🧐
      merci

    •  2 роки тому

      @@moimoi588 Normalement un simple "click item" devrait suffire.

  • @kheperViager
    @kheperViager 4 місяці тому

    Bonjour, je cherche a faire cela sur le bon coin et se loger mais je suis bloqué. Existe-t-il une astuce pour scraper ? Merci de votre réponse.

    •  4 місяці тому

      Bonjour,
      Cela me semble possible.
      Je vous réfère au commentaire épinglé.

  • @pierrecoquantif
    @pierrecoquantif 2 роки тому

    Je comprends pas l’objectif, tu as que des données brutes ? Tu n’as pas d’e-mail etc ?

    •  2 роки тому

      Tu as en parti raison. Le web scraping peut servir en lead generation. Mais pas que. Cela sert plus généralement à faire des études de marché et à s'informer sur ses concurrents.

  • @majidatif672
    @majidatif672 2 роки тому

    Merci pour cette vidéo. C'est bien faite.
    C quoi les limites de cette solution par rapport au web scraping avec python (beautifulsoup) ?

    •  2 роки тому +1

      Il y a certaines choses que vous ne pourrez pas faire avec Octoparse. Ou alors qui seront plus longues à faire.

  • @perretpatrick8286
    @perretpatrick8286 3 роки тому

    Très bien fait le tuto, bravo, intuitif, existe t'il une solution pour automatiser le scrapping et la création de liste prête à envoyer par une solution comme Mailpoet ou autre newsletter ?

    •  3 роки тому

      Pour l'automatisation pur, tu peux aller faire un tour chez Phantombuster ;)

    • @perretpatrick8286
      @perretpatrick8286 3 роки тому

      @ Merci, je vais aller voir ça...

    • @hocinee.5620
      @hocinee.5620 3 роки тому

      Merci

  • @jasmine6255
    @jasmine6255 2 роки тому

    Dommage impossible de télécharger la version gratuite

    •  2 роки тому +1

      Octoparse n'est pas disponible sur Linux. C'est peut-être pour ça. Sinon, il faut directement contacter le service client.

  • @samycl
    @samycl Рік тому

    Salut François !
    Merci pour le tuto.
    Je n'arrive cependant pas à extraire les URL's montré dans cette vidéo à 5:55 car l'interface a changé sur Octoparse.
    Pourrais-tu me dire quelles sont les étapes à suivre une fois que je clique sur "selct OuterHTML" ? Merci

    •  Рік тому +1

      Salut,
      Si l'interface change, le mieux est de changer le XPath.

  • @onlyfoot
    @onlyfoot 2 роки тому

    c quoi l utilisation du scraping ?

    •  2 роки тому +1

      Extraire des données sur le web. Cela peut être pour faire une étude de marché ou récolter des leads.

  • @bobx75000
    @bobx75000 3 роки тому

    bonjour, ça marche pour leboncoin ? et pour les emails ont fait comment ?

    •  3 роки тому

      Pour Leboncoin, je recommande plutôt Data Miner (tout en faisant très attention). Pour les emails, je ne savais pas qu'ils étaient disponibles sur Leboncoin

  • @maohuahua6027
    @maohuahua6027 2 роки тому

    Très bien, mais pouvez-vous spécifier quelles données crawler, j'ai déjà lu le tutoriel que vous avez enseigné sur la collecte d'instagram, et j'ai découvert plus tard qu'Octoparse ne peut pas collecter de données après 200 données, je ne suis pas sûr de ce qui se passe.

    •  2 роки тому

      Il n'y a pas de limite sur le nombre de données

  • @isiinformatique-drone4380
    @isiinformatique-drone4380 Рік тому

    salut je trouve génial t'as video mais je n'y arrive pas avec la dernière versions

    •  Рік тому

      Salut,
      Il faut toujours adapté un tutoriel lorsque celui-ci date un peu. En fonction des sites, cela peut-être plus ou moins compliqué.

  • @philippezinser4084
    @philippezinser4084 3 роки тому

    Bonjour François, merci beaucoup pour cette vidéo, mais il doit me manquer une info, car je n'arrive pas à extraire les données!

    •  3 роки тому

      Hello Philippe Octoparse a parfois quelques subtilités. Quel est le site que tu veux scraper exactement ?

    • @loulouthuilier1342
      @loulouthuilier1342 3 роки тому

      je n arrive pas a extraire les images

    •  3 роки тому

      @@loulouthuilier1342 Tu as essayé "Auto-detect web-page data" ?

    • @loulouthuilier1342
      @loulouthuilier1342 3 роки тому

      @ oui j’ai tout essayé et je n’ai pas les images car il me faut description produit prix image
      Car je prend les produits sur mes sites fournisseurs pour les lettres sur mon site shopify et j’en ai beaucoup à prendre alors compliqué de rajouter les images une à une

    •  3 роки тому

      ​@@loulouthuilier1342 Dans ce cas je te recommande Data Scraper pour scraper les URL d'image. C'est plus instinctif à ce niveau-là chrome.google.com/webstore/detail/data-scraper-easy-web-scr/nndknepjnldbdbepjfgmncbggmopgden

  • @nejuslebon7078
    @nejuslebon7078 3 місяці тому

    Merci

  • @ludovichenri7775
    @ludovichenri7775 3 роки тому

    Bonjour, est ce possible de vous contacter pour une affaire privé?
    Cordialement.

    •  3 роки тому

      Bonjour Ludovic, Oui sur fdufaurboidin@gmail.com

    • @ludovichenri7775
      @ludovichenri7775 3 роки тому

      @ mail envoyé cdlt

  • @modibobouare9165
    @modibobouare9165 3 роки тому

    Hello François, merci beaucoup pour cette vidéo. Je veux savoir si c'est possible d'extraire les données en fonction d'un nom spécifique ?

    •  3 роки тому

      Hello Modibo Est-ce que c'est bien reformulé: "Tu cherches à scraper des données qui correspondent à un certain texte"? Dans ce cas, c'est possible. Il faut modifier le XPath. ça te dit peut-être quelque chose?

    • @modibobouare9165
      @modibobouare9165 3 роки тому

      @ Oui ça me dit quelque chose Xpath expressions in Web scraping with python. Je veux extraire sur un site le nom des pharmacies en fonction des villes, car le site fournit la liste de toutes les pharmacies du pays. Par exemple if(Pharma_location == CityName){extraction} mais j'arrive pas a le faire avec Data scraper (chrome-extension)

    •  3 роки тому

      @@modibobouare9165 Peux-tu m'envoyer le lien à tout hasard ? Que je jete un oeil

  • @yannlecadet485
    @yannlecadet485 Рік тому

    Top cool 👍

    •  Рік тому

      Au début, on a l'impression de faire un tour de magie.

  • @smartappeal7296
    @smartappeal7296 2 роки тому

    Bonjour, est-il possible de scraper des données sur un site qui sont dans des menus déroulants. En fonction de la sélection faite dans les menus déroulants on obtient une donnée résultats. Je souhaiterais obtenir toutes les données de ce menu déroulant avec tous les résultats possibles. Est-ce possible ? Si oui comment faire cela dans les grandes lignes svp ? Merci 🙂

    •  2 роки тому

      Bonjour, Oui c'est possible ;) De mémoire, il vous faut combiner une "loop item" avec un "switch dropdown" + un "extract data".

  • @royh110520
    @royh110520 3 роки тому

    Svp
    Comment faire si la liste des pages à extraire n'est pas précis, c'est à dire ca descend toujours pas de fin ( pas de bouton next ni numero)
    Merci

    •  3 роки тому

      Hello Une très bonne question ;) J'avais fait une vidéo qui en parlait "Les problèmes de pagination sur Octoparse". Ce qu'il faut retenir: Tu cliques sur l'icône "plus" puis "loop" et tu transformes "list of urls" en "scroll page" N'hésite pas à me dire si c'est pas clair

  • @the_school_of_life8659
    @the_school_of_life8659 3 роки тому

    Super ,mercii bcp ,it works 👏🏻

    •  3 роки тому +1

      Parfait ;) Je t'en prie

  • @hocinee.5620
    @hocinee.5620 3 роки тому

    Bonjour, peut on scraper les mails de compte sur sales navigator. Pas dans les mails visibles de compte mais dans les mails cachés, je sais pas si tu m'as compris

    •  3 роки тому

      Je ne suis pas le mieux placé pour te répondre. Je n'ai jamais touché à Sales Navigator. En terme d'enrichissement de données, tu peux aller voir chez "Dropcontact". Il y a moyen que tu trouves les emails professionnels si c'est ta question.

    • @hocinee.5620
      @hocinee.5620 3 роки тому

      @ Merci beaucoup

  • @pumbaa_airsoft
    @pumbaa_airsoft 2 роки тому

    Bonjour François. Je suis tes tutos et je me suis lancé sur Octoparse.
    Néanmoins je constate lors de mes scraps que ces derniers s'arrêtent avant la fin : sur 360 produit j'en sors maximum 50-150 en fonction des sites. La pagination semble pourtant bonne, puisque j'arrive à accéder à la 2e ou 3e page, mais l'extraction se fait pas entièrement.
    As-tu déjà rencontré ce problème ?
    Merci d'avance

    •  2 роки тому +1

      Bonjour Florian Il peut y avoir tellement de causes à tout ça que ça risque d'être difficile de tout énumérer dans un commentaire ;) Si tu penses que la pagination est bonne, c'est peut-être un problème de "loop item". Mais si tu as des cellules ou des lignes incomplètes, c'est sans doute qu'il y a un problème dans "extract data"

    • @pumbaa_airsoft
      @pumbaa_airsoft 2 роки тому

      @ Merci pour cette Réponse François.
      En effet il m'arrive parfois que certains EAN manquent sur les scrap de fiche produits. Je regarderai le "extract".
      Néanmoins le souci principal est vraiment que je n'arrive à scraper que 15-50% des produits. Je dis que la pagination est bonne dans le sens où j'arrive à aller sur les pages suivantes car je scrape plus de donnés que le maximum affichable par page...
      C'est un souci récurrent qui me bloque un peu dans ma démarche je dois dire 😥

    •  2 роки тому +1

      @@pumbaa_airsoft Je peux t'aider plus en détail si tu veux. Mais ce sera en coaching. Sinon, ce qui me vient à l'esprit, c'est peut-être un problème de boucle.

    • @arnaques-tuto-informatique
      @arnaques-tuto-informatique 2 роки тому

      salut simplement le site est protégé

  • @nicolorde8202
    @nicolorde8202 3 роки тому

    bonjour, je suis tomber par hasard sur ta vidéo et je me demander si cela était possible de scraper plus facilement des sous catégorie par exemple sur un site de e-commerce stp. merci d'avance parce que je suis assez bloqué avec ça

    •  3 роки тому

      Hello Est-ce que tu peux me filer le lien que je vérifie vite fait?

    • @nicolorde8202
      @nicolorde8202 3 роки тому

      @ merci pour ta réponse rapide il y a que deux catégorie qui on les sous catégorie c'est ceux-ci www.casalsport.com/fr/cas/equipement-de-fitness-et-cross-training et www.casalsport.com/fr/cas/equipement-de-larbitre-et-coaching

    •  3 роки тому

      @@nicolorde8202 Alors d'après ce que je vois, je te conseille de le faire en 2 temps: Extrait d'abord les URL des sous-catégories. Et après, tu prends les URLs et tu extrais directement les données de chacun des articles. Si tu as encore des doutes, tu peux m'envoyer un email.

    • @nicolorde8202
      @nicolorde8202 3 роки тому

      @ d'accord merci je vais essayer comme ça

  • @antoinecoudert237
    @antoinecoudert237 3 роки тому

    Bonjour François, j'essaye de scrapper des donnée AirBNB mais je ne peux pas faire la pagination manuellement ni utiliser la méthode de detection de données ( No Data Detected). Auriez-vous une solution ? Merci :)

    •  3 роки тому +1

      Bonjour Antoine C'est un peu plus avancé. Je te recommande de tester la pagination via les Xpaths/ AJAX. Me semble-t-il que la chaîne UA-cam d'Octoparse présentait un tuto sur "Comment scraper Airbnb" ? ;)

    • @antoinecoudert237
      @antoinecoudert237 3 роки тому

      @ Bonjour, j'ai regardé tous les tutos que j'ai pu trouver mais rien ne me permet de trouver comment réaliser réellement la pagination. A chaque fois, j'arrive a extraire toute la première page et ensuite mon programme s'arrête ( run completed), donc il ne prend jamais en considération ma volonté de changer de page. Merci :)

    •  3 роки тому

      @@antoinecoudert237 Hello Antoine As-tu pensé à scraper à partir d'une liste d'URL ? Chaque URL correspondant à une page ;)

    • @antoinecoudert237
      @antoinecoudert237 3 роки тому

      @ Hello, oui effectivement j'ai déja essayé de scraper une liste d'URL mais j'arrive au même resultat. Seulement ma première page est scrapée. :(

    •  3 роки тому

      @@antoinecoudert237 Hello C'est peut-être un problème de temps d'attente. Essaye en mettant un temps d'attente de 10s entre 1 page et une autre

  • @aureliejersier8874
    @aureliejersier8874 3 роки тому

    est il possible de scraper le mail d'une personne précisément ?

    •  3 роки тому +1

      Difficile à répondre. ça dépend de votre site

  • @jihaneargab751
    @jihaneargab751 3 роки тому

    Bonsoir, stp je vais extraire les données d'un site d'annonce mais qu'on j'utilise octoparse par exemple une publication a 6 images, il me scrappe que la première image, comment faire pour parcourir toutes les photos de chaque publication d'annonce? merci

    •  3 роки тому

      Hello Jihane As-tu essayé avec un Xpath ? Normalement, pour chaque image, tu peux trouvé un xpath différent.

  • @corentinsourice
    @corentinsourice 2 роки тому

    Bonjour,
    Super vidéo. J'aurais quelque questions a propos de cette application. Pour expliquer rapidement mon projet, je travaille dans une société qui vend des service en rapport avec le milieu de l'aéronautique ( baptêmes, initiation, brevet ULM, licence avion, ...). Dans le cadre de ce travaille il ma été demander de réaliser un document Number ( sur Mac ) qui liste tout les contrat dans un tableau disposer comme cela:
    Ligne -> Nom, Prénom du client + Type de contrat
    Colonnes -> Prix totale de la formation - Somme verser - Reste a payer - Pourcentage de progression de la formation
    Je me suis dit que de réaliser cela mais avec une actualisation régulière serais beaucoup plus confort.
    Voila donc le projet. Les donnée permettent d'alimenter ce tableau sont noter sur un site avec le quelle l'entreprise travaille, le premier problème est que l'accès a la page info de ce site est restreint par un authentification ( login + mdp ).
    J'aurais donc 3 petit question a vous poser en concernant l'application:
    1) Est-il possible de scraper une page qui nécessite une authentification ?
    2 ) Est-il possible de faire le scraping de manière automatique ?
    3) Est-il possible de contraindre les donner récupérer a s'afficher dans un tableau déjà existant ?
    Merci d'avoir pris le temps de lire mon message. J'ai essayer d'être le plus claire possible. Je suis débutent dans ce milieu la, j'ai la conviction que mon projet est réalisable mais que je suis juste bloquer par mes compétence.
    J'espère que vous pourrez m'apporter des réponde a mes question
    Très bonne journée a vous
    Cordialement
    Corentin S.

    •  2 роки тому

      Bonjour Corentin,
      Pour répondre à vos questions:
      1) Cela demande une étape en plus mais c'est possible.
      2) Si ta question est "Peut-on planifier une tâche?", la réponse est "oui""
      3) Pas directement. N'ayant pas fait la manipulation moi-même, je peux difficilement te faire une réponse détaillée. Je pense que tu résoudre ce problème avec des outils comme Zapier.

    • @corentinsourice
      @corentinsourice 2 роки тому

      @ merci beaucoup

    • @arnaques-tuto-informatique
      @arnaques-tuto-informatique 2 роки тому

      salut si le site est bien fait ,si on a pas une authentification, ça passe pas. sauf hacking complément illégal....

    •  2 роки тому

      @@arnaques-tuto-informatique Oui. Cela ne fonctionne que si tu peux déjà t'authentifier manuellement.

    • @arnaques-tuto-informatique
      @arnaques-tuto-informatique 2 роки тому

      @ salut.
      Oui, on est d'accord ^^
      Bon, apres meme sans s'authentifier, ya 2 techniques qui devraient marcher mais pas tres légales je crois (et sans prendre l'authentification de qqlun)...

  • @princenzanzu5630
    @princenzanzu5630 3 роки тому

    Salut Merci pour la présentation, je voulais savoir on veut scraper les abonnés d'un groupe ou d'une page Facebook, est-ce que octoparse est approprié ou faut-il utiliser phtontombuster ?

    •  3 роки тому

      Hello Je n'ai encore jamais utilisé sur Facebook avec Octoparse. A tester. Pour Phantombuster, c'est possible. La seule condition, c'est d'avoir un proxy. Il y a Proxymesh.com qui peut t'aider à en créer un. phantombuster.com/automations/facebook/6987/facebook-group-extractor

    • @princenzanzu5630
      @princenzanzu5630 3 роки тому

      @ merci beaucoup, je vais essayer

  • @conseiljuridique9883
    @conseiljuridique9883 3 роки тому

    BONSOIR merci pour vos vidéos vraiment c 'est un plaisir de vous écouter, pouvez vous me renseigner s'il ya une astuce comment extraire les liens d'affiliation'( récemment j'ai commencé la vente en affiliation et j'ai rien gagné à ce moment hhhh c'est dur ) si vous pouvez me conseiller sur un outil ou autres chose qui peut m'aider dans la vente en affiliation

  • @SD-rg5mj
    @SD-rg5mj 2 роки тому

    Salut moi je voudrais scraper UA-cam mais uniquement la centaine de pages UA-cam, de vidéo, que j'ai collecté
    Je voudrais scraper les titres et les nom des chaînes
    Lorsque je fais un copier-coller d'une URL UA-cam, et pas que, automatiquement UA-cam change l'URL en titre,
    Comme lorsque je fais un copier-coller ou un glisser déposé d' une vidéo dans les favoris chrome
    Lorsque j'utilise google doc ou Evernote et que je fais un copier-coller d'une URL ça ne fait pas le changement, je veux dire ça reste sous forme d'URL, cliquable, mais ça ne change pas en titre
    Et j'ai beau demander sur des groupes Facebook en français comme en anglais mais personne ne peut me dire si il y a un paramétrage à faire ou un raccourci clavier
    C'est la raison pour laquelle je voudrais scraper,
    Est-ce que octoparse est-ce qu'il me faut ?
    Et sinon est-ce que tu connais la méthode miracle pour faire un paramétrage dans Google docs par exemple pour que j'ai automatiquement les titres ?
    Et enfin une dernière chose, avant j'utilisais parsehub, tu n'aimes pas ?
    Merci Cyril

    •  2 роки тому

      Salut Cyril,
      Je ne suis pas certain d'avoir tout compris.
      Mais tu peux parfaitement scraper une liste d'URLs avec Octoparse. Donc si tu as ta liste de vidéos UA-cam, ça doit le faire.
      Je n'ai jamais utilisé ParseHub. D'après ce que j'en ai vu, il est assez similaire à Octoparse. Mais je ne vais pas me pencher sur chaque outil que je croise ;)

    • @SD-rg5mj
      @SD-rg5mj 2 роки тому

      @ tu sais lorsque tu fais un copier-coller d'une URL dans Google keep, Google keep de la transforme automatiquement en titre cliquable de la page, par contre lorsque je fais un copier-coller d'une URL dans Google docs là ça ne le fait pas, à la place je n'ai que l'URL cliquable et non pas le lien cliquable
      Est-ce que tu vois ce que je veux dire ?
      Et donc c'est pourquoi je voudrais scraper les titres et nom de la chaîne UA-cam de quelques centaines de vidéos UA-cam qui composent mes playlist

  • @omcb.o5066
    @omcb.o5066 2 роки тому

    juste une question bête: sur le site que je souhaite scrapper, j'ai un bouton "Afficher plus" qui me permet bien sûr d'acceder à d'autres page, il y en a 7, or dans Octoparse je n'ai pas la main sur ce bouton pour créer une pagination ce qui fait que je n'ai pas le pop up et donc la possibilité de faire "loop click single URL"
    Peux tu me dire comment contourner cela... merci

    •  2 роки тому

      Bonjour, Je ne suis pas sûr de bien comprendre. Vous voulez dire que vous avez un bouton "afficher plus" à la place du bouton "suivant" ?

  • @lorenpYoutuification
    @lorenpYoutuification 3 роки тому

    Bonjour, est-il toujours gratuit ? il me demande une activation.

    •  3 роки тому +1

      Bonjour Il est toujours gratuit. Si le problème persiste, je t'invite à contacter le support.

    • @lorenpYoutuification
      @lorenpYoutuification 3 роки тому

      @ merci

  • @christocodecraft4510
    @christocodecraft4510 2 роки тому

    Domage que ça ne fonctionne pas sur GNU/Linux.

    •  2 роки тому

      C'est un gros désavantage. Il y a encore quelques années, on ne pouvait l'utiliser que sur Windows.

  • @working4ever390
    @working4ever390 3 роки тому

    Thank you

  • @Bibidoo3
    @Bibidoo3 Рік тому

    Yo je comprend pas un truc le scrapping ca sert à quoi ? je comprend pas mdr

    •  Рік тому

      Cela sert à gagner en productivité. A récupérer plus de data, plus rapidement.

  • @historus
    @historus 3 роки тому

    Salut et merci pour tes vidéos. L'outil Octoparse est fabuleux, mais il plante chez moi quand je lancer certaines taches. Je ne sais pas s'il s'agit d'une limitation de la version gratuite ou si c'est un blocage venant du paramétrage que j'effectue de mon scrapping. Dans la majorité des cas, lorsque je lance une tache pour la première fois, elle marche sans problème, mais si je change d'URL et que je relance une deuxième tache, lorsque j'appuie sur le bouton "save" une croix rouge s'affiche sans aucun message, puis lorsque je clique sur "run" idem, deux croix s'affichent en haut de l'écran l'une en dessous de l'autre et mon scrapping ne marche pas. Est-ce que tu as une idée sur d'o% ça peut venir ? Merci d'avance.

    •  3 роки тому

      Salut Voici quelques pistes à explorer:
      1) L'option gratuite est limitée à 10 tâches maximum. Si tu as dépassé ce quota, tu peux supprimer certaines tâches et en créer une nouvelle.
      2) Essaye de lancer ta tâche directement sur le dashboard
      3) Les bugs peuvent arriver, que ce soit l'option gratuite ou payante, dans ce cas, je quitte ma tâche et j'y retourne immédiatement. Et en recliquant sur "run", ça fonctionne.
      Voilà ;)

  • @MélanieJacob-q6k
    @MélanieJacob-q6k 2 місяці тому

    très bon contenu mais maintenant c'est une nouvelle version d'octoparse

  • @starnakin5314
    @starnakin5314 3 роки тому +1

    Je comprends l'intérêt d'éloigner les débutants du code

    • @timauthee861
      @timauthee861 3 роки тому

      ne pas perdre du temps avec des futilités? connaitre les bases de fonctionnement du code c'est utile et ca donne une certaine ouverture d'esprit, mais pas tout le monde n'a le temps ni l'envie d'apprendre à coder, surtout si de tels outils existent. Sinon autant apprendre à coder en binaire haha

    • @starnakin5314
      @starnakin5314 3 роки тому

      @@timauthee861 peut-être pas en binaire mais pourquoi pas en assembleur xD. Non plus sérieusement je comprends mais avec un language au niveau comme python faire un scapper n'est pas beaucoup plus dure et amène plus de possibilités. Se qui m'a dérangé c'est le terme débutants (donc des gens qui ont envie d'apprendre à coder) et moi personnellement je trouve que c'est perdre du temps que de commencer par ça. Après je suis d'accord c'est un super outil pour des gens qui ne s'intéresse pas à la programmation.

    •  3 роки тому

      @@starnakin5314 Je vois le processus comme un escalier. Avant de pouvoir faire un marathon, il faut apprendre à courir 1heure. Puis 1h30. Puis 2h. Puis 3h. Je n'ai encore jamais utilisé Python pour scraper mais là où je suis d'accord, c'est d'avoir quelques bases en code. Notamment sur Octoparse où ça peut te débloquer des situations compliquées. Mais tout ça est un cheminement qui peut prendre du temps.

    • @starnakin5314
      @starnakin5314 3 роки тому

      @ d'accord merci

  • @julienbruno255
    @julienbruno255 8 місяців тому

    pour moi tu vas beaucoup trop vite

  • @julienbruno255
    @julienbruno255 8 місяців тому

    Pq tu te rases si c'est pour te foutre un shirt pourave et une coupe affreuse

  • @cost4s
    @cost4s 2 роки тому

    Salut je suis limité à 50 lines, c'est un site ou les lignes se chargent toutes seules, il n'y a pas de page. Sais-tu comment je peux augmenter ça ?

    •  2 роки тому

      Salut Julien, Il n'y a pas de limite en terme de lignes avec Octoparse. Quand tu parles de lignes qui se chargent toutes seules, tu veux parler d'une page de type "scroll infini" ?