Algocratie : L'inégalité programmée -

Поділитися
Вставка
  • Опубліковано 2 січ 2025

КОМЕНТАРІ • 786

  • @pignouf42
    @pignouf42 6 років тому +282

    Je suis développeur informatique, et je fais régulièrement des algorithmes. J'ai travaillé pendant 4 mois pour une boite qui gère les données des cartes de fidélités de grands magasins, et la lecture des demandes me choquais : - Nous allons faire cette action car cela touchera tel sentiment etc... J'ai démissionné au bout de 4 mois, et j'en suis ravi :)

    • @Nalojuntu
      @Nalojuntu 6 років тому +19

      Bravo à vous d'avoir démissionné par conviction 👍
      Est-ce que vous pourriez préciser des exemples de ce qu'ils demandaient - si cela reste possible sans rompre le secret professionnel - ?

    • @pignouf42
      @pignouf42 6 років тому +57

      @@Nalojuntu merci en fait, ce n'etait pas des algo très poussés pour être clair, mais par exemple j'avais des phrases du genre:"pour jouer sur le sentiments d'exclusivité nous enverrons un courrier pour l'anniversaire de la personne"
      Et il y avait tout une liste avec le sentiment touché et l'action à mettre en place.
      Ce type de manipulation (qui est d'ailleurs plutôt grotesque et pas très fine) me gênait quand même...
      Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir. C'est beaucoup plus simple pour moi de démissionner et trouver un autre travail que pour beaucoup.

    • @vivienm.3580
      @vivienm.3580 6 років тому +33

      "Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir."
      Mouais. De mon expérience personnelle, une grande majorité des choix sont justement des emplois ou on nous fera ce genre de demandes. On fait de la publicité, on aide des lobbys à diffuser leurs propagandes, on collecte à l'aveugle des données sur les utilisateurs... j'en ai fait, moi, des entreprises, avant de comprendre que la seule solution était de changer de métier.
      C'est pas pour rien qu'on a pas de problèmes à trouver du travail. Nous sommes les premiers ouvriers de la machine de propagande de l'ordre capitaliste.

    • @NicolasMarinCudraz
      @NicolasMarinCudraz 6 років тому +37

      @@vivienm.3580je partage tes propos, après 15 ans de consultance, j'ai dit basta, plus moyen de participer à ça. Aujourd'hui je plante des arbres, des légumes et m'occupe de mes enfants.

    • @snoopyznap
      @snoopyznap 6 років тому +4

      De même, j'ai refusé un devis pour cela...

  • @sixteenf
    @sixteenf 6 років тому +468

    Vous auriez clairement du préciser que la personne interviewée était co-fondatrice d'AlgoTransparency. Car en voyant sa présentation "Journaliste & Web designeuse" j'avais vraiment du mal à voir sa légitimité pour parler du sujet.

    • @corentinhembise
      @corentinhembise 6 років тому +35

      L'argument d'autorité, bien ancré dans nos moeurs

    • @Cusporryco
      @Cusporryco 6 років тому +11

      @@corentinhembise t'aurais mieux fait de te taire

    • @JohnDoe-vf6jn
      @JohnDoe-vf6jn 6 років тому +6

      @Atrid On va dire que c'est un argument qui est bien sur quelque chose qui appuie une proposition, mais effectivement elle est souvent surestimée.

    • @sixteenf
      @sixteenf 6 років тому +3

      @@corentinhembise Je suis désolé mais je ne comprends pas du tout ce que tu as voulu dire ?

    • @GildasCotomale
      @GildasCotomale 6 років тому +2

      Sérieux @corentinthembise ? Nous n'avons pas la même définition de la chose ; mais s'il y en a beaucoup comme toi on comprend mieux sa modestie...

  • @lechatdutyrol1013
    @lechatdutyrol1013 6 років тому +6

    Je suis en dernière année dans une grande école publique qui nous forme à devenir Data Scientist. Dès la première année, nous avons fait, en cours, des exercices à travers lesquels nous devions calculer le nombre de personnes qu'une entreprise devait licencier pour optimiser ses revenus. Un bien beau programme...
    Je suis convaincu que la data science peut permettre de rendre le monde meilleur, comme on a pu le voir dans la vidéo avec l'algorithme qui permettrait de faire connaître à des gens leur droit à accéder à des aides sociales qu'ils méritent. Il y a surtout un souci à la base. Il est très difficile de trouver de telles missions. Étant en dernière année, chaque étudiant de ma promotion doit trouver un stage de fin d'étude qui débouche dans 80% des cas sur un CDI. J'essaie tant bien que mal de chercher ce stage dans une entreprise, ONG ou institutions qui me permettrait de faire de la data science dans un contexte qui pourrait permettre de rendre le monde meilleur. Même si j'en trouve, elles n'ont en général pas de place pour un stagiaire. Pendant ce temps, quasiment quotidiennement, nous recevons des offres avec de beaux salaires de groupes comme Nestlé, HSBC ou Total ou de cabinets de conseils travaillant pour eux. N'ayant pas de cours d'éthique de la donnée et ces groupes cachant suffisamment bien du grand publique leurs actions moralement répréhensibles, la très grande majorité des gens de ma promotion va alors travailler pour eux et permettre à ces groupes de créer des algorithmes dont la vidéo parle en ne cherchant pas plus qu'à répondre au cahier des charges fixé. Quand j'en parle avec eux, je pense juste qu'ils ne se rendent pas compte du mal que cela peut causer et la paie qui va avec leur laisse à penser que le mal qu'il font ne peut pas être aussi horrible. J'espère que je pourrai travailler dans un contexte en accord avec mes idées mais plus le temps passe, malgré mes recherches, l'absence d'offres éthiquement correctes me fait peur et j'ai bien peur qu'à mon tour, en dépit de mes convicitions, je n'aurai pas d'autre choix que de travailler un certain temps pour ces grands groupes.

    • @thomaslegluher4241
      @thomaslegluher4241 6 років тому

      Comme partout, c'est dur de faire un travail qui rentre en accord avec son éthique personnelle. Parce que le boulot y en a dans des boîtes qui ont des thunes, et ces boîtes ont des thunes parce qu'elles sont pas éthiques ! Après entre la voie de la facilité et la galère en bonne conscience, pas toujours facile de choisir...

    • @renauddenis6043
      @renauddenis6043 6 років тому

      Salut Le Chat, as-tu regardé du coté de l'Open source ? Il y a de nombreuses sociétés et fondations qui, je pense, recherchent des data scientists. Genre Framasoft, la Quadrature du Net, Mozilla,...

    • @TPzOizo
      @TPzOizo 6 років тому

      Pour cela, il existe un programme d'Entrepreneurs d'intérêt général au sein de l'Etat : entrepreneur-interet-general.etalab.gouv.fr/ . Mais aussi de "start-ups d'Etat" : beta.gouv.fr/ qui cherchent justement des profils pointus.

    • @Raphzoo22
      @Raphzoo22 5 років тому

      @@thomaslegluher4241 Comme disait PNL, "Riche dans l'haram ou pauvre dans l'halal alors choisis vas-y dis-le"..

    • @RaisonetBienveillance
      @RaisonetBienveillance 5 років тому

      Il y a aussi la possibilité de travailler à la mise en place d'un système tel que ce serait bien l'intérêt général qui prévaudrait (et où tu serais rémunéré en fonction de ta contribution à l'intérêt général). C'est ce que je fais. Bien sûr, ça ne suffit pas à résoudre ton problème à court terme, mais c'est ce qu'impose ton éthique ! Voir mes vidéos sur l'économie (par exemple : ua-cam.com/video/am1UUqhY_Dw/v-deo.html) et mon commentaire de ce matin ici, et/ou se renseigner sur l'ucratie !

  • @Moineivre
    @Moineivre 6 років тому +3

    Une perle en terme de recherche, de rédaction ainsi que le travail au niveau du rendu visuel. Continuez le bon boulot et au plaisir de regarder les prochaines vidéos à venir.

  • @Floflox
    @Floflox 6 років тому +15

    C’est marrant que vous parliez du genre dans Google Traduction, par ce que justement , y a pas longtemps, il a changé et il propose maintenant directement les 2 genres !
    Si tu demandes la traduction de "nurse", il te propose bien "infirmière" et "infirmier" !
    Comme quoi, tout n’est pas perdu, et les algos peuvent être améliorée quand on prend conscience de leurs biais :)

  • @davebot8383
    @davebot8383 6 років тому +32

    C'est énervant que dans tous les commentaires vous n'avez pas compris le message essentiel de la vidéo : la légitimité des algorithmes n'est pas remis en question, d'ailleurs c'est valorisée en médecine.
    Ici, c'est le fait que ce soit des humains derrières qui les façonnent ! Et qu'en laissant de manière non démocratique et débattue, le poids des algorithmes prendre de l'ampleur sur nos vies, ce sont les idéologies sous -jacentes qui ne sont pas discutées ! Tout ça pour du profit ! Même si c'est non voulu à la base, le fait de ne pas remettre en question les postulats des algorithmes, comme ceux des lois ou des indicateurs de type PIB etc... C'est se laisser portet au gré des préjugés !

    • @samsara5996
      @samsara5996 6 років тому +4

      Enfin un qui a compris la même chose que moi...Les gens s'arrêtent sur des détails pour étaler leur connaissance mais passent souvent à côté du problème de base. Alors content de voir que d'autre ont compris la même chose que moi.

    • @apolo9743
      @apolo9743 5 років тому +2

      @@samsara5996 voilà pourquoi on fonce dans le mur. Quand on croit savoir sans se dire que l'on ne sait pas on continue tout droit jusqu'au mur

  • @toplexil40
    @toplexil40 6 років тому +4

    Je suis actuellement étudiant dans un master en Intelligence artificielle et je suis bien content que nous soyons sensibilisés à tous ces biais potentiels !

  • @superflameur
    @superflameur 6 років тому +6

    Excellent taff, comme d'habitude !

  • @lefabb
    @lefabb 6 років тому +1

    Pour ceux que ça intéresse, les algorithmes de machine learning utilisés le plus fréquemment dans l'industrie sont quasiment tous publics. En voici quelques uns :
    - régression linéaire
    - régression logistique
    - réseau de neurones
    - machine à support vecteur
    - K-means
    - détection d'anomalies
    - système de recommandations
    Et ils sont open source, disponibles entre autre dans la librairie Python Scikitlearn.

  • @Aldreius
    @Aldreius 6 років тому +37

    8:45
    Ah donc en fait les algorithme si pas bien ça fait monter le populisme ? Le constat n'est il pas plutôt "Les dirigeants approuvés par l'oligarchie ne feraient ils pas monte le populisme au vu de leur médiocrité"

    • @chokolacafe2348
      @chokolacafe2348 6 років тому +2

      Les dirigeants sont très souvent perçus comme médiocres et aujourd'hui font très souvent monter le populisme. Il y a simplement que le phénomène est accentué par des intérêts privés et pour des intérêts privés.

    • @chokolacafe2348
      @chokolacafe2348 6 років тому

      @@carpenter3816 Oui et non. Je ne suis pas sûre que la minorité aujourd'hui qui scande le retour de de Gaulle soit vraiment pour un candidat populiste, candidat qui ne devra pas l'être s'il veut s'appuyer sur cette minorité, qui est parfois une majorité d'ailleurs.

    •  6 років тому

      Le populisme et l'amateurisme risquent d'être de simples erreurs de l'histoire quand on s'apercevra que les technocrates font le travail le plus efficacement

  • @DemonZest
    @DemonZest 6 років тому +87

    Tout ce qu'on peut reprocher aux algorithmes on peut le faire à la presse, sauf que cette dernière nous influence souvent consciemment, dans un but politique ou financier (cliquer plus).

    • @epickiwi8318
      @epickiwi8318 6 років тому +4

      Je ne suis pas d'accord, derrière la presse il y a des humains qui analysent la situation, essayent de comprendre ce qu'il s'est passé pour permettre de se forger une opinion dessus.
      L'algorithme, et je parle principalement du machine learning, se base sur des donnés passé qu'il prend pour de vérité universels. L'homme n'est (pour le moment) pas égalitaire, et les données que l' on donne aux algos ne le sont donc pas non plus. Pourquoi espérer alors avoir un resultat egalitaire.
      La presse, tout comme chacun de nous, ont une capacité d'analyse. Une sorte de conscience de soi et de recul sur la situation pour essayer de saisir toutes les nuances d'une situation. Un algorithme non, il se contente de suivre les données qu'on lui fourni. Ce manque de jugement et de souplesse est même dans la définition. Même si certains médias sont orienté, on ne peux pas les comparer aux algorithmes qui restent des machines bonnes en statistiques.

    • @DemonZest
      @DemonZest 6 років тому +5

      @@epickiwi8318 Les algorithmes en se basant sur l'ensemble des données ne peuvent qu'être plus objectives et il n'y aura jamais une intention derrière, le "humains qui analysent la situation" s'applique de moins en moins sur l'information-réseau sociaux où les gens prennent juste le temps de lire le titre voire des mots clés de l'article qui outrance souvent la situation de base, si on cherche des algorithmes qui font vendre effectivement la situation empirera, par contre des algorithmes qui cherchent à informer le plus sobrement possible, ça ne pourra que faire du bien en obligeant les journalistes humain à un concours de qualité et non de faire le plus économique possible.

    • @epickiwi8318
      @epickiwi8318 6 років тому +1

      Certes, c'est vrai pour les médias des réseaux sociaux mais là c'est plus notre problème en tant que lecteur d'essayer de creuser plus profond que de simplement lire le titre. Par contre, ce qui est montré dans cette vidéo c'est que les algorithmes sont des grandes machines statistiques. Même si tu donne 3 Zo de données a un algorithme de Machine Learning, si 70% des données sont inégalitaires, le robot le sera aussi. On ne peut pas espérer que les algos reparent nos problèmes de société

    •  6 років тому +1

      Les médias en général , pas que la presse, que ce soit l'organisme classique à la BFM ou l'influenceur antivax qui propose son homéopathie hors de prix pour guérir du cancer avec ses jus de fruits

    • @peaksingularity3032
      @peaksingularity3032 6 років тому +1

      Le public sait quand même que la presse n'est pas objective, mais considère à tort les algorithmes comme objectifs. D’où un rappel.

  • @argospanoptes4826
    @argospanoptes4826 6 років тому

    Je suis de plus en plus stupéfait par l'efficacité de vos publications. La convergence de la pertinence des propos et de l'esthétisme des graphismes est tout simplement splendide. Bravos les gars et les garces. Sorry! J'ai fais une traduction gougueule ;-) Utilisez le navigateur de Tor (oignon) et disparaissez des radars.

  • @moinforlazik517
    @moinforlazik517 6 років тому +117

    1) Alors on a un média qui reproche à youtube d'influencer des élections ... c'est exquis
    2) On nous dit que le passé influence le futur avec sur la langue ... merci ça s'appelle l'histoire on a pas besoin de google trad pour savoir tout ça
    De plus sachez que ce n'est pas un "présent qui devient éternel" dans les faits car 81% du personnel du domaine médicale est féminin et 54% du domaine pharmacologique aussi
    3) Vous nous dites que sur une population hétérogène de 1000 personnes les femmes se voit moins proposer des fonctions à haut salaire mais est ce à poste égale ? quel salaire est élevé ? est ce que pour les salaires faibles c'est inversé ? Car encore une fois encore les statistiques de l'insee montre que sur la population française les différences de salaires de 26% pourcent entre hommes et femmes seul 6.7% n'est pas expliqable et laisse supposer à de la discrimination (je suis pour une égalité parfaite à poste égale compétence égale travail égale et expérience égale entre homme et femme) mais on est loin de votre 1800-500 que vous nous proposez sans nuance
    4) Pour votre faux positif à 1% sur la population française pour débusquer les terroristes il faut préciser que 1 y a des profils types, 2 "seulement" 20 000 fiché S et encore y a aussi d'autres fiché dont je me rappelle plus le nom mais y a encore moins de monde donc on est loin de 1% d'incertitude et loin de 600 000 personnes accusé à tord
    5) vous donnez aucuns exemples pour le sujet de la justice
    Après pour les gens qui s'intéressent au sujet des algorithmes et des GAFAM et BATX
    Je leur conseille le dernier hors série du canard enchaîné qui explique fort bien ce qu'ils font de nos données et comment ils les prélèvent et comment on peut s'en protéger.
    Je rappelle que le canard enchaîné est un des derniers médias libres qui possède sûrement les meilleurs journalistes de France (le coût des 500 000€ de vaisselles de Micron c'est eux qui l'ont découvert, d'ailleurs ils ont plusieurs fois fait l'objet de mise sur écoute ils expliquent tout ça)
    Je peux aussi partager les liens des infos sur les inégalités hommes femmes de l'insee pour ceux que ça intéresse

    • @Silphenix
      @Silphenix 6 років тому +3

      Réponse rapide pour le 4 : si l'algorithme est sensé observer toute la population et pas juste les déjà fichés, avec 1% de faux positifs c'est effectivement 600k personnes qui se retrouvent classés "terroristes potentiels" sans raison.
      Pour le reste... allez, rapidement :
      1) Oui, c'est surtout demander que youtube reconnaisse les influencer, hein.
      2) La langue se construit avec le présent, mais google trad maintient cette forme passée. Alors que l'évolution de la langue ne va pas dans ce sens là.
      3) On peut supposer que les profils, ayant été générés, sont comparables. Les sources sont listées, peut-être est ce dedans ?
      5) Voir sources ?

    • @guillaumeb3076
      @guillaumeb3076 6 років тому

      les liens stp :)

    • @moinforlazik517
      @moinforlazik517 6 років тому +3

      Oui mais la population entière n'est pas surveillé ex: les enfants les vieillards les handicapés etc
      Et le 1% est arbitrairement choisi comme exemple il n'en est rien dans les fait comme le faible nombre de fiché
      1) je comprends pas ta phrase
      2) L'évolution de la langue va dans quel sens ? PERSONNE ne le sait le futur est au futur
      3) "on peut suposer" ... sérieusement c'est quoi cet esprit critique naïf
      5) oui absolument y a pas de source
      Et ça c'est pour les inégalité homme femme l'étude de l'insee qui explique les différences au niveau du type de travail , les différences inter et intra poste ainsi que la prise en compte de d'autres facteurs
      www.insee.fr/fr/statistiques/2128979

    • @moinforlazik517
      @moinforlazik517 6 років тому +3

      Liberdiko elle fait 45min la video tu veux bien me donner l'endroit stp :) et merci pour le lien
      Ensuite je vais te poser une question : imaginons un algorithme parfait qui prend en compte tous les aspects permettant de détecter à 100% sûre un futur crime comme dans Minority report mais que au lieu de les arrêter on se contente de surveiller et juste tu les empêcher de récidiver si il y a eu une première condamnation ceux dont on est sûre qu'ils vont faire un autre crime ... est ce que parce qu'un des critères de l'algorithme n'est pas politiquement correct et est donc retiré (par conséquence on est plus à 100% et on augmente le nombre de faux positifs) et donc laisserait des criminels agir sans surveillance parfaite ou alors tu oublies le politiquement correct et tu peux protéger la population des futurs criminels ? Que préfères tu ?

    • @skipeur33
      @skipeur33 6 років тому

      y'a des choses à redire sur le coincoin, mais c'est vrai qu'il s'élève loin au dessus des autres

  • @romaindumont1114
    @romaindumont1114 6 років тому

    Vous avez aujourd'hui l'une des meilleurs chaîne de vulgarisation de UA-cam. Merci pour votre travail

  • @apisam-pleincentrefrance7987
    @apisam-pleincentrefrance7987 6 років тому +1

    Cet épisode est le point culminant de Data Gueule! Bravo à vous! Merci pour nous.

  • @jacquesparisdix7530
    @jacquesparisdix7530 6 років тому +1

    Encore une belle contribution pour la réflexion sur les communs. Super boulot, merci à toute l'équipe !

  • @cedricipavec
    @cedricipavec 6 років тому +13

    Bonjour l'algorithme de Google. Merci pour cette vidéo.

  • @myviewfr
    @myviewfr 6 років тому +2

    Vos vidéos sont vraiment bien travaillées que ce soit dans le travail d'investigation doration du texte et surtout le motion design 😍

  • @sdufouralb
    @sdufouralb 6 років тому

    Merci pour ce concentré d'enjeux. Quand des gens me disent: "moi je m'en fou de l'utilisation qui sont faites de mes donnés, je ne suis pas un criminel, donc je n'ai rien à cacher", je peux être tenter de leurs répondre un phrase toute faite: "dire ça, est aussi absurde de dire que tu te moque de la liberté d'expression parce que tu n'as rien à dire". Mais la vérité c'est que, et après?
    Si cette personne me demande alors: "ok, donc qu'est-ce que j'ai à craindre?" et là, la réponse est difficile sans tombé dans des lieux communs, voire des biais cognitifs. Cette vidéo va me permettre de penser à une réponse abordable sans utiliser le mot "algorithme" qui, comme chacun sait, signifie "mot qu'utilise un informaticien quand il n'as pas envie d'expliqué ce qu'il a fait".

  • @squirfly
    @squirfly 6 років тому +1

    Bravo, la question est très importante et vous l'expliquez avec rigueur

  • @au-delabattleworld9051
    @au-delabattleworld9051 6 років тому +38

    Bonjour DATA GUEULE est que vous pourriez faire une vidéo sur la polution des déchets que l'on produit en masse ( industriel, ménager etc) ou une vidéo sur le gaspillage alimentaire

    • @myviewfr
      @myviewfr 6 років тому +2

      Regarde Nicolas Meyrieux

    • @zipkivol
      @zipkivol 6 років тому +5

      Déjà fait plusieurs fois. regarde les vidéos d'il y a 2 ou 3 ans

    • @walter253
      @walter253 6 років тому

      "On" parlez pour vous, je ne produit aucun déchet.

    • @NitrielGaming
      @NitrielGaming 4 роки тому

      @@walter253 AH BON?! (oui réponse un peu en retard) c'est pas trop beaucoup possible de ne pas produire de déchets mdr

  • @Cococheval1995
    @Cococheval1995 6 років тому

    C'est super de terminer par une note positive ! Ça fait plaisir une touche de bonne nouvelle dans cette juste dénonciation

  • @thesteaksaignant
    @thesteaksaignant 6 років тому +2

    Hello, je fais une thèse en informatique et voyant tant d'incompréhension dans les commentaires face au "1% d'erreur qui génère 600 000 suspects" je vais tenter une explication plus détaillée :
    Dans l'exemple l'algorithme de détection de suspect analyse les infos de toute la population pour sortir une liste de suspects à surveiller. C'est donc un algorithme de classification à 2 catégories :
    - "suspect" (positif)
    - "non suspect" (negatif)
    La performance d'un algorithme de classification peut-être évaluée par son taux d'erreur. A noter que deux types d'erreurs sont possibles : le faux-négatif (on rate un terroriste en le classant "non-suspect") et le faux-positif (on classe un innocent comme "suspect").
    Ici, le taux d'erreur est de 1% (c'est vraiment un super algo, c'est rare d'atteindre un score aussi bon). Donc sur toute la population (60 millions), 1% des individus vont être mal classés. Donc 600 000 erreurs de classification. Parmi ces erreurs, combien sont des faux-positifs, et combien sont des faux-negatifs ? C'est simple :
    - faux-positifs : 1% des innocents
    - faux négatifs : 1% des terroristes
    Mais, du coup, il y en a combien des terroristes en France ? J'ai trouvé 20 000 fichés S en 2015 selon un articlé de Libé (lien à la fin). Prenons donc pour l'exemple : 59 980 000 innocents vs 20 000 terroristes.
    - faux-négatifs : 1% de 20 000 = 200 terroristes non détectés (et 19 800 bien détectés)
    - faux-positifs : 1% de 59 980 000 = 599 800 innocents surveillés
    Conclusion : 600 000 personnes classées "suspect" par l'algorithme, dont 598 000 innocents et 19 800 vrais terroristes.
    www.liberation.fr/checknews/2017/05/03/combien-y-a-t-il-de-fiches-s-en-france_1652320
    Pour mieux comprendre ce genre de calculs je vous conseille la chaîne "hygiene mentale" : ua-cam.com/video/x-2uVNze56s/v-deo.html

    • @samsara5996
      @samsara5996 6 років тому

      Au final le ratio final prouve les dérives de ce système. De plus sur ces soit disant 20 000 fiché S tous ne sont pas terroristes....certain sont des altermondialistes par exemple...
      Si on fait un nouveau calcul et que l'on établie le nombre de personne surveillé par rapport aux nombres de passage à l'acte alors c'est encore plus un raté...
      On fait dire ce que l'on veut aux chiffres.

  • @N0Styl
    @N0Styl 6 років тому +95

    Y'a tellement d'approximations dans cet épisode, c'est à se demander si vous ne devriez pas passer le relais à une IA pour faire l'écriture à votre place.

    • @anto_chanson
      @anto_chanson 6 років тому +1

      @@JzelMoniK voilà un bien beau raccourci là encore...

    • @user-fg3kh8ro6r
      @user-fg3kh8ro6r 6 років тому

      trop.

    • @romaindurand
      @romaindurand 6 років тому +3

      @@JzelMoniK Elle est fondatrice d'Algo Transparency ... L'asso qui se bat justement sur ces questions, la légitimité ne s'obtient pas que par des diplômes, les galons gagnés sur le terrain comptent au moins autant !

    • @laurethiabaud-vespierre5550
      @laurethiabaud-vespierre5550 6 років тому +1

      IA ?

    • @allmytomorrows4537
      @allmytomorrows4537 6 років тому +6

      N0Styl également beaucoup d'approximations dans votre commentaire - la première étant que vous n'indiquez pas où elles sont et en quoi sont elles des approximations.
      C'est la seule façon de faire avancer le débat

  • @Masterpouya
    @Masterpouya 6 років тому

    Toujours aussi excellent, n'arrêtez jamais ! Et un grand merci :-)

  • @XanderS2X
    @XanderS2X 6 років тому

    Un épisode extrêmement intéressant ! L'intervention de Soline Ledesert est fascinante en terme d'implications politiques et éthiques, ses propos font réfléchir.

  • @Acres9
    @Acres9 6 років тому

    "Les algorithmes servent avant tout les gens qui les financent et pas vraiment les populations"
    .... Merci pour cette brillante analyse.
    Au passage elle a l'air de confondre "démocratie" et l'égalitarisme.
    Je dois avouer que j'ai pas vraiment l'utilité de votre invité, elle a enfoncer 15 000 portes ouvertes et a fini par nous faire une belle récup politique a partir de 8:30 a ce moment la autant arrêter, j'ai rien contre elle mais son analyse et sa psychologie de comptoir a je pense rien a foutre la. Le but des mecs de google est pas de faire passer Clinton pour faire barrage a la haine et au populisme mais de faire de l'argent, je trouve ça dingue que dans le monde dans lequel on vis des """""""journaliste"""""" ne puissent pas comprendre ça.
    Son serment d’Hippocrate pour "data scientist" (utilise un nom français au pire non ?) qui est juste VIDE :
    le point 2 "transparence" jusqu'a quel point ? envers qui ? comment éviter de se faire voler ces algorithmes si on les diffuse a tous ?
    le point 3 "équité" : équité de quoi ? faut peut être préciser sur quel point non ? le but d'un algorithme c'est aussi de suivre des tendances et d'y adapter sa réponse
    le point 4 "respect" ok, respect envers qui ? on matérialise ça comment ? ça veut juste rien dire de nous balancer "respect" sans rien derrière.
    le point 5 "responsabilité et indépendance" l'indépendance et les responsabilités de qui ? du "data scientist" ? il travaille dans une grande entreprise (en majorité) alors niveau indépendance ça me parait compliqué, les responsabilités ? bah ouai il en a une, celle de faire ce que lui dit son patron.
    La fin est magnifique, en gros ça la dérange que les entreprises privés qui ont développé et financé les intelligences artificiel en profitent et n'aient pas comme mission prioritaire l’intérêt de plus grand nombre mais de leurs actionnaires, bah ouai, si t'étais pas contente fallait militer pour demander au gouvernement français de te rebalancer un impôt pour financer des algorithmes. Plus sérieusement encore heureux que les entreprises ayant développé leurs technologies en aient l'usage, au passage elle nous sort la notion "d’intérêt général" mais selon qui ? L'intelligence artificiel est-elle vraiment bonne pour l’intérêt général ? elle pensera surement que oui vu qu'elle taff dedans et que ça fait du taff pour elle mais ça va nous causé quelques problèmes de chômage cette histoire.
    En bref je l'ai écouté avec intention et j'ai juste trouvé ça vide, elle a enfoncé des portes ouvertes, balancé des généralités et a conclu, j'ai pu en tirer aucune idée (sauf son serment inutile et débile).
    Je trouve le niveau de Data Gueule risible depuis votre rentrée, en espérant que vous vous ressaisissiez, vous nous aviez habitué a de la qualité et ça fait vraiment de la peine de voir ça.

  • @emmanuelrochet4489
    @emmanuelrochet4489 6 років тому

    Bonne vidéo sur le font. Par contre il y à ici un paquet d'approximations et d'imprécisions:
    - Pour les remarque liées aux TAL (traitement automatisé des langages naturels), le problème lié au notamment à la traduction mais aussi a tout ce touche de près ou de loin au problème de mettre une sémantique à une phrase, sont juste mais connues des chercheurs depuis un bon bout de temps. Beaucoup de laboratoires travaillent sur ce problème.
    - Sur la non divulgation des algos, c'est un problème c'est sûr mais la a part la voie législative au niveau international il n'y a aucune autre solution.
    - Le coup de "les gens qui créent les algo sont les Data Scientists". C'est un poil réducteur les "Data Scientists" comme on aime les appeler maintenant sont en fait des statisticiens avec une formation en informatique incluant entre autre de la base de données et un peu d’apprentissage automatique(ce qu'on aime angliciser en machine learning). Mais cela oublies les experts en TAL, si les données contiennent du langage naturel, en RO quand on a un problème difficile ou qu'on cherche a optimiser son algo (notamment sur le temps qu'il prends) etc.
    sinon pour la partie démocratie 7:10 : "Défier les gens qui font des algorithmes..." c'est se voiler la face sur le véritable problème, qui n'est pas les créateur d'algo mais les décideurs, ceux qui définissent le but de l'algo. Les créateur d'algos sont juste des employés comme les autres. Sinon le travail de recherche, journalisme ect est à développer mais el coup de la charte ethique est, à mon sens inutile tant que les patrons en aurons rien a foutre.

  • @guilemaigre14
    @guilemaigre14 6 років тому

    Chouette liste d'instructions à 0:37
    1)Abonnez-vous à Data Gueule.
    2)Cliquez sur "like".
    3)Laissez vos commentaires.
    4)Consommez sans modération.
    5)Parlez-en à vos amis.
    6)Revenez quand vous voulez.
    7)Si vous lisez ça, vous perdez votre temps.
    8)Mais vous faites comme vous voulez.
    9)Après tout vous êtes grand.
    10)Nous, ça nous fait plaisir.
    11)On est là pour ça.
    Je crois que j'aime bien perdre mon temps.

  • @quentinmauduit3484
    @quentinmauduit3484 6 років тому

    C'est super ce que vous faites les gars!

  • @Dja05
    @Dja05 6 років тому +27

    Wai... Sauf que non en fait... Cette histoire de traduction, c'est ridicule... Cà n'a aucun sens de traduire des critères de recherche dans une langue ou autre... Si je tape "docteur" ou "doctoresse", j'aurais un set de résultat associé directement à ces termes, et pas à "doctor"... Si je tape par contre "doctor", j'aurais des résultat lié à "female doctor" puisque "doctor" en est un sous ensemble... D'après la logique de la vidéo, les "algorithmes" favoriseraient donc les doctoresses...
    Toujours en suivant la logique de la vidéo:
    Chercher "american inventors" sur google image nous renvoie la tronche de plein de noirs ayant inventé des trucs anecdotique, mais majoritairement des blancs dans n'importe quelle autre langue. Cà voudrais donc dire que google incite les pauvres petits blancs anglophone à ne pas inventer quoi que ce soit... En réalité, c'est simplement dû au fait que les écoles américaines sont dominé par des idéologues gauchistes obsédé entre autre par la couleur de peau des gens, et donc demandent sans arrêt à leur étudiants de faire des recherche sur les inventeurs noir.
    L'algorithme de recherche de google a du coup générer une association automatique entre "american inventors" et "african american inventors", puisqu'il était bombardé de requêtes pour le second groupe de mots...
    Et puis cette association foireuse avec l'élection de trump... Enfin on a pas eu droit aux fameux bot russes cette fois au moins... Les commentateurs politique indépendant sont beaucoup plus à même d'être pro trump que les grand groupe médiatique (les études les plus conservatrice estiment que plus de 80% des articles de presse sur trump sont négatif... www.cnbc.com/2017/05/19/trump-press-coverage-sets-new-standard-for-negativity-study.html ). Or, les premiers sont presque systématiquement démonétisé tandis que les grand groupe sont automatiquement monétisé, mis en avant, et bénéficient de tout un tas de passe-droits...

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Quand je tape « doctor » sur Google traduction, ça me met bien « docteur » hein, et pareil quand tu tape « american inventors » ça te mets à peu près autant de blancs que de noirs, je vois pas en quoi c’est défavorable aux blancs qui font une recherche Google, au contraire ça montre qu’il y a de tout chez les inventeurs. Quand à Trump, tu parles des commentateurs politiques, mais en attendant on a bel et bien vu beaucoup plus de Trump sur UA-cam que de Clinton. Trump a beau avoir été beaucoup critiqué, il a surtout eu beaucoup de visibilité et c’est ça que la vidéo critique. De plus, Trump a dit beaucoup de trucs clivants sur lesquels on peut débattre, mais faudrait pas oublier qu’il a aussi répandu beaucoup de fake news et de ragots donc encore heureux que ce genre de trucs soient démonétisés. Et puis pour les grands groupes, ils sont peut-être majoritairement anti Trump, mais en attendant tu peux me dire ce qu’il a fait contre les grands groupes, Trump, au final? Trump, c’est lui même un milliardaire faut pas l’oublier…

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Quand à ta source, ça montre bien que 80% des articles écrits sur Trump sont négatifs, mais ça n’indique pas qui fait partie des 80% et qui fait partie des 20%. Si ça se trouve, il y a des grands groupes dans les 20% et des indés dans les 80%, en plus du fait que la source de l’étude de base, c’est Harvard. Paradoxal, sachant que les universités américaines sont dominées par la gauche, non? En plus l’article confirme bien ce que je t’ai dit: les grands groupes ont fait plus de profit grâce à la baisse des impôts instaurée par Trump. De quoi ils se plaignent, en somme?

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Et note aussi que j’ai essayé de voir des articles d’autres sites sur cette étude, mais qu’aucun ne donne de lien vers l’étude originale, ce qui fait que c’est vraiment mort pour savoir qui sont les fameux 80%, ni si l’étude est bien foutue, ni même si elle existe vraiment. Je vais continuer à chercher, mais faut se dire que c’est pas parce que c’est relayé que c’est vrai et honnêtement une étude qui montre que au plus fort de la polémique c’était 90%, au plus faible 70%, soit exactement 10% d’un côté comme de l’autre, ça ressemble fort à du doigt mouillé tout ça

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      (et de nouveau pour les inventeurs américains: si je tape « inventeurs américains » au lieu de « american inventors », ça me met exactement les mêmes images donc ton argument de la langue ne marche pas

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Après j’ai essayé dans d’autres langues que le français et là effectivement j’ai vu que des blancs, j’avoue)

  • @Napouille
    @Napouille 6 років тому +15

    Non mais c'est extraordinaire... J'avance dans la vidéo et vous êtes sérieusement en train de nous expliquer qu'il y a un biais conservateur et nationaliste dans les algorithmes, alors que tous, je dis bien TOUS les médias dominants, les canaux de communication, le cinéma, la pop culture n'ont que quatre mots à la bouche : diversité, féminisme, lgbt et holocauste.
    J'allume ma télé et n'importe quelle pub me rappelle cela, vous vivez dans quel monde ?

    • @jaimelapolitique349
      @jaimelapolitique349 6 років тому +1

      Alors tout d'abord, non, tous les médias n'ont pas ces messages à la bouche, loin de là. Fox News est peut-être l'exemple le plus flagrant. Ensuite, ce que la vidéo explique, ni plus, ni moins, c'est qu'un algorithme créé pour mettre en avant les vidéos générant le plus de réactions (bonnes comme mauvaises, sans discernement) parce que ces vidéos permettaient de caser de la pub, a fini par mettre en avant les clips d'un candidat plutôt que l'autre. Donc une machine à pub a fini par faire de la politique.

    • @Napouille
      @Napouille 6 років тому +4

      @@jaimelapolitique349 OK tu m'as cité UNE chaîne américaine qui effectivement penche à droite. C'est simple c'est la seule. Il n'y a aucune diversité d'opinions dans le monde médiatique.
      Pour le reste j'ai bien compris les lien entre pub et algorithme mais c'est la lecture politique de cette émission que je déplore.
      Les vidéos UA-cam sur Trump étaient plus percutantes, normales qu'elles soient plus vues et donc plus ciblées. On n'y peut rien si les gens qui les faisaient étaient de meilleurs communicants, sans doute plus intelligents et avec une meilleurs compréhension des systèmes de propagande à l'heure des mêmes. Vouloir mettre à égalité les bons communicants et les mauvais (ceux d'Hillary) pour des raisons politiques, ça c'est malsain, ça nie la dynamique d'un mouvement et ça enlève à la droite dure le seul avantage qu'elle a aujourd'hui pour faire entendre ses idées dans un paysage médiatique complètement verrouillé.

    • @douneijio
      @douneijio 6 років тому +1

      @@Napouille Le figaro, Rtl ( qui est la radio avec le plus d'audience) , France télévisions, et Tf1 penchent à droite. Je ne perçoit pas beaucoup non plus de lgbt, de féminisme à la radio ou la télé. Pour la diversité je veux bien, mais dans tous les cas, ce qui est diffusé et ce qui est appliqué dans la réalité peuvent différer.

    • @kentarokovacs573
      @kentarokovacs573 6 років тому +1

      Tu es fort pour trouver du féminisme, lgbt chez valeur actuel x'D

  • @Adalhard
    @Adalhard 6 років тому +149

    Assez déçu par cet épisode. L'argument assez malhonnête des 1% et des problèmes qui n'en sont pas.
    L'histoire des mots neutres à traduire, il faut faire un choix du genre en français et si le masculin l'emportait par défaut il y aurait une autre polémique. Se baser sur des données passées réelles semble un bon compromis.
    Pour les crédits, je pense que l'algorithme qui se base sur de vraies données sera plus juste que le banquier qui voit arriver le "pauvre dans sa misère" et qui aura un jugement biaisé (volontairement ou non) par l'apparence.
    Pour les élections c'est pareil, si Trump apparaissait plus souvent c'est parce que les gens en parlaient et le recherchaient d'eux-mêmes. S'il y a plus de vidéo de Trump avec chacunes plus de vues ça me semble normal qu'il apparaisse, et créer arbitrairement une parité dans les suggestions ça passerait aussi pour de la censure.

    • @RubyRhod83
      @RubyRhod83 6 років тому +12

      Au contraire c'est tout l'inverse que de ne pas proposer une pluralité de possibilité .... si tu cherches le mot nurse, l'algorithme devrait pouvoir te proposer la possibilité d'infirmière ou de neutre, c'est un pb de langage que l'ordinateur peut régler en te proposant plus de possibilités.
      Pour Trump c'est pareille si on te gave de vidéos parce qu'elles font buzz pour d'autres personnes, on finit par un point de convergence sans entrevoir qu'il y a d'autres candidats, mais voilà rentabilité oblige si le curseur flanche en faveur de la génération de revenu publicitaire plus importante chez Trump parce qu'à la base il "choc", il finit tristement par en devenir la règle au yeux d'autre qui n'iront pas chercher plus loin. Au final les élections sont influencées. C'est très complexe et malsain, ce qu'on peut retenir c'est qu'encore une fois la loi du marché s'applique encore plus sur internet et qu'il faut faire attention car il y un gros manque de législation si l'on devait comparer à la vie réel (même si ici aussi il y a des manques).

    • @neomorphosallomorphis7395
      @neomorphosallomorphis7395 6 років тому +2

      @@RubyRhod83 Si je te comprends bien, si je regarde des vidéos sur Trump, je suis pro-Trump? Merci pour l'info 😲

    • @Benlamsy
      @Benlamsy 6 років тому +9

      @@neomorphosallomorphis7395 bien sur que non, mais tu participe à ce qu'il soit plus connu et plus omniprésent, selon le fameux adage publicitaire: plus on parle d'un produit (en bien ou en mal) mieux c'est !

    • @romarickostenko9032
      @romarickostenko9032 6 років тому +7

      @@neomorphosallomorphis7395 Tu pourrais voir ça comme un mélange entre l'activité neuronale et la peur de l'inconnu. Je m'explique : plus une connexion est solicitée, plus une association est faite, plus elle devient facile d'accès. Te surcharger de vidéos sur un sujet va rendre, au moins, ce sujet moins inconnu pour toi. Pas forcément agréable, mais pas inconnu. Puis, viens le moment de voter, et pour des gens qui n'ont pas pris le temps d'étudier les enjeux politiques, deux facteurs vont entrer en jeux, un attractif et un répulsif. L'instinc tribal d'appartenance (celui sur lequel joues nos politiciens, par exemple lorsque Macron a lancé une écharpe du PSG à des marseillais comme un lapin à une meute de loups, nourrissant symboliquement la colère des gens en se mettant et s'affichant de leur côtés, au moins à leurs yeux) est l'attractif. La peur de l'inconnu (le fait de rester dans des schémas que l'on connait, et qui même s'ils sont néfastent, nous gardent en vie, alors que l'inconnu peut nous tuer) est le répulsif, en défavorisant les connexions et associations les moins solicitées. Donc, si tu regardes des vidéos sur Trump, tu seras surtout anti-Hilari :)
      Mais il y a un autre problème, qui est qu'un algorithme vient optimiser selon des critères, et que dès qu'il y a sélection, il y a moyen de tricher…

    • @Benlamsy
      @Benlamsy 6 років тому

      @@romarickostenko9032 merci 😉 t'as bien expliqué et argumenter ce que je tentais de dire ^^

  • @jlb4971
    @jlb4971 6 років тому

    BRAVO ! Mes algorithmes me confirment que votre chaîne est d'utilité publique ! 😉

  • @kevinbaudin9557
    @kevinbaudin9557 6 років тому +47

    DataGueule oui
    Mais propagande et grille de lecture dans ma gueule, non.
    En bref, c'était mieux avant cette série. Chaque épisode n'est que plus politisé que le précédent. C'est dur à regarder.

    • @Obiika
      @Obiika 5 років тому +5

      Deux commentaires, pas un seul exemple ou argument.
      Bravo.

    • @PrinceOfPixel
      @PrinceOfPixel 5 років тому

      C'est vrai que ces personnes auraient pus nous parler de l'utilisation du big data durant les présidentielles, il existe des exemples très concrets comme macron et l'entreprise LMP. Mais bon, c'est plus simple de lâcher un petit "populisme" à la place.

  • @leonoreton4087
    @leonoreton4087 6 років тому

    Énorme vidéo encore une fois, bravo. Continuez !

  • @Lapassouare
    @Lapassouare 6 років тому

    On en parle que cette émission est complètement folle et tellement bien !

  • @alcaulique8358
    @alcaulique8358 6 років тому +3

    J'aime beaucoup Datagueule mais ça fait plusieurs épisodes que je trouve de plus faible qualité. Je ne sais pas si c'est volontaires dans un but propagansdiste ou involontaire mais les vidéos sont remplies d'erreurs, de fautes et de données incomplètes. Vous y mettez des informations sans citer vos sources, dans la description ou dans la vidéo. Ce problème se ressend particulièrement avec l'exemple de la NSA qui placerait des terroristes présumés sur "Kill List" simplement car une IA leur a donné le nom. Une recherche de 30 secondes sur Internet m'a permis de tombé à la fois sur le rapport d'ArsTechnica qui doit certainement être votre source ainsi qu'une analyse du Guardian. On peut facilement y lire que la réalité est très loin du scénario que vous dressez dans la vidéo. Et ce n'est qu'un exemple rapidement trouvé, il y a en d'autres comme le fait de ne pas citer que la personne interviewé est fondatrice d'AlgoTransparency, la répartition homme/femme dans certaines formations, l'exemple de l'étude sur l'inégalité face aux offres d'emploi que vous avez totallement biaisé. N'avez-vous pas compris le rapport et les articles et les études en question? Essayez-vous de nous manipuler?
    De plus, vous interviewez systématiquement des personnes aux profils non-techniques qui, amène certes une vue éthique parfois intéressante mais qui ne maitrise pas assez le sujet, ou sont trop biaisé. Le débat dans la communauté des scientifiques et ingénieurs qui sont aux premières loges dans la création de ces outils est puissants, c'est dommage que vous ne vous en faisiez pas l'écho.
    Enfin sur le sujet des algorithmes en lui-même, j'ai l'impression, fondée ou non, que vous ne comprennez pas vraiment ce qu'est un algorithme, comme il est construit et dans quel objectif. Vous mélangez dans cette vidéo tellement de types d'algorithmes que cela rends la lecture complèment indigeste.
    J'ai sincérement eu le sentiment d'être manipuler dans cette vidéo. J'espère que ce n'est qu'un sentiment...
    En espérant que la prochaine vidéo représente un meilleur travail journalistique.

  • @azekawa
    @azekawa 6 років тому +1

    Je viens de regarder 45 secondes de vidéo et y'a déjà une boulette "Si le résultat est bon l'algorithme est efficace"
    Non, on peut faire une suite d'opérations compliquées pour parvenir a un résultats simple, mais si on peu obtenir le résultat avec moins d'opérations moins compliqués, alors c'est ce second algorithme qui est efficace.

  • @atikin_0
    @atikin_0 6 років тому +5

    3:43 haha x) Henri Poulain, votre réalisateur sur la "kill list", de quoi voir si il prête attention à la vidéo :)

  • @MrThekilleur27
    @MrThekilleur27 6 років тому

    Revenez sur insta

  • @martingalvez8890
    @martingalvez8890 5 років тому

    Toujours aussi bien vos vidéos !!!

  • @pierrebridenne8870
    @pierrebridenne8870 6 років тому

    Encore de l'excellent travail merci !

  • @sofinesgaouir
    @sofinesgaouir 6 років тому

    Vous mérite plus d'abonnés mm mon prof d'histoire passe vos vidéo en cours 😍😍😂

  • @pimdubidu3559
    @pimdubidu3559 6 років тому

    Je mets un commentaire pour que la vidéo soit remontée dans le référencement ^^

  • @HugoAttal
    @HugoAttal 6 років тому

    Bonjour, je suis ingénieur logiciel et en intelligence artificielle, et je pense que vous confondez "Algorithme", "Machine Learning" et "Intelligence articielle".
    Pour faire simple, le "Machine Learning" est un type d' "Intelligence Artificielle" qui est un type d' "Algorithme".
    Le problème de votre vidéo est que vous mettez tout dans le même panier : la plupart des algorithmes sont purement inoffensifs, par exemple certains servent à transmettre cette page web, d'autres à l'afficher, d'autres encore à encoder la vidéo youtube. Le problème du machine learning (qui est gros, un algorithme de tri un peu complexe) est son caractère imprédictible: il évolue en fonction de ses données d'apprentissage (d'où le "learning") et il se créer des règles incompréhensibles pour un être humain. Donc on ne peut pas totalement prévoir comment se comporte un tel algorithme.
    Bref, je ne vous reproche pas de dénoncer les limites de l'utilisation du machine learning (quoique certains de vos exemples sont un peu tiré par les cheveux), mais je vous reproche d'entretenir la peur qu'on les gens à propose de l’algorithmie, de l'intelligence artificielle, et plus généralement de l'informatique.
    PS : Je trouve que la personne interviewée manque clairement d'objectivité. Si je prends l'exemple de Google, l'accès à des services gratuits qui coutent relativement cher (recherche, stockage des données, maintiens de serveurs, accès partout dans le monde) sont couvert par la pub que vous voyez. Est ce que vous préfèreriez ne pas avoir de pub et payer 25€/mois votre utilisation de google ? Je ne pense pas. Ensuite Google est relativement transparent sur les données qu'ils ont sur vous, et vous pouvez tout à fait désactiver et supprimer ces données : myaccount.google.com/. Et enfin, pourquoi ces algorithmes ne sont pas publics ? Pour la même raison que n'importe quelle entreprise ne veut pas dévoiler son code source : parce que cela représente énormément de recherches et développement et que Google ne veux pas que d'autres entreprises copient son travail gratuitement.
    Bref, j'aurai préféré voir quelqu'un qui connait bien son sujet et la technique sous-jacente, plutôt qu'une journaliste qui semble beaucoup extrapoler sur ce que sont les algorithmes. Parce que quand j'entends "Il devient urgent d'apprendre à contester et à défier les gens qui font des algorithmes", pardon mais c'est de la pure bêtise. Et le coup de "Est ce que c'est vraiment intéressant d'utiliser une algorithme ici plutôt qu'un être humain", entre une machine qui fait un travail gratuitement et parfaitement en quelques millisecondes et un être humain qui ferait le même travail en un an avec salaire et des erreurs humains potentielles, le choix est vite fait.
    PS2 : Je pense ne pas avoir entendu une seule fois le mot "Machine Learning" (ou "Apprentissage Automatique" en française), ce qui est quand même un comble pour une vidéo qui traite exclusivement de ce sujet.

  • @bobiboulon
    @bobiboulon 6 років тому

    Même si c'est très bien expliqué au début de la vidéo, dans la partie en infographie, je tiens juste à préciser pour les gens qui ne le sauraient pas que lorsque Mme Ledesert parle "des gens qui font des algorithmes" ce n'est pas une appellation représentative de ce qu'elle veut réellement dire. Parce que des gens qui font des algorithmes sans faire quoique ce soit de potentiellement discriminant ou touchant à du big data, il y en a plein. Par exemple, une personne programmant un automate sur une chaine d'assemblage ou développant l'IA des ennemis d'un jeu vidéo _est_ une personne qui fait des algorithmes, mais qui n'a rien à voir avec le sujet présent.
    #pasdamalgame :P

  • @intouch011
    @intouch011 6 років тому

    Très intéressante vidéo et très joli visuellement, chapeau!

  • @sixteenf
    @sixteenf 6 років тому

    Je tiens à ajouter un point technique qui me paraît très important par rapport au sujet. La majorité des algorithmes d'intelligence artificielle utilisés par les fameux GAFAM reposent sur du Deep Learning. Sans entrer dans les détails, sachez que même pour les data scientists qui les mettent au point il est extrêmement difficile de comprendre comment ces algorithmes raisonnent. On connait les données qu'on leur donne et le but à accomplir. On sait qu'ils sont capable d'atteindre le but avec un taux d'erreur ridicule par rapport à celui d'un humain. Mais ce qui se passe entre l'entrée et la sortie est très flou.

  • @bengiaminbarblan4187
    @bengiaminbarblan4187 4 роки тому +2

    Pour ceux qui en veulent plus sur le sujet, ce livre contient toute l'essence des algorithmes et de leur dérives : weaponsofmathdestructionbook.com/

  • @pausetite4475
    @pausetite4475 6 років тому

    Toujours aussi bien.

  • @fredericmazoit1441
    @fredericmazoit1441 6 років тому +22

    Je n'ai pas du tout aimé cet épisode et voilà pourquoi.
    Il est naturel de se méfier de ce qu'on ne comprend pas et beaucoup de personnes se méfient déjà part défaut des algorithmes (on a le même phénomène avec les antivax). Or cette méfiance me semble néfaste.
    Il y a deux champs possibles d'application des algorithmes: le big data et le reste.
    Pour ce qui est du big data, on ne peut pas faire sans algorithme. La question n'est donc pas de savoir s'il faut utiliser des algorithmes ou pas. Il faut. Le but de youtube n'est pas d'être juste, le but de youtube est de faire de l'argent. Le problème des suggestions youtube serait exactement le même si elles étaient données par des humains. C'est ça le vrai problème.
    Dans le reste, vous donnez l'exemple de l'allocation des places dans une crèche. Sincèrement, avoir deux personnes qui décident sans supervision des happy few me semble une très mauvaise idée car non seulement elles peuvent décider de faire passer le dossier de leur copine avant mais les critères de sélection ne seront pas les mêmes au cours de la journée.
    Il semble que les remises de peine accordées par des juges sont beaucoup plus fréquentes quand ces derniers sont reposés et n'ont pas faim¹. De mon côté, je suis enseignant chercheur en informatique et je sais que je ne note pas de la même façon les premières copies d'un paquet que les dernières. La fatigue joue beaucoup.
    Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs.
    Un autre intérêt des algorithmes est qu'ils forcent à se poser des questions qu'on évite soigneusement autrement. Un exemple parfait est celui des voitures autonomes. Si on ne peut pas éviter un accident, vaut-il mieux tuer 4 personnes âgées ou un adulte qui tient la main à ses deux enfants ?
    Bref, oui, les algorithmes ne sont pas parfait et il faut les étudier sérieusement mais les blâmer pour un résultat qui ne nous plaît pas, c'est comme se plaindre qu'un couteau a été utiliser pour poignarder quelqu'un.
    ¹ sciencetonnante.wordpress.com/2014/12/08/mefiez-vous-dun-juge-affame/

    • @clairepennarun6555
      @clairepennarun6555 6 років тому +1

      Tiens, je me disais que j'étais d'accord avec ce commentaire. et puis j'ai vu l'auteur. Coucou collègue !

    • @Arkula100
      @Arkula100 6 років тому +2

      que dire que ta phrase "Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs" ... les algorithmes s'écrivent tout seuls? ils naissent de rien tel des divinités?... ah ben non, ils sont écrit par des humains, oui oui ceux qui ont des biais inconscients, et qui codent surement leur biais dans leur algorithme...

    • @TrueAryador
      @TrueAryador 6 років тому +2

      @@Arkula100
      Le machine learning n'a pas de biais et ne peut devenir biaisé que si tu lui donnes un paquet de données volontairement biaisé or pour bien faire les choses tu donnes du random donc 0 biais.

    • @sandrawhy1380
      @sandrawhy1380 6 років тому +1

      @@Arkula100 Monsieur avez vous déjà codé un algorithme? Savez vous la rigueur que cela impose?

    • @fredericmazoit1441
      @fredericmazoit1441 6 років тому

      @@sandrawhy1380 Avez-vous lu mon commentaire. J'enseigne l'algorithmique à la fac ! Et dans ma liste de publication, j'ai quelques algorithmes. Donc oui, je sais.

  • @uwu_senpai
    @uwu_senpai 6 років тому +11

    Une femme qui a un doctorat est un docteur. Pas une doctoresse.

  • @Ruben-or2iq
    @Ruben-or2iq 6 років тому

    Pour une fois que l'intervenant est intéressant (en plus d'être agréable à regarder :)

  • @evelynerouquet847
    @evelynerouquet847 6 років тому

    Merci pour cette super vidéo :)

  • @Zglorbalien
    @Zglorbalien 6 років тому +12

    Pour une fois je trouves votre vidéo assez mal faite, peut être que je l'ai mal comprise mais je vais essayer d'expliquer pourquoi :
    -Bon déjà petit détail qui ma fait rire c'est que vous critiquez la traduction de Google en disant qu'il traduit nurse par infirmière et que ça renforce des idées sexistes et juste après vous dite "les infirmières des femmes" au lieu de dire les "infirmiers des femmes" c'est exactement ce que vous reprochiez à Google juste avant. Mais bon je m'en fous c'est des détails.
    -apres vous parlez des faux positifs en prenant 60 000 000 de personnes soupçonnées ce qui est un nombre totalement irréaliste car si on prends l'exemple de la france je doutes fortement qu'il y ait plus de 200 000 terroristes potentiel sur ces terroriste potentiel l'algorithme en prends une partie plus ou moins grande et fait 1 % de faux positifs sur cette partie, alors je doutes fortement que 60 000 000 de terroristes detectés même dans le monde soit réaliste. De plus 1% de faux positifs c'est assez mauvais pour un algorithme mais c'est toujours mieux que les humains c'est donc un argument pro algorithme que vous donnez.
    - 4:05 "les biais et les clichés des années passées sont confortés" un algorithme bien fait n'est pas censé avoir de biais et encore moins de clichés qui est totalement humains. Un algorithme se base sur des données sur la récidive qui sont des faits et qui n'ont RIEN À VOIR avec les clichés et biais humains
    (bon j'ecrirai peut être la suite plus tard parceque la j'ai pas trop le temps mais voilà en gros ma critique constructive)

    • @johnjohn-jf3qt
      @johnjohn-jf3qt 6 років тому

      tu peux t'abstenir d'écrire la suite stp

    • @vivienm.3580
      @vivienm.3580 6 років тому +2

      Pourquoi devrait-il s'abstenir ? Il a tout à fait raison...
      Beaucoup d'émissions comme DataGueule ont lancé une sorte de tir groupé contre les "grands méchants" algorithmes, et propagent des idées biaisées sur leurs sujets. Il est bon que certaines personnes remettent les pendules à l'heure, et ce même si l'intervenante qui prend le micro de DataGueule a tout à fait raison de demander de la transparence dans les algorithme (au minimum lorsque cela concerne le service public).

    • @moreaupascal56
      @moreaupascal56 6 років тому

      Surtout 1% de FP dans l'échantillon test ou en terme de spécificité ? Ce n'est pas pareil ..

    • @johnjohn-jf3qt
      @johnjohn-jf3qt 6 років тому

      L'intervenant tire des conclusions erronées qui s'appuient sur sa propre interprétation qui elle est vraisemblablement biaisée. @@vivienm.3580

  • @paulamblard3836
    @paulamblard3836 6 років тому +1

    9:47 : je ne peut pas vous signer ça.
    l'indépendance, c'est impossible dans la majorité des cas, il est exceptionnelle de ne pas travaillé pour quelqu'un dans se domaine.
    la transparence, dans le privé, c'est du suicide. c'est un peut comme travailler aussi pour les concurrents.
    "équité et respect", ça veut tout et rien dire.

    • @jacksparrow440
      @jacksparrow440 6 років тому

      Je ne suis pas d'accord avec votre analyse de la transparence : d'innombrables systèmes "Open Source" (matériels et logiciels) sont utilisés à travers le monde, et pourtant on arrive à gagner son pain avec.

  • @koudelka6234
    @koudelka6234 6 років тому

    Heureusement que tous les gens qui émettent des réserves et avancent des arguments (parfaitement censés) à l'encontre du raisonnement de votre vidéo ne vous mettent pas des pouces rouges.

  • @mllnobody7669
    @mllnobody7669 6 років тому

    Commentaire pour le référencement de la video

  • @sofianemedjkoune838
    @sofianemedjkoune838 6 років тому +2

    Je trouve que cette problématique est mal placée, les algorithmes ne sont que des outils que nous utilisons, comment pouvons nous tourner la problématique autour de l'outil algorithmique alors que ce sont leur créateurs qui y sont maître ?
    J'aimerai également mettre en avant mon abid par rapport à la partie data science et à l'image que vous y associez, accrocher des affiches de ventes d'articles scolaire devant une école est également fait pour le gain, afficher des publicités orientées réservation d'hôtel pour Quelqu un qui cherche à voyager est également pour le gain, le soucis ici c'est que pour pouvoir fournir des pub aussi bien visées, il faut les donnés des utilisateurs, sachez que nous sommes responsables que ce qu'on nous prend, quand vous téléchargez une appli, on vous spécifie quelles données seront utilisées (On ne vous dira pas pourquoi mais vous savez ce qu'on vous prend) vous êtes de ne pas installer Windows par exemple et d'installer un système d'exploitation libre sur lequel on ne vous prend pas vos données (linux). Dans un monde où les compagnies ne jurent sue par le gain c'est à nous de savoir où se trouve notre responsabilité.
    Pour moi Quelqu un qui utilise un "algorithme" qui prend vos données, vous le savez et ralez après...désolé mais là responsabilité vous incombe.

  • @Architeq1
    @Architeq1 5 років тому

    Je suis dev, data scientist en herbe, et je regarde #datagueule depuis longtemps. Depuis des annees les logiciels libres/open source et les licences proprietaires. Je crois que les IA ont un grand destin et nous serront tous la pour voir google renaitre. Je parle bien de google car ils ont deja beaucoup d'avance avec les ordinateurs quantiques. Bref pour ceux qui ne savent pas de quoi je parle : l'opensource c'est bien et on devrait s'interesser a Richard Stellman (qui parle francais et a "cree linux") beaucoup plus que Bill Gates qui vend 80e la licence (inclu a l'achat). On sait pertinemment que l'open source est plus sur et plus optimise. (dsl les accents). Sachez que aujourd'hui, n'importe qui de motive et un minimum bon en maths peut devenir data scientist a la maison. En revanche tout le monde n'a pas forcement les moyens de se payer le matos pour bricoler un data center

  • @marsupiomarsu7377
    @marsupiomarsu7377 6 років тому

    Merci pour vos vidéos toujours très intéressantes et bien faites...
    Je sais que vous avez abordé à de nombreuses reprises, les financements de l'état, les banques, etc...
    Mais vous serait-il possible de faire un épisode dédié à la dette publique (ses mécaniques, son évolution du fait de l'europe, etc...)
    Merci

  • @xodowo
    @xodowo 6 років тому +1

    03:00 pourquoi ne pas parler de l'échantillon ? Les deux groupes de sujets avaient-ils les mêmes compétences ?
    + J'aime bien le 404 sur le lien qui redirige vers les sources de l'épisode, très pro

  • @megaprojectsanddevelopments
    @megaprojectsanddevelopments 6 років тому +3

    Je suis content que vous ayez produit une nouvelle vidéo extraordinaire.

  • @purple_bey
    @purple_bey 6 років тому

    j'ai pas qui a fait le montage de cette video mais 🎩 👏👏👏👏

  • @icefender91
    @icefender91 6 років тому

    Merci, courage à vous

  • @Whybann
    @Whybann 6 років тому +1

    Le lien des sources est cassé !
    Un épisode très intéressant, mais je pense qu'il pourrait être un début de série sur l'impact des algorithmes sur nos sociétés, je pense que le sujet est bien plus important qu'on pourrait l'imaginer. Là l'inégalité reste un sujet introductif, il serait possible d'approfondir en fonction des domaines. Par exemple, un sujet intéressant serait d'analyser en profondeur l'aspect sexiste des algorithmes, quel sont ses impacts, comment peut-on le changer etc etc.. Là on a juste quelques infos montrant qu'un algorithme peut l'être mais c'est assez superficiel.

    • @datagueule
      @datagueule  6 років тому

      le lien vers les sources est réparé

  • @Leffock
    @Leffock 6 років тому

    Le biais d'une prise de décision qu'elle soit humaine ou algorithmique est toujours présent, l’intérêt de l’algorithmique est qu'il est parfaitement analysable et modifiable car écrit noir sur blanc, ce qui est tout une autre histoire pour les décisions humaines ...

  • @fren2y123
    @fren2y123 6 років тому

    Ce serait bien un épisode sur la légalisation du cananbis recreatif

  • @cortana13004
    @cortana13004 5 років тому

    Il y a quand même une méconnaissance du sujet au niveau technique par votre intervenante.
    Un exemple simple, vers les 8:30 , l'intervenante confond le concept d'algorithme avec son exécution. Les deux personnes qui vont décider de donner les places en crèche, que vont elles faire ? Appliquer un algorithme pardi. Les dossiers devront toujours être classés suivant des critères bien Definis...

  • @matmat965
    @matmat965 6 років тому +1

    Science4all fait des vidéos sur le sujet, elles sont bien plus détaillées et plus précises.

    • @jacksparrow440
      @jacksparrow440 6 років тому

      Et une vidéo ur le "populisme", beaucoup dénoncé dans cette vidéo !

  • @seward9
    @seward9 6 років тому

    Dans le sens de cette video, je conseille vivement la lecture du livre de Alexandre Laumonier « 6/5 » , editions Zones Sensibles. Cet essai décrit l’existence d’un algorithme et à quel point ils ont pris le controle de nos vies. Les noms des algorithmes existants (et réels) sont assez glaçants : Guerilla, Shark etc.

  • @XRaym
    @XRaym 6 років тому

    Très bonne vidéo, sur un sujet de plus en plus important !
    Petite note: Google Traduction a changé il y a quelques jours, maintenant nurse renvoit infirmiere et infirmier (dans cet ordre) monosnap.com/direct/JeURLCUPnpSeM4yJQPEIExBbqs9baE Il aura fallu de nombreuses années avant d'avoir cette mise à jour ! Cela marche pour tous les noms auparavant genré au masculin par défaut

  • @jameszamaron7321
    @jameszamaron7321 6 років тому

    Super vidéo

  • @KiiNouNyaaa
    @KiiNouNyaaa 6 років тому +1

    Pourquoi ne pas inviter un spécialiste ? Cette personne a bien fait son exposé, mais l'avis d'un ou une expert aurait été plus judicieux qu'une journaliste. Sur cette épisode vous avez un peu tout mélangé, l’algorithme est un mot vaste au meme titre que l’intelligence artificielle, il y a des raccourci facile et pas forcement très juste. Des corrections et un avis d'un chercheur ou d'un dev serait le bienvenue. Très belle réalisation ceci dit !

  • @matogame93
    @matogame93 6 років тому +1

    8:57 Où est le problème d'une montée du populisme?

  • @romain6251
    @romain6251 6 років тому

    Bonjour le liens des sources ne fonctionne pas et n’existe plus sur le site de Frama.link

  • @luigim12763
    @luigim12763 6 років тому

    Toujours percutant et informatif. Encore une très bonne vidéo, merci d'exister sur cette plateforme

  • @johnlemajor
    @johnlemajor 6 років тому

    Le lien pour consulter les sources de l'épisode ne fonctionne pas.

    • @datagueule
      @datagueule  6 років тому

      le lien est maintenant réparé

  • @elodiebarbe7419
    @elodiebarbe7419 6 років тому

    Ouaaah la coincidence!! :) La nouvelle chaine "craft" a sortie une premiere video, il y a deux jours, traitant presque du meme sujet !! :O Sinon encore une vidéo de qualité de votre part !! Coeur sur vous ♥

  • @guignardquentin4672
    @guignardquentin4672 6 років тому

    Tiens, je suis allé sur google translate, et la traduction propose maintenant les 2 genres. Donc "éternel présent", je ne suis pas trop d'accord !
    Il est a noté d'ailleurs que c'est le principe même des algorithmes d'APPRENTISSAGE que d'APPRENDRE au cours du temps ! Donc si les inégalités diminuent au cours du temps, les algos l'apprendrons, et il est également facile d'accorder plus de poids au passé récent...
    Un autre point : un algo n'est pas intrinsèquement sexiste ou raciste. Il n'est que le reflet d'une société, ne serait-ce pas là un moyen de d'exposer ses discriminations au grand jour et ainsi d'agir en conséquence ?

  • @JorisLM
    @JorisLM 6 років тому

    L'objectif d'un algorithme aussi généralisé que ceux du GAFAM et GATX devrait être de combler le plus de besoins de ceux qui en ont le plus le mieux possible et la plus grande quantité possible. Je serais curieux de voir le résultat.

  • @perezronan2686
    @perezronan2686 6 років тому

    Vidéo intéressante. A développer. Les algorithmes ne sont pas parfaits certes mais cela fait 'peu' de temps qu'on a commencé à en créer. On apprend plusieurs mois après que UA-cam et Facebook ont favorisé Trump. En espérant qu'ils corrigent erreurs pour les prochaines élections. Les algorithmes sont une bonne idée, mais ils les faut plus démocratiques, régulés, plus éthiques (comme cela est dit dans cette vidéo)

  • @ab14g22
    @ab14g22 6 років тому

    4:49 Suis-je le seul que le titre "Web designeuse" choque ? Est-il nécessaire de rappeler que "Web Designer" est un terme anglais et qu'il n'est pas à accorder en genre ?

  • @UnHommeSincere
    @UnHommeSincere 6 років тому

    Vraiment datagueule, je suis de plus en plus étonné de la pertinence de vos sujets. Ou est-ce moi qui ai changé mes preoccupations au gré des urgences ?
    Je me posais la question il ya quelques jours de savoir si l'utilisation d'algorithmes pourrait servir le peuple à travers un système politique.. Je pense tout comme vous.
    Mais je suis toujours effrayé de penser au plus malsaines des utilisations. Restez aux aguets

    • @Arkula100
      @Arkula100 6 років тому +1

      Comme quoi, tout est relatif. Personnellement, au gré des vidéos, j'apprécie de moins en moins.

  • @iphone5s513
    @iphone5s513 6 років тому +2

    0:39 , chaque détail compte

  • @WildPumpk1n
    @WildPumpk1n 6 років тому

    Merci, beaucoup de talent et de professionnalisme par ici. Très instructif, pas seulement critique, vous ouvrez des possibilités et ça fait du bien 😎

  • @augustinsoulard
    @augustinsoulard 6 років тому

    Il faut développer le libre ou au moins l'open source ! Il faut en parler, c'est une réelle arme pour défendre la démocratie. Les logiciels libres concurrencent les grosses boîtes, sont transparentes en ce qui concerne leurs algorithmes et gratuites pour tous. De plus tous le monde est appelé à contribuer à l'amélioration de ces logiciels.
    Mozilla firefox, linux, VLC... il y en a énormément qui marche très bien et qui ont déjà conquis le marché.

  • @mattcraftien974
    @mattcraftien974 6 років тому

    Très bonne vidéo lorsque j'ai vu le titre j'ai eu peur que vous tombiez dans une opposition dogmatique comme vous l'avez fait avec le geoengineering. Mais j'ai été agréablement surpris de voir une vidéo qui exposait les danger et les avantages des algorithmes. Si je devais faire une critique a cet épisode (et c'est valable pour une majorité d’épisodes) c'est que je trouve qu'il y a peut de temps passé au solution possible.

  • @LyroPac
    @LyroPac 6 років тому +1

    0:40 quel génie ! 😂

  • @c1ceron
    @c1ceron 6 років тому +48

    Très bonne vidéo, mais j'avoue que l'exemple de google translate je le trouve un peu wtf, c'est pas tant une quetion d'algorithme que juste de langage quoi

    • @pierrickpenard-dumont889
      @pierrickpenard-dumont889 6 років тому +8

      En plus, c'est pas comme si il y avait une seule traduction proposée. Si il y a plusieurs traduction, elle sont écrite en dessous de la zone de traduction en forme de liste.

    • @yeezythabest
      @yeezythabest 6 років тому +5

      La proposition de traduction est gérée par algorithme et est donc la traduction des biais y compris ceux du langage.

    • @francoisfuessinger9341
      @francoisfuessinger9341 6 років тому +12

      Il faut plus voir cela comme un exemple vulgarisé, facile a se représenter et donc a comprendre par une audience qui n'est pas forcément familière avec le principe du machine learning.
      Ce qu'il faut comprendre avec cet exemple, c'est que si l'on utilise des données passées qui présentent un biais manifeste (dans notre cas, le fait que les médecins étaient majoritairement des hommes) ce même biais ressortira alors de l'apprentissage et donc des résultats de l'execution de l'algorithme.

    • @SonnyDS_24
      @SonnyDS_24 6 років тому +3

      Propagande égalitariste tout simplement. Ils veulent faire du forcing a casser des soi disant code créer de toute pièce alors que leur origines sont innées.

    • @vivienm.3580
      @vivienm.3580 6 років тому +6

      Attention François, là tu reprends un des biais de la vidéo. Les médecins *sont* majoritairement des hommes (et, en France au moins, ils le seront encore pendant quelques années).
      Et pour ma part, je ne connais personne qui emploie le mot doctoresse au quotidien : les gens disent qu'ils vont "au docteur"... bien que de genre masculin, c'est une appelation neutre qui ne nous permet pas de savoir le sexe du docteur qu'ils vont voir (et d'ailleurs, on en à rien à faire : ce n'est pas comme si le diplôme d'un homme avait moins de valeur que celui d'une femme, ou réciproquement).
      Du coup, on peut bien dire que l'exemple est wtf, car il n'a de sens que si on partage son propre biais : ça ne marche que pour le genre de personnes qui pourraient croire que l'écriture inclusive est un progrès, par exemple.

  • @DanielBaumgartner
    @DanielBaumgartner 6 років тому

    Et que faites-vous des logiciels libres dans les solutions ?
    Et on peut saluer au passage le formidable travail d'Etalab.

  • @benoit_flqt
    @benoit_flqt 6 років тому

    J'ai fait la découverte de Bayes Impact récemment, une ONG qui utilise le Machine Learning pour permettre aux demandeurs d'emplois d'être mieux orientés.
    Algorithme open source, véritable désir d'apporter un impact positif via l'utilisation de la technologie.
    Bref je vous conseille de jeter un coup d'œil au documentaire sur son fondateur : "le rêve de Paul Duan"

  • @z1982_
    @z1982_ 6 років тому

    Très intéressant merci ! Attention à la faute d'orthographe à la fin de la description : rythment nos vies !

  • @myviewfr
    @myviewfr 6 років тому +2

    Vous ferez gaffe vous êtes sur la kill list! Fuyez viiiiiite !!!!!

  • @anysbougaa
    @anysbougaa 6 років тому

    Je pense que les dislike sont des gens qui voient le compteur a zero et qui peuvent pas s’en empêcher

  • @JenaPoree
    @JenaPoree 6 років тому

    Le lien des sources ne fonctionne pas

    • @datagueule
      @datagueule  6 років тому

      le lien est maintenant réparé

  • @davidstrub5985
    @davidstrub5985 6 років тому

    le lien vers les source est more ? ou est le sermon des data scientiste?

  • @armand6766
    @armand6766 6 років тому

    le lien des sources ne marche pas pour moi . suis je le seul ?

    • @datagueule
      @datagueule  6 років тому

      le lien est maintenant réparé

  • @julienpleutre1926
    @julienpleutre1926 6 років тому

    Aaah je vous aime les mecs !