Algocratie : L'inégalité programmée -

Поділитися
Вставка
  • Опубліковано 13 гру 2018
  • Ils sont partout autour de nous et pourtant on s'arrête rarement pour les regarder vraiment : les algorithmes.
    Puissants outils de calcul, ces lignes de code sont aujourd'hui principalement utilisées pour tenter d'optimiser le monde qui nous entoure. Mais que produit cette optimisation ? Quels sont ses effets sur notre perception de la réalité quand il s'agit de trier des infos ? Et que produisent les algorithmes quand ils deviennent des leviers de décisions incontestables ? Prenons le temps de creuser un peu le sujet car, de plus en plus, les algos rythment nos vies.
    Retrouvez toutes les sources de l'épisode sur : frama.link/ThrqV2EB
    - Suivez-nous sur PeerTube : is.gd/PT_DTG
    - Abonnez-vous sur UA-cam : is.gd/YT_DTG
    - Devenez fan sur Facebook : is.gd/FB_DTG
    - Suivez-nous sur Twitter : is.gd/TWT_DTG
    - Suivez-nous sur Instagram : is.gd/INSTA_DTG
    - Suivez-nous sur Mastodon : is.gd/MASTODON_DTG
    Nos différentes saisons :
    - Saison 7 : is.gd/DTG_S07
    - Saison 6 : is.gd/DTG_S06
    - Saison 5 : is.gd/DGT_S05
    - Saison 4 : is.gd/DTG_S04
    - Saison 3 : is.gd/DTG_S03
    - Saison 2 : is.gd/DTG_S02
    - Saison 1 : is.gd/DTG_S01
    Coproduit par IRL/Les nouvelles écritures

КОМЕНТАРІ • 790

  • @sixteenf
    @sixteenf 5 років тому +468

    Vous auriez clairement du préciser que la personne interviewée était co-fondatrice d'AlgoTransparency. Car en voyant sa présentation "Journaliste & Web designeuse" j'avais vraiment du mal à voir sa légitimité pour parler du sujet.

    • @corentinhembise
      @corentinhembise 5 років тому +36

      L'argument d'autorité, bien ancré dans nos moeurs

    • @Atriiid
      @Atriiid 5 років тому +76

      @@corentinhembise
      L'argument d'autorité n'a rien de fallacieux. Quand on ne sait pas quelque chose il vaut mieux s'en remettre à ceux qui étudient le sujet...

    • @Cusporryco
      @Cusporryco 5 років тому +11

      @@corentinhembise t'aurais mieux fait de te taire

    • @JohnDoe-vf6jn
      @JohnDoe-vf6jn 5 років тому +6

      @@Atriiid On va dire que c'est un argument qui est bien sur quelque chose qui appuie une proposition, mais effectivement elle est souvent surestimée.

    • @sixteenf
      @sixteenf 5 років тому +3

      @@corentinhembise Je suis désolé mais je ne comprends pas du tout ce que tu as voulu dire ?

  • @pignouf42
    @pignouf42 5 років тому +281

    Je suis développeur informatique, et je fais régulièrement des algorithmes. J'ai travaillé pendant 4 mois pour une boite qui gère les données des cartes de fidélités de grands magasins, et la lecture des demandes me choquais : - Nous allons faire cette action car cela touchera tel sentiment etc... J'ai démissionné au bout de 4 mois, et j'en suis ravi :)

    • @Nalojuntu
      @Nalojuntu 5 років тому +19

      Bravo à vous d'avoir démissionné par conviction 👍
      Est-ce que vous pourriez préciser des exemples de ce qu'ils demandaient - si cela reste possible sans rompre le secret professionnel - ?

    • @pignouf42
      @pignouf42 5 років тому +57

      @@Nalojuntu merci en fait, ce n'etait pas des algo très poussés pour être clair, mais par exemple j'avais des phrases du genre:"pour jouer sur le sentiments d'exclusivité nous enverrons un courrier pour l'anniversaire de la personne"
      Et il y avait tout une liste avec le sentiment touché et l'action à mettre en place.
      Ce type de manipulation (qui est d'ailleurs plutôt grotesque et pas très fine) me gênait quand même...
      Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir. C'est beaucoup plus simple pour moi de démissionner et trouver un autre travail que pour beaucoup.

    • @vivienm.3580
      @vivienm.3580 5 років тому +34

      "Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir."
      Mouais. De mon expérience personnelle, une grande majorité des choix sont justement des emplois ou on nous fera ce genre de demandes. On fait de la publicité, on aide des lobbys à diffuser leurs propagandes, on collecte à l'aveugle des données sur les utilisateurs... j'en ai fait, moi, des entreprises, avant de comprendre que la seule solution était de changer de métier.
      C'est pas pour rien qu'on a pas de problèmes à trouver du travail. Nous sommes les premiers ouvriers de la machine de propagande de l'ordre capitaliste.

    • @NicolasMarinCudraz
      @NicolasMarinCudraz 5 років тому +37

      @@vivienm.3580je partage tes propos, après 15 ans de consultance, j'ai dit basta, plus moyen de participer à ça. Aujourd'hui je plante des arbres, des légumes et m'occupe de mes enfants.

    • @snoopyznap
      @snoopyznap 5 років тому +4

      De même, j'ai refusé un devis pour cela...

  • @Floflox
    @Floflox 5 років тому +15

    C’est marrant que vous parliez du genre dans Google Traduction, par ce que justement , y a pas longtemps, il a changé et il propose maintenant directement les 2 genres !
    Si tu demandes la traduction de "nurse", il te propose bien "infirmière" et "infirmier" !
    Comme quoi, tout n’est pas perdu, et les algos peuvent être améliorée quand on prend conscience de leurs biais :)

  • @lechatdutyrol1013
    @lechatdutyrol1013 5 років тому +5

    Je suis en dernière année dans une grande école publique qui nous forme à devenir Data Scientist. Dès la première année, nous avons fait, en cours, des exercices à travers lesquels nous devions calculer le nombre de personnes qu'une entreprise devait licencier pour optimiser ses revenus. Un bien beau programme...
    Je suis convaincu que la data science peut permettre de rendre le monde meilleur, comme on a pu le voir dans la vidéo avec l'algorithme qui permettrait de faire connaître à des gens leur droit à accéder à des aides sociales qu'ils méritent. Il y a surtout un souci à la base. Il est très difficile de trouver de telles missions. Étant en dernière année, chaque étudiant de ma promotion doit trouver un stage de fin d'étude qui débouche dans 80% des cas sur un CDI. J'essaie tant bien que mal de chercher ce stage dans une entreprise, ONG ou institutions qui me permettrait de faire de la data science dans un contexte qui pourrait permettre de rendre le monde meilleur. Même si j'en trouve, elles n'ont en général pas de place pour un stagiaire. Pendant ce temps, quasiment quotidiennement, nous recevons des offres avec de beaux salaires de groupes comme Nestlé, HSBC ou Total ou de cabinets de conseils travaillant pour eux. N'ayant pas de cours d'éthique de la donnée et ces groupes cachant suffisamment bien du grand publique leurs actions moralement répréhensibles, la très grande majorité des gens de ma promotion va alors travailler pour eux et permettre à ces groupes de créer des algorithmes dont la vidéo parle en ne cherchant pas plus qu'à répondre au cahier des charges fixé. Quand j'en parle avec eux, je pense juste qu'ils ne se rendent pas compte du mal que cela peut causer et la paie qui va avec leur laisse à penser que le mal qu'il font ne peut pas être aussi horrible. J'espère que je pourrai travailler dans un contexte en accord avec mes idées mais plus le temps passe, malgré mes recherches, l'absence d'offres éthiquement correctes me fait peur et j'ai bien peur qu'à mon tour, en dépit de mes convicitions, je n'aurai pas d'autre choix que de travailler un certain temps pour ces grands groupes.

    • @thomaslegluher4241
      @thomaslegluher4241 5 років тому

      Comme partout, c'est dur de faire un travail qui rentre en accord avec son éthique personnelle. Parce que le boulot y en a dans des boîtes qui ont des thunes, et ces boîtes ont des thunes parce qu'elles sont pas éthiques ! Après entre la voie de la facilité et la galère en bonne conscience, pas toujours facile de choisir...

    • @renauddenis6043
      @renauddenis6043 5 років тому

      Salut Le Chat, as-tu regardé du coté de l'Open source ? Il y a de nombreuses sociétés et fondations qui, je pense, recherchent des data scientists. Genre Framasoft, la Quadrature du Net, Mozilla,...

    • @TPzOizo
      @TPzOizo 5 років тому

      Pour cela, il existe un programme d'Entrepreneurs d'intérêt général au sein de l'Etat : entrepreneur-interet-general.etalab.gouv.fr/ . Mais aussi de "start-ups d'Etat" : beta.gouv.fr/ qui cherchent justement des profils pointus.

    • @Raphzoo22
      @Raphzoo22 5 років тому

      @@thomaslegluher4241 Comme disait PNL, "Riche dans l'haram ou pauvre dans l'halal alors choisis vas-y dis-le"..

    • @RaisonetBienveillance
      @RaisonetBienveillance 5 років тому

      Il y a aussi la possibilité de travailler à la mise en place d'un système tel que ce serait bien l'intérêt général qui prévaudrait (et où tu serais rémunéré en fonction de ta contribution à l'intérêt général). C'est ce que je fais. Bien sûr, ça ne suffit pas à résoudre ton problème à court terme, mais c'est ce qu'impose ton éthique ! Voir mes vidéos sur l'économie (par exemple : ua-cam.com/video/am1UUqhY_Dw/v-deo.html) et mon commentaire de ce matin ici, et/ou se renseigner sur l'ucratie !

  • @Moineivre
    @Moineivre 5 років тому +3

    Une perle en terme de recherche, de rédaction ainsi que le travail au niveau du rendu visuel. Continuez le bon boulot et au plaisir de regarder les prochaines vidéos à venir.

  • @toplexil40
    @toplexil40 5 років тому +4

    Je suis actuellement étudiant dans un master en Intelligence artificielle et je suis bien content que nous soyons sensibilisés à tous ces biais potentiels !

  • @apisam-pleincentrefrance7987
    @apisam-pleincentrefrance7987 5 років тому +1

    Cet épisode est le point culminant de Data Gueule! Bravo à vous! Merci pour nous.

  • @davebot8383
    @davebot8383 5 років тому +32

    C'est énervant que dans tous les commentaires vous n'avez pas compris le message essentiel de la vidéo : la légitimité des algorithmes n'est pas remis en question, d'ailleurs c'est valorisée en médecine.
    Ici, c'est le fait que ce soit des humains derrières qui les façonnent ! Et qu'en laissant de manière non démocratique et débattue, le poids des algorithmes prendre de l'ampleur sur nos vies, ce sont les idéologies sous -jacentes qui ne sont pas discutées ! Tout ça pour du profit ! Même si c'est non voulu à la base, le fait de ne pas remettre en question les postulats des algorithmes, comme ceux des lois ou des indicateurs de type PIB etc... C'est se laisser portet au gré des préjugés !

    • @samsara5996
      @samsara5996 5 років тому +4

      Enfin un qui a compris la même chose que moi...Les gens s'arrêtent sur des détails pour étaler leur connaissance mais passent souvent à côté du problème de base. Alors content de voir que d'autre ont compris la même chose que moi.

    • @apolo9743
      @apolo9743 4 роки тому +2

      @@samsara5996 voilà pourquoi on fonce dans le mur. Quand on croit savoir sans se dire que l'on ne sait pas on continue tout droit jusqu'au mur

  • @cedricipavec
    @cedricipavec 5 років тому +13

    Bonjour l'algorithme de Google. Merci pour cette vidéo.

  • @argospanoptes4826
    @argospanoptes4826 5 років тому

    Je suis de plus en plus stupéfait par l'efficacité de vos publications. La convergence de la pertinence des propos et de l'esthétisme des graphismes est tout simplement splendide. Bravos les gars et les garces. Sorry! J'ai fais une traduction gougueule ;-) Utilisez le navigateur de Tor (oignon) et disparaissez des radars.

  • @jacquesparisdix7530
    @jacquesparisdix7530 5 років тому +1

    Encore une belle contribution pour la réflexion sur les communs. Super boulot, merci à toute l'équipe !

  • @sdufouralb
    @sdufouralb 5 років тому

    Merci pour ce concentré d'enjeux. Quand des gens me disent: "moi je m'en fou de l'utilisation qui sont faites de mes donnés, je ne suis pas un criminel, donc je n'ai rien à cacher", je peux être tenter de leurs répondre un phrase toute faite: "dire ça, est aussi absurde de dire que tu te moque de la liberté d'expression parce que tu n'as rien à dire". Mais la vérité c'est que, et après?
    Si cette personne me demande alors: "ok, donc qu'est-ce que j'ai à craindre?" et là, la réponse est difficile sans tombé dans des lieux communs, voire des biais cognitifs. Cette vidéo va me permettre de penser à une réponse abordable sans utiliser le mot "algorithme" qui, comme chacun sait, signifie "mot qu'utilise un informaticien quand il n'as pas envie d'expliqué ce qu'il a fait".

  • @Dja05
    @Dja05 5 років тому +27

    Wai... Sauf que non en fait... Cette histoire de traduction, c'est ridicule... Cà n'a aucun sens de traduire des critères de recherche dans une langue ou autre... Si je tape "docteur" ou "doctoresse", j'aurais un set de résultat associé directement à ces termes, et pas à "doctor"... Si je tape par contre "doctor", j'aurais des résultat lié à "female doctor" puisque "doctor" en est un sous ensemble... D'après la logique de la vidéo, les "algorithmes" favoriseraient donc les doctoresses...
    Toujours en suivant la logique de la vidéo:
    Chercher "american inventors" sur google image nous renvoie la tronche de plein de noirs ayant inventé des trucs anecdotique, mais majoritairement des blancs dans n'importe quelle autre langue. Cà voudrais donc dire que google incite les pauvres petits blancs anglophone à ne pas inventer quoi que ce soit... En réalité, c'est simplement dû au fait que les écoles américaines sont dominé par des idéologues gauchistes obsédé entre autre par la couleur de peau des gens, et donc demandent sans arrêt à leur étudiants de faire des recherche sur les inventeurs noir.
    L'algorithme de recherche de google a du coup générer une association automatique entre "american inventors" et "african american inventors", puisqu'il était bombardé de requêtes pour le second groupe de mots...
    Et puis cette association foireuse avec l'élection de trump... Enfin on a pas eu droit aux fameux bot russes cette fois au moins... Les commentateurs politique indépendant sont beaucoup plus à même d'être pro trump que les grand groupe médiatique (les études les plus conservatrice estiment que plus de 80% des articles de presse sur trump sont négatif... www.cnbc.com/2017/05/19/trump-press-coverage-sets-new-standard-for-negativity-study.html ). Or, les premiers sont presque systématiquement démonétisé tandis que les grand groupe sont automatiquement monétisé, mis en avant, et bénéficient de tout un tas de passe-droits...

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Quand je tape « doctor » sur Google traduction, ça me met bien « docteur » hein, et pareil quand tu tape « american inventors » ça te mets à peu près autant de blancs que de noirs, je vois pas en quoi c’est défavorable aux blancs qui font une recherche Google, au contraire ça montre qu’il y a de tout chez les inventeurs. Quand à Trump, tu parles des commentateurs politiques, mais en attendant on a bel et bien vu beaucoup plus de Trump sur UA-cam que de Clinton. Trump a beau avoir été beaucoup critiqué, il a surtout eu beaucoup de visibilité et c’est ça que la vidéo critique. De plus, Trump a dit beaucoup de trucs clivants sur lesquels on peut débattre, mais faudrait pas oublier qu’il a aussi répandu beaucoup de fake news et de ragots donc encore heureux que ce genre de trucs soient démonétisés. Et puis pour les grands groupes, ils sont peut-être majoritairement anti Trump, mais en attendant tu peux me dire ce qu’il a fait contre les grands groupes, Trump, au final? Trump, c’est lui même un milliardaire faut pas l’oublier…

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Quand à ta source, ça montre bien que 80% des articles écrits sur Trump sont négatifs, mais ça n’indique pas qui fait partie des 80% et qui fait partie des 20%. Si ça se trouve, il y a des grands groupes dans les 20% et des indés dans les 80%, en plus du fait que la source de l’étude de base, c’est Harvard. Paradoxal, sachant que les universités américaines sont dominées par la gauche, non? En plus l’article confirme bien ce que je t’ai dit: les grands groupes ont fait plus de profit grâce à la baisse des impôts instaurée par Trump. De quoi ils se plaignent, en somme?

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Et note aussi que j’ai essayé de voir des articles d’autres sites sur cette étude, mais qu’aucun ne donne de lien vers l’étude originale, ce qui fait que c’est vraiment mort pour savoir qui sont les fameux 80%, ni si l’étude est bien foutue, ni même si elle existe vraiment. Je vais continuer à chercher, mais faut se dire que c’est pas parce que c’est relayé que c’est vrai et honnêtement une étude qui montre que au plus fort de la polémique c’était 90%, au plus faible 70%, soit exactement 10% d’un côté comme de l’autre, ça ressemble fort à du doigt mouillé tout ça

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      (et de nouveau pour les inventeurs américains: si je tape « inventeurs américains » au lieu de « american inventors », ça me met exactement les mêmes images donc ton argument de la langue ne marche pas

    • @adolftrump4051
      @adolftrump4051 3 роки тому

      Après j’ai essayé dans d’autres langues que le français et là effectivement j’ai vu que des blancs, j’avoue)

  • @lefabb
    @lefabb 5 років тому +1

    Pour ceux que ça intéresse, les algorithmes de machine learning utilisés le plus fréquemment dans l'industrie sont quasiment tous publics. En voici quelques uns :
    - régression linéaire
    - régression logistique
    - réseau de neurones
    - machine à support vecteur
    - K-means
    - détection d'anomalies
    - système de recommandations
    Et ils sont open source, disponibles entre autre dans la librairie Python Scikitlearn.

  • @au-delabattleworld9051
    @au-delabattleworld9051 5 років тому +38

    Bonjour DATA GUEULE est que vous pourriez faire une vidéo sur la polution des déchets que l'on produit en masse ( industriel, ménager etc) ou une vidéo sur le gaspillage alimentaire

    • @myviewfr
      @myviewfr 5 років тому +2

      Regarde Nicolas Meyrieux

    • @zipkivol
      @zipkivol 5 років тому +5

      Déjà fait plusieurs fois. regarde les vidéos d'il y a 2 ou 3 ans

    • @raemuowalter4737
      @raemuowalter4737 5 років тому

      "On" parlez pour vous, je ne produit aucun déchet.

    • @NitrielGaming
      @NitrielGaming 4 роки тому

      @@raemuowalter4737 AH BON?! (oui réponse un peu en retard) c'est pas trop beaucoup possible de ne pas produire de déchets mdr

  • @Masterpouya
    @Masterpouya 5 років тому

    Toujours aussi excellent, n'arrêtez jamais ! Et un grand merci :-)

  • @myviewfr
    @myviewfr 5 років тому +2

    Vos vidéos sont vraiment bien travaillées que ce soit dans le travail d'investigation doration du texte et surtout le motion design 😍

  • @DemonZest
    @DemonZest 5 років тому +87

    Tout ce qu'on peut reprocher aux algorithmes on peut le faire à la presse, sauf que cette dernière nous influence souvent consciemment, dans un but politique ou financier (cliquer plus).

    • @epickiwi8318
      @epickiwi8318 5 років тому +4

      Je ne suis pas d'accord, derrière la presse il y a des humains qui analysent la situation, essayent de comprendre ce qu'il s'est passé pour permettre de se forger une opinion dessus.
      L'algorithme, et je parle principalement du machine learning, se base sur des donnés passé qu'il prend pour de vérité universels. L'homme n'est (pour le moment) pas égalitaire, et les données que l' on donne aux algos ne le sont donc pas non plus. Pourquoi espérer alors avoir un resultat egalitaire.
      La presse, tout comme chacun de nous, ont une capacité d'analyse. Une sorte de conscience de soi et de recul sur la situation pour essayer de saisir toutes les nuances d'une situation. Un algorithme non, il se contente de suivre les données qu'on lui fourni. Ce manque de jugement et de souplesse est même dans la définition. Même si certains médias sont orienté, on ne peux pas les comparer aux algorithmes qui restent des machines bonnes en statistiques.

    • @DemonZest
      @DemonZest 5 років тому +5

      @@epickiwi8318 Les algorithmes en se basant sur l'ensemble des données ne peuvent qu'être plus objectives et il n'y aura jamais une intention derrière, le "humains qui analysent la situation" s'applique de moins en moins sur l'information-réseau sociaux où les gens prennent juste le temps de lire le titre voire des mots clés de l'article qui outrance souvent la situation de base, si on cherche des algorithmes qui font vendre effectivement la situation empirera, par contre des algorithmes qui cherchent à informer le plus sobrement possible, ça ne pourra que faire du bien en obligeant les journalistes humain à un concours de qualité et non de faire le plus économique possible.

    • @epickiwi8318
      @epickiwi8318 5 років тому +1

      Certes, c'est vrai pour les médias des réseaux sociaux mais là c'est plus notre problème en tant que lecteur d'essayer de creuser plus profond que de simplement lire le titre. Par contre, ce qui est montré dans cette vidéo c'est que les algorithmes sont des grandes machines statistiques. Même si tu donne 3 Zo de données a un algorithme de Machine Learning, si 70% des données sont inégalitaires, le robot le sera aussi. On ne peut pas espérer que les algos reparent nos problèmes de société

    •  5 років тому +1

      Les médias en général , pas que la presse, que ce soit l'organisme classique à la BFM ou l'influenceur antivax qui propose son homéopathie hors de prix pour guérir du cancer avec ses jus de fruits

    • @peaksingularity3032
      @peaksingularity3032 5 років тому +1

      Le public sait quand même que la presse n'est pas objective, mais considère à tort les algorithmes comme objectifs. D’où un rappel.

  • @superflameur
    @superflameur 5 років тому +6

    Excellent taff, comme d'habitude !

  • @romaindumont1114
    @romaindumont1114 5 років тому

    Vous avez aujourd'hui l'une des meilleurs chaîne de vulgarisation de UA-cam. Merci pour votre travail

  • @squirfly
    @squirfly 5 років тому +1

    Bravo, la question est très importante et vous l'expliquez avec rigueur

  • @leonoreton4087
    @leonoreton4087 5 років тому

    Énorme vidéo encore une fois, bravo. Continuez !

  • @MrThekilleur27
    @MrThekilleur27 5 років тому

    Revenez sur insta

  • @Aldreius
    @Aldreius 5 років тому +37

    8:45
    Ah donc en fait les algorithme si pas bien ça fait monter le populisme ? Le constat n'est il pas plutôt "Les dirigeants approuvés par l'oligarchie ne feraient ils pas monte le populisme au vu de leur médiocrité"

    • @chokolacafe2348
      @chokolacafe2348 5 років тому +2

      Les dirigeants sont très souvent perçus comme médiocres et aujourd'hui font très souvent monter le populisme. Il y a simplement que le phénomène est accentué par des intérêts privés et pour des intérêts privés.

    • @byRapt0r
      @byRapt0r 5 років тому

      Il n'y a rien de mal dans le populisme, tout politique doit être populiste.

    • @chokolacafe2348
      @chokolacafe2348 5 років тому

      @@byRapt0r Oui et non. Je ne suis pas sûre que la minorité aujourd'hui qui scande le retour de de Gaulle soit vraiment pour un candidat populiste, candidat qui ne devra pas l'être s'il veut s'appuyer sur cette minorité, qui est parfois une majorité d'ailleurs.

    •  5 років тому

      Le populisme et l'amateurisme risquent d'être de simples erreurs de l'histoire quand on s'apercevra que les technocrates font le travail le plus efficacement

  • @N0Styl
    @N0Styl 5 років тому +96

    Y'a tellement d'approximations dans cet épisode, c'est à se demander si vous ne devriez pas passer le relais à une IA pour faire l'écriture à votre place.

    • @anto_chanson
      @anto_chanson 5 років тому +1

      @@JzelMoniK voilà un bien beau raccourci là encore...

    • @user-fg3kh8ro6r
      @user-fg3kh8ro6r 5 років тому

      trop.

    • @romaindurand
      @romaindurand 5 років тому +3

      @@JzelMoniK Elle est fondatrice d'Algo Transparency ... L'asso qui se bat justement sur ces questions, la légitimité ne s'obtient pas que par des diplômes, les galons gagnés sur le terrain comptent au moins autant !

    • @laurethiabaud-vespierre5550
      @laurethiabaud-vespierre5550 5 років тому +1

      IA ?

    • @allmytomorrows4537
      @allmytomorrows4537 5 років тому +6

      N0Styl également beaucoup d'approximations dans votre commentaire - la première étant que vous n'indiquez pas où elles sont et en quoi sont elles des approximations.
      C'est la seule façon de faire avancer le débat

  • @Cococheval1995
    @Cococheval1995 5 років тому

    C'est super de terminer par une note positive ! Ça fait plaisir une touche de bonne nouvelle dans cette juste dénonciation

  • @intouch011
    @intouch011 5 років тому

    Très intéressante vidéo et très joli visuellement, chapeau!

  • @pierrebridenne8870
    @pierrebridenne8870 5 років тому

    Encore de l'excellent travail merci !

  • @quentinmauduit3484
    @quentinmauduit3484 5 років тому

    C'est super ce que vous faites les gars!

  • @evelynerouquet847
    @evelynerouquet847 5 років тому

    Merci pour cette super vidéo :)

  • @martingalvez8890
    @martingalvez8890 5 років тому

    Toujours aussi bien vos vidéos !!!

  • @atikin_0
    @atikin_0 5 років тому +5

    3:43 haha x) Henri Poulain, votre réalisateur sur la "kill list", de quoi voir si il prête attention à la vidéo :)

  • @pausetite4475
    @pausetite4475 5 років тому

    Toujours aussi bien.

  • @Lapassouare
    @Lapassouare 5 років тому

    On en parle que cette émission est complètement folle et tellement bien !

  • @XanderS2X
    @XanderS2X 5 років тому

    Un épisode extrêmement intéressant ! L'intervention de Soline Ledesert est fascinante en terme d'implications politiques et éthiques, ses propos font réfléchir.

  • @bobiboulon
    @bobiboulon 5 років тому

    Même si c'est très bien expliqué au début de la vidéo, dans la partie en infographie, je tiens juste à préciser pour les gens qui ne le sauraient pas que lorsque Mme Ledesert parle "des gens qui font des algorithmes" ce n'est pas une appellation représentative de ce qu'elle veut réellement dire. Parce que des gens qui font des algorithmes sans faire quoique ce soit de potentiellement discriminant ou touchant à du big data, il y en a plein. Par exemple, une personne programmant un automate sur une chaine d'assemblage ou développant l'IA des ennemis d'un jeu vidéo _est_ une personne qui fait des algorithmes, mais qui n'a rien à voir avec le sujet présent.
    #pasdamalgame :P

  • @emmanuelrochet4489
    @emmanuelrochet4489 5 років тому

    Bonne vidéo sur le font. Par contre il y à ici un paquet d'approximations et d'imprécisions:
    - Pour les remarque liées aux TAL (traitement automatisé des langages naturels), le problème lié au notamment à la traduction mais aussi a tout ce touche de près ou de loin au problème de mettre une sémantique à une phrase, sont juste mais connues des chercheurs depuis un bon bout de temps. Beaucoup de laboratoires travaillent sur ce problème.
    - Sur la non divulgation des algos, c'est un problème c'est sûr mais la a part la voie législative au niveau international il n'y a aucune autre solution.
    - Le coup de "les gens qui créent les algo sont les Data Scientists". C'est un poil réducteur les "Data Scientists" comme on aime les appeler maintenant sont en fait des statisticiens avec une formation en informatique incluant entre autre de la base de données et un peu d’apprentissage automatique(ce qu'on aime angliciser en machine learning). Mais cela oublies les experts en TAL, si les données contiennent du langage naturel, en RO quand on a un problème difficile ou qu'on cherche a optimiser son algo (notamment sur le temps qu'il prends) etc.
    sinon pour la partie démocratie 7:10 : "Défier les gens qui font des algorithmes..." c'est se voiler la face sur le véritable problème, qui n'est pas les créateur d'algo mais les décideurs, ceux qui définissent le but de l'algo. Les créateur d'algos sont juste des employés comme les autres. Sinon le travail de recherche, journalisme ect est à développer mais el coup de la charte ethique est, à mon sens inutile tant que les patrons en aurons rien a foutre.

  • @jlb4971
    @jlb4971 5 років тому

    BRAVO ! Mes algorithmes me confirment que votre chaîne est d'utilité publique ! 😉

  • @moinforlazik517
    @moinforlazik517 5 років тому +117

    1) Alors on a un média qui reproche à youtube d'influencer des élections ... c'est exquis
    2) On nous dit que le passé influence le futur avec sur la langue ... merci ça s'appelle l'histoire on a pas besoin de google trad pour savoir tout ça
    De plus sachez que ce n'est pas un "présent qui devient éternel" dans les faits car 81% du personnel du domaine médicale est féminin et 54% du domaine pharmacologique aussi
    3) Vous nous dites que sur une population hétérogène de 1000 personnes les femmes se voit moins proposer des fonctions à haut salaire mais est ce à poste égale ? quel salaire est élevé ? est ce que pour les salaires faibles c'est inversé ? Car encore une fois encore les statistiques de l'insee montre que sur la population française les différences de salaires de 26% pourcent entre hommes et femmes seul 6.7% n'est pas expliqable et laisse supposer à de la discrimination (je suis pour une égalité parfaite à poste égale compétence égale travail égale et expérience égale entre homme et femme) mais on est loin de votre 1800-500 que vous nous proposez sans nuance
    4) Pour votre faux positif à 1% sur la population française pour débusquer les terroristes il faut préciser que 1 y a des profils types, 2 "seulement" 20 000 fiché S et encore y a aussi d'autres fiché dont je me rappelle plus le nom mais y a encore moins de monde donc on est loin de 1% d'incertitude et loin de 600 000 personnes accusé à tord
    5) vous donnez aucuns exemples pour le sujet de la justice
    Après pour les gens qui s'intéressent au sujet des algorithmes et des GAFAM et BATX
    Je leur conseille le dernier hors série du canard enchaîné qui explique fort bien ce qu'ils font de nos données et comment ils les prélèvent et comment on peut s'en protéger.
    Je rappelle que le canard enchaîné est un des derniers médias libres qui possède sûrement les meilleurs journalistes de France (le coût des 500 000€ de vaisselles de Micron c'est eux qui l'ont découvert, d'ailleurs ils ont plusieurs fois fait l'objet de mise sur écoute ils expliquent tout ça)
    Je peux aussi partager les liens des infos sur les inégalités hommes femmes de l'insee pour ceux que ça intéresse

    • @Silphenix
      @Silphenix 5 років тому +3

      Réponse rapide pour le 4 : si l'algorithme est sensé observer toute la population et pas juste les déjà fichés, avec 1% de faux positifs c'est effectivement 600k personnes qui se retrouvent classés "terroristes potentiels" sans raison.
      Pour le reste... allez, rapidement :
      1) Oui, c'est surtout demander que youtube reconnaisse les influencer, hein.
      2) La langue se construit avec le présent, mais google trad maintient cette forme passée. Alors que l'évolution de la langue ne va pas dans ce sens là.
      3) On peut supposer que les profils, ayant été générés, sont comparables. Les sources sont listées, peut-être est ce dedans ?
      5) Voir sources ?

    • @guillaumeb3076
      @guillaumeb3076 5 років тому

      les liens stp :)

    • @moinforlazik517
      @moinforlazik517 5 років тому +3

      Oui mais la population entière n'est pas surveillé ex: les enfants les vieillards les handicapés etc
      Et le 1% est arbitrairement choisi comme exemple il n'en est rien dans les fait comme le faible nombre de fiché
      1) je comprends pas ta phrase
      2) L'évolution de la langue va dans quel sens ? PERSONNE ne le sait le futur est au futur
      3) "on peut suposer" ... sérieusement c'est quoi cet esprit critique naïf
      5) oui absolument y a pas de source
      Et ça c'est pour les inégalité homme femme l'étude de l'insee qui explique les différences au niveau du type de travail , les différences inter et intra poste ainsi que la prise en compte de d'autres facteurs
      www.insee.fr/fr/statistiques/2128979

    • @moinforlazik517
      @moinforlazik517 5 років тому +3

      Liberdiko elle fait 45min la video tu veux bien me donner l'endroit stp :) et merci pour le lien
      Ensuite je vais te poser une question : imaginons un algorithme parfait qui prend en compte tous les aspects permettant de détecter à 100% sûre un futur crime comme dans Minority report mais que au lieu de les arrêter on se contente de surveiller et juste tu les empêcher de récidiver si il y a eu une première condamnation ceux dont on est sûre qu'ils vont faire un autre crime ... est ce que parce qu'un des critères de l'algorithme n'est pas politiquement correct et est donc retiré (par conséquence on est plus à 100% et on augmente le nombre de faux positifs) et donc laisserait des criminels agir sans surveillance parfaite ou alors tu oublies le politiquement correct et tu peux protéger la population des futurs criminels ? Que préfères tu ?

    • @skipeur33
      @skipeur33 5 років тому

      y'a des choses à redire sur le coincoin, mais c'est vrai qu'il s'élève loin au dessus des autres

  • @Ruben-or2iq
    @Ruben-or2iq 5 років тому

    Pour une fois que l'intervenant est intéressant (en plus d'être agréable à regarder :)

  • @sofianemedjkoune838
    @sofianemedjkoune838 5 років тому +2

    Je trouve que cette problématique est mal placée, les algorithmes ne sont que des outils que nous utilisons, comment pouvons nous tourner la problématique autour de l'outil algorithmique alors que ce sont leur créateurs qui y sont maître ?
    J'aimerai également mettre en avant mon abid par rapport à la partie data science et à l'image que vous y associez, accrocher des affiches de ventes d'articles scolaire devant une école est également fait pour le gain, afficher des publicités orientées réservation d'hôtel pour Quelqu un qui cherche à voyager est également pour le gain, le soucis ici c'est que pour pouvoir fournir des pub aussi bien visées, il faut les donnés des utilisateurs, sachez que nous sommes responsables que ce qu'on nous prend, quand vous téléchargez une appli, on vous spécifie quelles données seront utilisées (On ne vous dira pas pourquoi mais vous savez ce qu'on vous prend) vous êtes de ne pas installer Windows par exemple et d'installer un système d'exploitation libre sur lequel on ne vous prend pas vos données (linux). Dans un monde où les compagnies ne jurent sue par le gain c'est à nous de savoir où se trouve notre responsabilité.
    Pour moi Quelqu un qui utilise un "algorithme" qui prend vos données, vous le savez et ralez après...désolé mais là responsabilité vous incombe.

  • @thesteaksaignant
    @thesteaksaignant 5 років тому +2

    Hello, je fais une thèse en informatique et voyant tant d'incompréhension dans les commentaires face au "1% d'erreur qui génère 600 000 suspects" je vais tenter une explication plus détaillée :
    Dans l'exemple l'algorithme de détection de suspect analyse les infos de toute la population pour sortir une liste de suspects à surveiller. C'est donc un algorithme de classification à 2 catégories :
    - "suspect" (positif)
    - "non suspect" (negatif)
    La performance d'un algorithme de classification peut-être évaluée par son taux d'erreur. A noter que deux types d'erreurs sont possibles : le faux-négatif (on rate un terroriste en le classant "non-suspect") et le faux-positif (on classe un innocent comme "suspect").
    Ici, le taux d'erreur est de 1% (c'est vraiment un super algo, c'est rare d'atteindre un score aussi bon). Donc sur toute la population (60 millions), 1% des individus vont être mal classés. Donc 600 000 erreurs de classification. Parmi ces erreurs, combien sont des faux-positifs, et combien sont des faux-negatifs ? C'est simple :
    - faux-positifs : 1% des innocents
    - faux négatifs : 1% des terroristes
    Mais, du coup, il y en a combien des terroristes en France ? J'ai trouvé 20 000 fichés S en 2015 selon un articlé de Libé (lien à la fin). Prenons donc pour l'exemple : 59 980 000 innocents vs 20 000 terroristes.
    - faux-négatifs : 1% de 20 000 = 200 terroristes non détectés (et 19 800 bien détectés)
    - faux-positifs : 1% de 59 980 000 = 599 800 innocents surveillés
    Conclusion : 600 000 personnes classées "suspect" par l'algorithme, dont 598 000 innocents et 19 800 vrais terroristes.
    www.liberation.fr/checknews/2017/05/03/combien-y-a-t-il-de-fiches-s-en-france_1652320
    Pour mieux comprendre ce genre de calculs je vous conseille la chaîne "hygiene mentale" : ua-cam.com/video/x-2uVNze56s/v-deo.html

    • @samsara5996
      @samsara5996 5 років тому

      Au final le ratio final prouve les dérives de ce système. De plus sur ces soit disant 20 000 fiché S tous ne sont pas terroristes....certain sont des altermondialistes par exemple...
      Si on fait un nouveau calcul et que l'on établie le nombre de personne surveillé par rapport aux nombres de passage à l'acte alors c'est encore plus un raté...
      On fait dire ce que l'on veut aux chiffres.

  • @jameszamaron7321
    @jameszamaron7321 5 років тому

    Super vidéo

  • @fren2y123
    @fren2y123 5 років тому

    Ce serait bien un épisode sur la légalisation du cananbis recreatif

  • @iphone5s513
    @iphone5s513 5 років тому +2

    0:39 , chaque détail compte

  • @icefender91
    @icefender91 5 років тому

    Merci, courage à vous

  • @mllnobody7669
    @mllnobody7669 5 років тому

    Commentaire pour le référencement de la video

  • @pimdubidu3559
    @pimdubidu3559 5 років тому

    Je mets un commentaire pour que la vidéo soit remontée dans le référencement ^^

  • @sofinesgaouir
    @sofinesgaouir 5 років тому

    Vous mérite plus d'abonnés mm mon prof d'histoire passe vos vidéo en cours 😍😍😂

  • @LyroPac
    @LyroPac 5 років тому +1

    0:40 quel génie ! 😂

  • @elodiebarbe7419
    @elodiebarbe7419 5 років тому

    Ouaaah la coincidence!! :) La nouvelle chaine "craft" a sortie une premiere video, il y a deux jours, traitant presque du meme sujet !! :O Sinon encore une vidéo de qualité de votre part !! Coeur sur vous ♥

  • @XRaym
    @XRaym 5 років тому

    Très bonne vidéo, sur un sujet de plus en plus important !
    Petite note: Google Traduction a changé il y a quelques jours, maintenant nurse renvoit infirmiere et infirmier (dans cet ordre) monosnap.com/direct/JeURLCUPnpSeM4yJQPEIExBbqs9baE Il aura fallu de nombreuses années avant d'avoir cette mise à jour ! Cela marche pour tous les noms auparavant genré au masculin par défaut

  • @oxifan12
    @oxifan12 5 років тому

    De la qualité 👌

  • @marsupiomarsu7377
    @marsupiomarsu7377 5 років тому

    Merci pour vos vidéos toujours très intéressantes et bien faites...
    Je sais que vous avez abordé à de nombreuses reprises, les financements de l'état, les banques, etc...
    Mais vous serait-il possible de faire un épisode dédié à la dette publique (ses mécaniques, son évolution du fait de l'europe, etc...)
    Merci

  • @SallyLock103emeCaris
    @SallyLock103emeCaris 5 років тому

    Merci ❤

  • @Architeq1
    @Architeq1 5 років тому

    Je suis dev, data scientist en herbe, et je regarde #datagueule depuis longtemps. Depuis des annees les logiciels libres/open source et les licences proprietaires. Je crois que les IA ont un grand destin et nous serront tous la pour voir google renaitre. Je parle bien de google car ils ont deja beaucoup d'avance avec les ordinateurs quantiques. Bref pour ceux qui ne savent pas de quoi je parle : l'opensource c'est bien et on devrait s'interesser a Richard Stellman (qui parle francais et a "cree linux") beaucoup plus que Bill Gates qui vend 80e la licence (inclu a l'achat). On sait pertinemment que l'open source est plus sur et plus optimise. (dsl les accents). Sachez que aujourd'hui, n'importe qui de motive et un minimum bon en maths peut devenir data scientist a la maison. En revanche tout le monde n'a pas forcement les moyens de se payer le matos pour bricoler un data center

  • @seward9
    @seward9 5 років тому

    Dans le sens de cette video, je conseille vivement la lecture du livre de Alexandre Laumonier « 6/5 » , editions Zones Sensibles. Cet essai décrit l’existence d’un algorithme et à quel point ils ont pris le controle de nos vies. Les noms des algorithmes existants (et réels) sont assez glaçants : Guerilla, Shark etc.

  • @myviewfr
    @myviewfr 5 років тому +2

    Vous ferez gaffe vous êtes sur la kill list! Fuyez viiiiiite !!!!!

  • @fredericmazoit1441
    @fredericmazoit1441 5 років тому +22

    Je n'ai pas du tout aimé cet épisode et voilà pourquoi.
    Il est naturel de se méfier de ce qu'on ne comprend pas et beaucoup de personnes se méfient déjà part défaut des algorithmes (on a le même phénomène avec les antivax). Or cette méfiance me semble néfaste.
    Il y a deux champs possibles d'application des algorithmes: le big data et le reste.
    Pour ce qui est du big data, on ne peut pas faire sans algorithme. La question n'est donc pas de savoir s'il faut utiliser des algorithmes ou pas. Il faut. Le but de youtube n'est pas d'être juste, le but de youtube est de faire de l'argent. Le problème des suggestions youtube serait exactement le même si elles étaient données par des humains. C'est ça le vrai problème.
    Dans le reste, vous donnez l'exemple de l'allocation des places dans une crèche. Sincèrement, avoir deux personnes qui décident sans supervision des happy few me semble une très mauvaise idée car non seulement elles peuvent décider de faire passer le dossier de leur copine avant mais les critères de sélection ne seront pas les mêmes au cours de la journée.
    Il semble que les remises de peine accordées par des juges sont beaucoup plus fréquentes quand ces derniers sont reposés et n'ont pas faim¹. De mon côté, je suis enseignant chercheur en informatique et je sais que je ne note pas de la même façon les premières copies d'un paquet que les dernières. La fatigue joue beaucoup.
    Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs.
    Un autre intérêt des algorithmes est qu'ils forcent à se poser des questions qu'on évite soigneusement autrement. Un exemple parfait est celui des voitures autonomes. Si on ne peut pas éviter un accident, vaut-il mieux tuer 4 personnes âgées ou un adulte qui tient la main à ses deux enfants ?
    Bref, oui, les algorithmes ne sont pas parfait et il faut les étudier sérieusement mais les blâmer pour un résultat qui ne nous plaît pas, c'est comme se plaindre qu'un couteau a été utiliser pour poignarder quelqu'un.
    ¹ sciencetonnante.wordpress.com/2014/12/08/mefiez-vous-dun-juge-affame/

    • @clairepennarun6555
      @clairepennarun6555 5 років тому +1

      Tiens, je me disais que j'étais d'accord avec ce commentaire. et puis j'ai vu l'auteur. Coucou collègue !

    • @Arkula100
      @Arkula100 5 років тому +2

      que dire que ta phrase "Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs" ... les algorithmes s'écrivent tout seuls? ils naissent de rien tel des divinités?... ah ben non, ils sont écrit par des humains, oui oui ceux qui ont des biais inconscients, et qui codent surement leur biais dans leur algorithme...

    • @TrueAryador
      @TrueAryador 5 років тому +2

      @@Arkula100
      Le machine learning n'a pas de biais et ne peut devenir biaisé que si tu lui donnes un paquet de données volontairement biaisé or pour bien faire les choses tu donnes du random donc 0 biais.

    • @sandrawhy1380
      @sandrawhy1380 5 років тому +1

      @@Arkula100 Monsieur avez vous déjà codé un algorithme? Savez vous la rigueur que cela impose?

    • @fredericmazoit1441
      @fredericmazoit1441 5 років тому

      @@sandrawhy1380 Avez-vous lu mon commentaire. J'enseigne l'algorithmique à la fac ! Et dans ma liste de publication, j'ai quelques algorithmes. Donc oui, je sais.

  • @DanielBaumgartner
    @DanielBaumgartner 5 років тому

    Et que faites-vous des logiciels libres dans les solutions ?
    Et on peut saluer au passage le formidable travail d'Etalab.

  • @julienpleutre1926
    @julienpleutre1926 5 років тому

    Aaah je vous aime les mecs !

  • @xodowo
    @xodowo 5 років тому +1

    03:00 pourquoi ne pas parler de l'échantillon ? Les deux groupes de sujets avaient-ils les mêmes compétences ?
    + J'aime bien le 404 sur le lien qui redirige vers les sources de l'épisode, très pro

  • @azekawa
    @azekawa 5 років тому +1

    Je viens de regarder 45 secondes de vidéo et y'a déjà une boulette "Si le résultat est bon l'algorithme est efficace"
    Non, on peut faire une suite d'opérations compliquées pour parvenir a un résultats simple, mais si on peu obtenir le résultat avec moins d'opérations moins compliqués, alors c'est ce second algorithme qui est efficace.

  • @UnHommeSincere
    @UnHommeSincere 5 років тому

    Vraiment datagueule, je suis de plus en plus étonné de la pertinence de vos sujets. Ou est-ce moi qui ai changé mes preoccupations au gré des urgences ?
    Je me posais la question il ya quelques jours de savoir si l'utilisation d'algorithmes pourrait servir le peuple à travers un système politique.. Je pense tout comme vous.
    Mais je suis toujours effrayé de penser au plus malsaines des utilisations. Restez aux aguets

    • @Arkula100
      @Arkula100 5 років тому +1

      Comme quoi, tout est relatif. Personnellement, au gré des vidéos, j'apprécie de moins en moins.

  • @Whybann
    @Whybann 5 років тому +1

    Le lien des sources est cassé !
    Un épisode très intéressant, mais je pense qu'il pourrait être un début de série sur l'impact des algorithmes sur nos sociétés, je pense que le sujet est bien plus important qu'on pourrait l'imaginer. Là l'inégalité reste un sujet introductif, il serait possible d'approfondir en fonction des domaines. Par exemple, un sujet intéressant serait d'analyser en profondeur l'aspect sexiste des algorithmes, quel sont ses impacts, comment peut-on le changer etc etc.. Là on a juste quelques infos montrant qu'un algorithme peut l'être mais c'est assez superficiel.

    • @datagueule
      @datagueule  5 років тому

      le lien vers les sources est réparé

  • @purple_bey
    @purple_bey 5 років тому

    j'ai pas qui a fait le montage de cette video mais 🎩 👏👏👏👏

  • @Acres9
    @Acres9 5 років тому

    "Les algorithmes servent avant tout les gens qui les financent et pas vraiment les populations"
    .... Merci pour cette brillante analyse.
    Au passage elle a l'air de confondre "démocratie" et l'égalitarisme.
    Je dois avouer que j'ai pas vraiment l'utilité de votre invité, elle a enfoncer 15 000 portes ouvertes et a fini par nous faire une belle récup politique a partir de 8:30 a ce moment la autant arrêter, j'ai rien contre elle mais son analyse et sa psychologie de comptoir a je pense rien a foutre la. Le but des mecs de google est pas de faire passer Clinton pour faire barrage a la haine et au populisme mais de faire de l'argent, je trouve ça dingue que dans le monde dans lequel on vis des """""""journaliste"""""" ne puissent pas comprendre ça.
    Son serment d’Hippocrate pour "data scientist" (utilise un nom français au pire non ?) qui est juste VIDE :
    le point 2 "transparence" jusqu'a quel point ? envers qui ? comment éviter de se faire voler ces algorithmes si on les diffuse a tous ?
    le point 3 "équité" : équité de quoi ? faut peut être préciser sur quel point non ? le but d'un algorithme c'est aussi de suivre des tendances et d'y adapter sa réponse
    le point 4 "respect" ok, respect envers qui ? on matérialise ça comment ? ça veut juste rien dire de nous balancer "respect" sans rien derrière.
    le point 5 "responsabilité et indépendance" l'indépendance et les responsabilités de qui ? du "data scientist" ? il travaille dans une grande entreprise (en majorité) alors niveau indépendance ça me parait compliqué, les responsabilités ? bah ouai il en a une, celle de faire ce que lui dit son patron.
    La fin est magnifique, en gros ça la dérange que les entreprises privés qui ont développé et financé les intelligences artificiel en profitent et n'aient pas comme mission prioritaire l’intérêt de plus grand nombre mais de leurs actionnaires, bah ouai, si t'étais pas contente fallait militer pour demander au gouvernement français de te rebalancer un impôt pour financer des algorithmes. Plus sérieusement encore heureux que les entreprises ayant développé leurs technologies en aient l'usage, au passage elle nous sort la notion "d’intérêt général" mais selon qui ? L'intelligence artificiel est-elle vraiment bonne pour l’intérêt général ? elle pensera surement que oui vu qu'elle taff dedans et que ça fait du taff pour elle mais ça va nous causé quelques problèmes de chômage cette histoire.
    En bref je l'ai écouté avec intention et j'ai juste trouvé ça vide, elle a enfoncé des portes ouvertes, balancé des généralités et a conclu, j'ai pu en tirer aucune idée (sauf son serment inutile et débile).
    Je trouve le niveau de Data Gueule risible depuis votre rentrée, en espérant que vous vous ressaisissiez, vous nous aviez habitué a de la qualité et ça fait vraiment de la peine de voir ça.

  • @z1982_
    @z1982_ 5 років тому

    Très intéressant merci ! Attention à la faute d'orthographe à la fin de la description : rythment nos vies !

  • @WildPumpk1n
    @WildPumpk1n 5 років тому

    Merci, beaucoup de talent et de professionnalisme par ici. Très instructif, pas seulement critique, vous ouvrez des possibilités et ça fait du bien 😎

  • @gertrude8883
    @gertrude8883 5 років тому

    Enorme qualité vidéo...

  • @perezronan2686
    @perezronan2686 5 років тому

    Vidéo intéressante. A développer. Les algorithmes ne sont pas parfaits certes mais cela fait 'peu' de temps qu'on a commencé à en créer. On apprend plusieurs mois après que UA-cam et Facebook ont favorisé Trump. En espérant qu'ils corrigent erreurs pour les prochaines élections. Les algorithmes sont une bonne idée, mais ils les faut plus démocratiques, régulés, plus éthiques (comme cela est dit dans cette vidéo)

  • @Napouille
    @Napouille 5 років тому +15

    Non mais c'est extraordinaire... J'avance dans la vidéo et vous êtes sérieusement en train de nous expliquer qu'il y a un biais conservateur et nationaliste dans les algorithmes, alors que tous, je dis bien TOUS les médias dominants, les canaux de communication, le cinéma, la pop culture n'ont que quatre mots à la bouche : diversité, féminisme, lgbt et holocauste.
    J'allume ma télé et n'importe quelle pub me rappelle cela, vous vivez dans quel monde ?

    • @jaimelapolitique349
      @jaimelapolitique349 5 років тому +1

      Alors tout d'abord, non, tous les médias n'ont pas ces messages à la bouche, loin de là. Fox News est peut-être l'exemple le plus flagrant. Ensuite, ce que la vidéo explique, ni plus, ni moins, c'est qu'un algorithme créé pour mettre en avant les vidéos générant le plus de réactions (bonnes comme mauvaises, sans discernement) parce que ces vidéos permettaient de caser de la pub, a fini par mettre en avant les clips d'un candidat plutôt que l'autre. Donc une machine à pub a fini par faire de la politique.

    • @Napouille
      @Napouille 5 років тому +4

      @@jaimelapolitique349 OK tu m'as cité UNE chaîne américaine qui effectivement penche à droite. C'est simple c'est la seule. Il n'y a aucune diversité d'opinions dans le monde médiatique.
      Pour le reste j'ai bien compris les lien entre pub et algorithme mais c'est la lecture politique de cette émission que je déplore.
      Les vidéos UA-cam sur Trump étaient plus percutantes, normales qu'elles soient plus vues et donc plus ciblées. On n'y peut rien si les gens qui les faisaient étaient de meilleurs communicants, sans doute plus intelligents et avec une meilleurs compréhension des systèmes de propagande à l'heure des mêmes. Vouloir mettre à égalité les bons communicants et les mauvais (ceux d'Hillary) pour des raisons politiques, ça c'est malsain, ça nie la dynamique d'un mouvement et ça enlève à la droite dure le seul avantage qu'elle a aujourd'hui pour faire entendre ses idées dans un paysage médiatique complètement verrouillé.

    • @douneijio
      @douneijio 5 років тому +1

      @@Napouille Le figaro, Rtl ( qui est la radio avec le plus d'audience) , France télévisions, et Tf1 penchent à droite. Je ne perçoit pas beaucoup non plus de lgbt, de féminisme à la radio ou la télé. Pour la diversité je veux bien, mais dans tous les cas, ce qui est diffusé et ce qui est appliqué dans la réalité peuvent différer.

    • @kentarokovacs573
      @kentarokovacs573 5 років тому +1

      Tu es fort pour trouver du féminisme, lgbt chez valeur actuel x'D

  • @sixteenf
    @sixteenf 5 років тому

    Je tiens à ajouter un point technique qui me paraît très important par rapport au sujet. La majorité des algorithmes d'intelligence artificielle utilisés par les fameux GAFAM reposent sur du Deep Learning. Sans entrer dans les détails, sachez que même pour les data scientists qui les mettent au point il est extrêmement difficile de comprendre comment ces algorithmes raisonnent. On connait les données qu'on leur donne et le but à accomplir. On sait qu'ils sont capable d'atteindre le but avec un taux d'erreur ridicule par rapport à celui d'un humain. Mais ce qui se passe entre l'entrée et la sortie est très flou.

  • @makera5333
    @makera5333 5 років тому

    Après sur les différences de salaires proposés, il faudrait peut-être des détails. J'ai essayé votre lien sur vos sources, mais qui m'a éconduit. Je vais essayer sur les études d'égalité salariale concernant cet université Carnegie Mellon.
    En espérant que ça ne soit pas des militants et qu'ils ont fait leur travail impartialement.

  • @mathurindorel8444
    @mathurindorel8444 5 років тому

    Juste sur l'intervention de la journaliste: Parcou'sup est open source (framagit.org/parcoursup/algorithmes-de-parcoursup). Mais elle a raison sur le reste.
    Très bonne vidéo par ailleurs +1

  • @Berdes1
    @Berdes1 5 років тому

    Bonne nouvelle, google traduction a récemment ajouté un support pour proposer les deux alternatives (masculin et féminin) pour un certain nombre de traductions: nurse propose infirmière et infirmier. C'est pas encore parfait (ça ne fonctionne par pour doctor), mais ça montre qu'ils sont au courant du problème et qu'ils travaillent activement dessus.

  • @bengiaminbarblan4187
    @bengiaminbarblan4187 4 роки тому +2

    Pour ceux qui en veulent plus sur le sujet, ce livre contient toute l'essence des algorithmes et de leur dérives : weaponsofmathdestructionbook.com/

  • @Goursorama
    @Goursorama 5 років тому

    La non divulgation des algorithmes vient du principe de sécurité par obscurité (fr.wikipedia.org/wiki/S%C3%A9curit%C3%A9_par_l%27obscurit%C3%A9).
    En effet, il me semble qu'elle n'est pas légitime pour certains des algorithmes publics. Mais pour des algorithmes relatifs à la défense, voudrions-nous que des ennemis aient toutes les ficelles pour passer sous le radar ? Exemple : ne pas passer des heures sur des sites à la gloire de l'etat islamique, ne pas passer d'appel vers des zones de guerre, etc. Les services secrets eux aussi ont déjà dû avoir des faux positifs.

  • @matogame93
    @matogame93 5 років тому +1

    8:57 Où est le problème d'une montée du populisme?

  • @Adalhard
    @Adalhard 5 років тому +149

    Assez déçu par cet épisode. L'argument assez malhonnête des 1% et des problèmes qui n'en sont pas.
    L'histoire des mots neutres à traduire, il faut faire un choix du genre en français et si le masculin l'emportait par défaut il y aurait une autre polémique. Se baser sur des données passées réelles semble un bon compromis.
    Pour les crédits, je pense que l'algorithme qui se base sur de vraies données sera plus juste que le banquier qui voit arriver le "pauvre dans sa misère" et qui aura un jugement biaisé (volontairement ou non) par l'apparence.
    Pour les élections c'est pareil, si Trump apparaissait plus souvent c'est parce que les gens en parlaient et le recherchaient d'eux-mêmes. S'il y a plus de vidéo de Trump avec chacunes plus de vues ça me semble normal qu'il apparaisse, et créer arbitrairement une parité dans les suggestions ça passerait aussi pour de la censure.

    • @RubyRhod83
      @RubyRhod83 5 років тому +12

      Au contraire c'est tout l'inverse que de ne pas proposer une pluralité de possibilité .... si tu cherches le mot nurse, l'algorithme devrait pouvoir te proposer la possibilité d'infirmière ou de neutre, c'est un pb de langage que l'ordinateur peut régler en te proposant plus de possibilités.
      Pour Trump c'est pareille si on te gave de vidéos parce qu'elles font buzz pour d'autres personnes, on finit par un point de convergence sans entrevoir qu'il y a d'autres candidats, mais voilà rentabilité oblige si le curseur flanche en faveur de la génération de revenu publicitaire plus importante chez Trump parce qu'à la base il "choc", il finit tristement par en devenir la règle au yeux d'autre qui n'iront pas chercher plus loin. Au final les élections sont influencées. C'est très complexe et malsain, ce qu'on peut retenir c'est qu'encore une fois la loi du marché s'applique encore plus sur internet et qu'il faut faire attention car il y un gros manque de législation si l'on devait comparer à la vie réel (même si ici aussi il y a des manques).

    • @neomorphosallomorphis7395
      @neomorphosallomorphis7395 5 років тому +2

      @@RubyRhod83 Si je te comprends bien, si je regarde des vidéos sur Trump, je suis pro-Trump? Merci pour l'info 😲

    • @Benlamsy
      @Benlamsy 5 років тому +9

      @@neomorphosallomorphis7395 bien sur que non, mais tu participe à ce qu'il soit plus connu et plus omniprésent, selon le fameux adage publicitaire: plus on parle d'un produit (en bien ou en mal) mieux c'est !

    • @romarickostenko9032
      @romarickostenko9032 5 років тому +7

      @@neomorphosallomorphis7395 Tu pourrais voir ça comme un mélange entre l'activité neuronale et la peur de l'inconnu. Je m'explique : plus une connexion est solicitée, plus une association est faite, plus elle devient facile d'accès. Te surcharger de vidéos sur un sujet va rendre, au moins, ce sujet moins inconnu pour toi. Pas forcément agréable, mais pas inconnu. Puis, viens le moment de voter, et pour des gens qui n'ont pas pris le temps d'étudier les enjeux politiques, deux facteurs vont entrer en jeux, un attractif et un répulsif. L'instinc tribal d'appartenance (celui sur lequel joues nos politiciens, par exemple lorsque Macron a lancé une écharpe du PSG à des marseillais comme un lapin à une meute de loups, nourrissant symboliquement la colère des gens en se mettant et s'affichant de leur côtés, au moins à leurs yeux) est l'attractif. La peur de l'inconnu (le fait de rester dans des schémas que l'on connait, et qui même s'ils sont néfastent, nous gardent en vie, alors que l'inconnu peut nous tuer) est le répulsif, en défavorisant les connexions et associations les moins solicitées. Donc, si tu regardes des vidéos sur Trump, tu seras surtout anti-Hilari :)
      Mais il y a un autre problème, qui est qu'un algorithme vient optimiser selon des critères, et que dès qu'il y a sélection, il y a moyen de tricher…

    • @Benlamsy
      @Benlamsy 5 років тому

      @@romarickostenko9032 merci 😉 t'as bien expliqué et argumenter ce que je tentais de dire ^^

  • @sibb9
    @sibb9 5 років тому

    Question : Comment peut-on craindre des discriminations dû aux algorithmes (qui sont des programmes et qui donc reposent sur des chiffres) et une minute après proposer l'analyse de dossier (en l'occurrence pour des places en crèche) par des personnes alors que l'existence de BIAIS COGNITIFS a été démontrée à mainte reprise ?
    C'est une véritable question, comment ?

  • @JorisLM
    @JorisLM 5 років тому

    L'objectif d'un algorithme aussi généralisé que ceux du GAFAM et GATX devrait être de combler le plus de besoins de ceux qui en ont le plus le mieux possible et la plus grande quantité possible. Je serais curieux de voir le résultat.

  • @matmat965
    @matmat965 5 років тому +1

    Science4all fait des vidéos sur le sujet, elles sont bien plus détaillées et plus précises.

    • @jacksparrow440
      @jacksparrow440 5 років тому

      Et une vidéo ur le "populisme", beaucoup dénoncé dans cette vidéo !

  • @mattcraftien974
    @mattcraftien974 5 років тому

    Très bonne vidéo lorsque j'ai vu le titre j'ai eu peur que vous tombiez dans une opposition dogmatique comme vous l'avez fait avec le geoengineering. Mais j'ai été agréablement surpris de voir une vidéo qui exposait les danger et les avantages des algorithmes. Si je devais faire une critique a cet épisode (et c'est valable pour une majorité d’épisodes) c'est que je trouve qu'il y a peut de temps passé au solution possible.

  • @myviewfr
    @myviewfr 5 років тому

    C'est dingue ...

  • @benoit_flqt
    @benoit_flqt 5 років тому

    J'ai fait la découverte de Bayes Impact récemment, une ONG qui utilise le Machine Learning pour permettre aux demandeurs d'emplois d'être mieux orientés.
    Algorithme open source, véritable désir d'apporter un impact positif via l'utilisation de la technologie.
    Bref je vous conseille de jeter un coup d'œil au documentaire sur son fondateur : "le rêve de Paul Duan"

  • @Gutsuman
    @Gutsuman 5 років тому

    Vidéo très très intéressante. Bonnes pistes de réflexions et chouette découverte d'AlgoTransparency.
    Est-ce que je fais ce commentaire dans le but d'influencer l'algo YT afin que cette vidéo soit plus visible? Totalement. (Mais ça n'en est pas moins sincère)

  • @clem4458
    @clem4458 5 років тому

    Toujours percutant et informatif. Encore une très bonne vidéo, merci d'exister sur cette plateforme

  • @valentinv961
    @valentinv961 5 років тому +1

    Je n'arrive pas à accéder aux sources, est-ce de ma faute ou dû à une erreur dans le lien ?

    • @datagueule
      @datagueule  5 років тому

      oui, c'était une erreur, le lien est maintenant réparé

  • @mattcraftien974
    @mattcraftien974 5 років тому +2

    Le lien de source est mort

    • @datagueule
      @datagueule  5 років тому

      le lien est maintenant réparé

  • @domsau2
    @domsau2 5 років тому +4

    Algorithme et réseau neuronal sont *différents* !

  • @cortana13004
    @cortana13004 5 років тому

    Il y a quand même une méconnaissance du sujet au niveau technique par votre intervenante.
    Un exemple simple, vers les 8:30 , l'intervenante confond le concept d'algorithme avec son exécution. Les deux personnes qui vont décider de donner les places en crèche, que vont elles faire ? Appliquer un algorithme pardi. Les dossiers devront toujours être classés suivant des critères bien Definis...

  • @c1ceron
    @c1ceron 5 років тому +48

    Très bonne vidéo, mais j'avoue que l'exemple de google translate je le trouve un peu wtf, c'est pas tant une quetion d'algorithme que juste de langage quoi

    • @pierrickpenard-dumont889
      @pierrickpenard-dumont889 5 років тому +8

      En plus, c'est pas comme si il y avait une seule traduction proposée. Si il y a plusieurs traduction, elle sont écrite en dessous de la zone de traduction en forme de liste.

    • @yeezythabest
      @yeezythabest 5 років тому +5

      La proposition de traduction est gérée par algorithme et est donc la traduction des biais y compris ceux du langage.

    • @francoisfuessinger9341
      @francoisfuessinger9341 5 років тому +12

      Il faut plus voir cela comme un exemple vulgarisé, facile a se représenter et donc a comprendre par une audience qui n'est pas forcément familière avec le principe du machine learning.
      Ce qu'il faut comprendre avec cet exemple, c'est que si l'on utilise des données passées qui présentent un biais manifeste (dans notre cas, le fait que les médecins étaient majoritairement des hommes) ce même biais ressortira alors de l'apprentissage et donc des résultats de l'execution de l'algorithme.

    • @SonnyDS_24
      @SonnyDS_24 5 років тому +3

      Propagande égalitariste tout simplement. Ils veulent faire du forcing a casser des soi disant code créer de toute pièce alors que leur origines sont innées.

    • @vivienm.3580
      @vivienm.3580 5 років тому +6

      Attention François, là tu reprends un des biais de la vidéo. Les médecins *sont* majoritairement des hommes (et, en France au moins, ils le seront encore pendant quelques années).
      Et pour ma part, je ne connais personne qui emploie le mot doctoresse au quotidien : les gens disent qu'ils vont "au docteur"... bien que de genre masculin, c'est une appelation neutre qui ne nous permet pas de savoir le sexe du docteur qu'ils vont voir (et d'ailleurs, on en à rien à faire : ce n'est pas comme si le diplôme d'un homme avait moins de valeur que celui d'une femme, ou réciproquement).
      Du coup, on peut bien dire que l'exemple est wtf, car il n'a de sens que si on partage son propre biais : ça ne marche que pour le genre de personnes qui pourraient croire que l'écriture inclusive est un progrès, par exemple.

  • @perre-marielegov4342
    @perre-marielegov4342 5 років тому

    l'algorithme qui permettrait de trouver les personnes qui ont droit à des prestations sociales ce n'est pas assurer l'égalité, mais la justice sociale, et encore ... mais bon c'est un vaste débat comme tout ce qui est lié à la société , l'humain et la démocratie. je dirais que c'est une bonne vidéo malgrès ma petite critique; )

  • @davidstrub5985
    @davidstrub5985 5 років тому

    le lien vers les source est more ? ou est le sermon des data scientiste?

  • @ab14g22
    @ab14g22 5 років тому

    4:49 Suis-je le seul que le titre "Web designeuse" choque ? Est-il nécessaire de rappeler que "Web Designer" est un terme anglais et qu'il n'est pas à accorder en genre ?

  • @AlexT49
    @AlexT49 5 років тому

    Merci pour votre vidéo, c'est dommage que le sujet ne soit pas plus approfondis, laissant certain point flou et sujet à mauvaise interprétation. Aussi le lien des sources de la vidéo est cassé.

  • @porigonopop
    @porigonopop 5 років тому

    Par rapport a Google translate, je pense que le problème viens aussi du fait qu'on ai différents mots pour parler de la même profession suivant que l'on soit un homme ou une femme, si on veux vraiment une égalité de genre, ne serais-ce pas mieux d'avoir un mot == une profession, sans distinction de genre

  • @koudelka6234
    @koudelka6234 5 років тому

    Heureusement que tous les gens qui émettent des réserves et avancent des arguments (parfaitement censés) à l'encontre du raisonnement de votre vidéo ne vous mettent pas des pouces rouges.

  • @fanfan175
    @fanfan175 5 років тому

    Merci