Je suis développeur informatique, et je fais régulièrement des algorithmes. J'ai travaillé pendant 4 mois pour une boite qui gère les données des cartes de fidélités de grands magasins, et la lecture des demandes me choquais : - Nous allons faire cette action car cela touchera tel sentiment etc... J'ai démissionné au bout de 4 mois, et j'en suis ravi :)
Bravo à vous d'avoir démissionné par conviction 👍 Est-ce que vous pourriez préciser des exemples de ce qu'ils demandaient - si cela reste possible sans rompre le secret professionnel - ?
@@Nalojuntu merci en fait, ce n'etait pas des algo très poussés pour être clair, mais par exemple j'avais des phrases du genre:"pour jouer sur le sentiments d'exclusivité nous enverrons un courrier pour l'anniversaire de la personne" Et il y avait tout une liste avec le sentiment touché et l'action à mettre en place. Ce type de manipulation (qui est d'ailleurs plutôt grotesque et pas très fine) me gênait quand même... Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir. C'est beaucoup plus simple pour moi de démissionner et trouver un autre travail que pour beaucoup.
"Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir." Mouais. De mon expérience personnelle, une grande majorité des choix sont justement des emplois ou on nous fera ce genre de demandes. On fait de la publicité, on aide des lobbys à diffuser leurs propagandes, on collecte à l'aveugle des données sur les utilisateurs... j'en ai fait, moi, des entreprises, avant de comprendre que la seule solution était de changer de métier. C'est pas pour rien qu'on a pas de problèmes à trouver du travail. Nous sommes les premiers ouvriers de la machine de propagande de l'ordre capitaliste.
@@vivienm.3580je partage tes propos, après 15 ans de consultance, j'ai dit basta, plus moyen de participer à ça. Aujourd'hui je plante des arbres, des légumes et m'occupe de mes enfants.
Vous auriez clairement du préciser que la personne interviewée était co-fondatrice d'AlgoTransparency. Car en voyant sa présentation "Journaliste & Web designeuse" j'avais vraiment du mal à voir sa légitimité pour parler du sujet.
Je suis en dernière année dans une grande école publique qui nous forme à devenir Data Scientist. Dès la première année, nous avons fait, en cours, des exercices à travers lesquels nous devions calculer le nombre de personnes qu'une entreprise devait licencier pour optimiser ses revenus. Un bien beau programme... Je suis convaincu que la data science peut permettre de rendre le monde meilleur, comme on a pu le voir dans la vidéo avec l'algorithme qui permettrait de faire connaître à des gens leur droit à accéder à des aides sociales qu'ils méritent. Il y a surtout un souci à la base. Il est très difficile de trouver de telles missions. Étant en dernière année, chaque étudiant de ma promotion doit trouver un stage de fin d'étude qui débouche dans 80% des cas sur un CDI. J'essaie tant bien que mal de chercher ce stage dans une entreprise, ONG ou institutions qui me permettrait de faire de la data science dans un contexte qui pourrait permettre de rendre le monde meilleur. Même si j'en trouve, elles n'ont en général pas de place pour un stagiaire. Pendant ce temps, quasiment quotidiennement, nous recevons des offres avec de beaux salaires de groupes comme Nestlé, HSBC ou Total ou de cabinets de conseils travaillant pour eux. N'ayant pas de cours d'éthique de la donnée et ces groupes cachant suffisamment bien du grand publique leurs actions moralement répréhensibles, la très grande majorité des gens de ma promotion va alors travailler pour eux et permettre à ces groupes de créer des algorithmes dont la vidéo parle en ne cherchant pas plus qu'à répondre au cahier des charges fixé. Quand j'en parle avec eux, je pense juste qu'ils ne se rendent pas compte du mal que cela peut causer et la paie qui va avec leur laisse à penser que le mal qu'il font ne peut pas être aussi horrible. J'espère que je pourrai travailler dans un contexte en accord avec mes idées mais plus le temps passe, malgré mes recherches, l'absence d'offres éthiquement correctes me fait peur et j'ai bien peur qu'à mon tour, en dépit de mes convicitions, je n'aurai pas d'autre choix que de travailler un certain temps pour ces grands groupes.
Comme partout, c'est dur de faire un travail qui rentre en accord avec son éthique personnelle. Parce que le boulot y en a dans des boîtes qui ont des thunes, et ces boîtes ont des thunes parce qu'elles sont pas éthiques ! Après entre la voie de la facilité et la galère en bonne conscience, pas toujours facile de choisir...
Salut Le Chat, as-tu regardé du coté de l'Open source ? Il y a de nombreuses sociétés et fondations qui, je pense, recherchent des data scientists. Genre Framasoft, la Quadrature du Net, Mozilla,...
Pour cela, il existe un programme d'Entrepreneurs d'intérêt général au sein de l'Etat : entrepreneur-interet-general.etalab.gouv.fr/ . Mais aussi de "start-ups d'Etat" : beta.gouv.fr/ qui cherchent justement des profils pointus.
Il y a aussi la possibilité de travailler à la mise en place d'un système tel que ce serait bien l'intérêt général qui prévaudrait (et où tu serais rémunéré en fonction de ta contribution à l'intérêt général). C'est ce que je fais. Bien sûr, ça ne suffit pas à résoudre ton problème à court terme, mais c'est ce qu'impose ton éthique ! Voir mes vidéos sur l'économie (par exemple : ua-cam.com/video/am1UUqhY_Dw/v-deo.html) et mon commentaire de ce matin ici, et/ou se renseigner sur l'ucratie !
Une perle en terme de recherche, de rédaction ainsi que le travail au niveau du rendu visuel. Continuez le bon boulot et au plaisir de regarder les prochaines vidéos à venir.
C’est marrant que vous parliez du genre dans Google Traduction, par ce que justement , y a pas longtemps, il a changé et il propose maintenant directement les 2 genres ! Si tu demandes la traduction de "nurse", il te propose bien "infirmière" et "infirmier" ! Comme quoi, tout n’est pas perdu, et les algos peuvent être améliorée quand on prend conscience de leurs biais :)
C'est énervant que dans tous les commentaires vous n'avez pas compris le message essentiel de la vidéo : la légitimité des algorithmes n'est pas remis en question, d'ailleurs c'est valorisée en médecine. Ici, c'est le fait que ce soit des humains derrières qui les façonnent ! Et qu'en laissant de manière non démocratique et débattue, le poids des algorithmes prendre de l'ampleur sur nos vies, ce sont les idéologies sous -jacentes qui ne sont pas discutées ! Tout ça pour du profit ! Même si c'est non voulu à la base, le fait de ne pas remettre en question les postulats des algorithmes, comme ceux des lois ou des indicateurs de type PIB etc... C'est se laisser portet au gré des préjugés !
Enfin un qui a compris la même chose que moi...Les gens s'arrêtent sur des détails pour étaler leur connaissance mais passent souvent à côté du problème de base. Alors content de voir que d'autre ont compris la même chose que moi.
Je suis actuellement étudiant dans un master en Intelligence artificielle et je suis bien content que nous soyons sensibilisés à tous ces biais potentiels !
Pour ceux que ça intéresse, les algorithmes de machine learning utilisés le plus fréquemment dans l'industrie sont quasiment tous publics. En voici quelques uns : - régression linéaire - régression logistique - réseau de neurones - machine à support vecteur - K-means - détection d'anomalies - système de recommandations Et ils sont open source, disponibles entre autre dans la librairie Python Scikitlearn.
8:45 Ah donc en fait les algorithme si pas bien ça fait monter le populisme ? Le constat n'est il pas plutôt "Les dirigeants approuvés par l'oligarchie ne feraient ils pas monte le populisme au vu de leur médiocrité"
Les dirigeants sont très souvent perçus comme médiocres et aujourd'hui font très souvent monter le populisme. Il y a simplement que le phénomène est accentué par des intérêts privés et pour des intérêts privés.
@@carpenter3816 Oui et non. Je ne suis pas sûre que la minorité aujourd'hui qui scande le retour de de Gaulle soit vraiment pour un candidat populiste, candidat qui ne devra pas l'être s'il veut s'appuyer sur cette minorité, qui est parfois une majorité d'ailleurs.
6 років тому
Le populisme et l'amateurisme risquent d'être de simples erreurs de l'histoire quand on s'apercevra que les technocrates font le travail le plus efficacement
Tout ce qu'on peut reprocher aux algorithmes on peut le faire à la presse, sauf que cette dernière nous influence souvent consciemment, dans un but politique ou financier (cliquer plus).
Je ne suis pas d'accord, derrière la presse il y a des humains qui analysent la situation, essayent de comprendre ce qu'il s'est passé pour permettre de se forger une opinion dessus. L'algorithme, et je parle principalement du machine learning, se base sur des donnés passé qu'il prend pour de vérité universels. L'homme n'est (pour le moment) pas égalitaire, et les données que l' on donne aux algos ne le sont donc pas non plus. Pourquoi espérer alors avoir un resultat egalitaire. La presse, tout comme chacun de nous, ont une capacité d'analyse. Une sorte de conscience de soi et de recul sur la situation pour essayer de saisir toutes les nuances d'une situation. Un algorithme non, il se contente de suivre les données qu'on lui fourni. Ce manque de jugement et de souplesse est même dans la définition. Même si certains médias sont orienté, on ne peux pas les comparer aux algorithmes qui restent des machines bonnes en statistiques.
@@epickiwi8318 Les algorithmes en se basant sur l'ensemble des données ne peuvent qu'être plus objectives et il n'y aura jamais une intention derrière, le "humains qui analysent la situation" s'applique de moins en moins sur l'information-réseau sociaux où les gens prennent juste le temps de lire le titre voire des mots clés de l'article qui outrance souvent la situation de base, si on cherche des algorithmes qui font vendre effectivement la situation empirera, par contre des algorithmes qui cherchent à informer le plus sobrement possible, ça ne pourra que faire du bien en obligeant les journalistes humain à un concours de qualité et non de faire le plus économique possible.
Certes, c'est vrai pour les médias des réseaux sociaux mais là c'est plus notre problème en tant que lecteur d'essayer de creuser plus profond que de simplement lire le titre. Par contre, ce qui est montré dans cette vidéo c'est que les algorithmes sont des grandes machines statistiques. Même si tu donne 3 Zo de données a un algorithme de Machine Learning, si 70% des données sont inégalitaires, le robot le sera aussi. On ne peut pas espérer que les algos reparent nos problèmes de société
6 років тому+1
Les médias en général , pas que la presse, que ce soit l'organisme classique à la BFM ou l'influenceur antivax qui propose son homéopathie hors de prix pour guérir du cancer avec ses jus de fruits
Je suis de plus en plus stupéfait par l'efficacité de vos publications. La convergence de la pertinence des propos et de l'esthétisme des graphismes est tout simplement splendide. Bravos les gars et les garces. Sorry! J'ai fais une traduction gougueule ;-) Utilisez le navigateur de Tor (oignon) et disparaissez des radars.
1) Alors on a un média qui reproche à youtube d'influencer des élections ... c'est exquis 2) On nous dit que le passé influence le futur avec sur la langue ... merci ça s'appelle l'histoire on a pas besoin de google trad pour savoir tout ça De plus sachez que ce n'est pas un "présent qui devient éternel" dans les faits car 81% du personnel du domaine médicale est féminin et 54% du domaine pharmacologique aussi 3) Vous nous dites que sur une population hétérogène de 1000 personnes les femmes se voit moins proposer des fonctions à haut salaire mais est ce à poste égale ? quel salaire est élevé ? est ce que pour les salaires faibles c'est inversé ? Car encore une fois encore les statistiques de l'insee montre que sur la population française les différences de salaires de 26% pourcent entre hommes et femmes seul 6.7% n'est pas expliqable et laisse supposer à de la discrimination (je suis pour une égalité parfaite à poste égale compétence égale travail égale et expérience égale entre homme et femme) mais on est loin de votre 1800-500 que vous nous proposez sans nuance 4) Pour votre faux positif à 1% sur la population française pour débusquer les terroristes il faut préciser que 1 y a des profils types, 2 "seulement" 20 000 fiché S et encore y a aussi d'autres fiché dont je me rappelle plus le nom mais y a encore moins de monde donc on est loin de 1% d'incertitude et loin de 600 000 personnes accusé à tord 5) vous donnez aucuns exemples pour le sujet de la justice Après pour les gens qui s'intéressent au sujet des algorithmes et des GAFAM et BATX Je leur conseille le dernier hors série du canard enchaîné qui explique fort bien ce qu'ils font de nos données et comment ils les prélèvent et comment on peut s'en protéger. Je rappelle que le canard enchaîné est un des derniers médias libres qui possède sûrement les meilleurs journalistes de France (le coût des 500 000€ de vaisselles de Micron c'est eux qui l'ont découvert, d'ailleurs ils ont plusieurs fois fait l'objet de mise sur écoute ils expliquent tout ça) Je peux aussi partager les liens des infos sur les inégalités hommes femmes de l'insee pour ceux que ça intéresse
Réponse rapide pour le 4 : si l'algorithme est sensé observer toute la population et pas juste les déjà fichés, avec 1% de faux positifs c'est effectivement 600k personnes qui se retrouvent classés "terroristes potentiels" sans raison. Pour le reste... allez, rapidement : 1) Oui, c'est surtout demander que youtube reconnaisse les influencer, hein. 2) La langue se construit avec le présent, mais google trad maintient cette forme passée. Alors que l'évolution de la langue ne va pas dans ce sens là. 3) On peut supposer que les profils, ayant été générés, sont comparables. Les sources sont listées, peut-être est ce dedans ? 5) Voir sources ?
Oui mais la population entière n'est pas surveillé ex: les enfants les vieillards les handicapés etc Et le 1% est arbitrairement choisi comme exemple il n'en est rien dans les fait comme le faible nombre de fiché 1) je comprends pas ta phrase 2) L'évolution de la langue va dans quel sens ? PERSONNE ne le sait le futur est au futur 3) "on peut suposer" ... sérieusement c'est quoi cet esprit critique naïf 5) oui absolument y a pas de source Et ça c'est pour les inégalité homme femme l'étude de l'insee qui explique les différences au niveau du type de travail , les différences inter et intra poste ainsi que la prise en compte de d'autres facteurs www.insee.fr/fr/statistiques/2128979
Liberdiko elle fait 45min la video tu veux bien me donner l'endroit stp :) et merci pour le lien Ensuite je vais te poser une question : imaginons un algorithme parfait qui prend en compte tous les aspects permettant de détecter à 100% sûre un futur crime comme dans Minority report mais que au lieu de les arrêter on se contente de surveiller et juste tu les empêcher de récidiver si il y a eu une première condamnation ceux dont on est sûre qu'ils vont faire un autre crime ... est ce que parce qu'un des critères de l'algorithme n'est pas politiquement correct et est donc retiré (par conséquence on est plus à 100% et on augmente le nombre de faux positifs) et donc laisserait des criminels agir sans surveillance parfaite ou alors tu oublies le politiquement correct et tu peux protéger la population des futurs criminels ? Que préfères tu ?
Merci pour ce concentré d'enjeux. Quand des gens me disent: "moi je m'en fou de l'utilisation qui sont faites de mes donnés, je ne suis pas un criminel, donc je n'ai rien à cacher", je peux être tenter de leurs répondre un phrase toute faite: "dire ça, est aussi absurde de dire que tu te moque de la liberté d'expression parce que tu n'as rien à dire". Mais la vérité c'est que, et après? Si cette personne me demande alors: "ok, donc qu'est-ce que j'ai à craindre?" et là, la réponse est difficile sans tombé dans des lieux communs, voire des biais cognitifs. Cette vidéo va me permettre de penser à une réponse abordable sans utiliser le mot "algorithme" qui, comme chacun sait, signifie "mot qu'utilise un informaticien quand il n'as pas envie d'expliqué ce qu'il a fait".
Bonjour DATA GUEULE est que vous pourriez faire une vidéo sur la polution des déchets que l'on produit en masse ( industriel, ménager etc) ou une vidéo sur le gaspillage alimentaire
Hello, je fais une thèse en informatique et voyant tant d'incompréhension dans les commentaires face au "1% d'erreur qui génère 600 000 suspects" je vais tenter une explication plus détaillée : Dans l'exemple l'algorithme de détection de suspect analyse les infos de toute la population pour sortir une liste de suspects à surveiller. C'est donc un algorithme de classification à 2 catégories : - "suspect" (positif) - "non suspect" (negatif) La performance d'un algorithme de classification peut-être évaluée par son taux d'erreur. A noter que deux types d'erreurs sont possibles : le faux-négatif (on rate un terroriste en le classant "non-suspect") et le faux-positif (on classe un innocent comme "suspect"). Ici, le taux d'erreur est de 1% (c'est vraiment un super algo, c'est rare d'atteindre un score aussi bon). Donc sur toute la population (60 millions), 1% des individus vont être mal classés. Donc 600 000 erreurs de classification. Parmi ces erreurs, combien sont des faux-positifs, et combien sont des faux-negatifs ? C'est simple : - faux-positifs : 1% des innocents - faux négatifs : 1% des terroristes Mais, du coup, il y en a combien des terroristes en France ? J'ai trouvé 20 000 fichés S en 2015 selon un articlé de Libé (lien à la fin). Prenons donc pour l'exemple : 59 980 000 innocents vs 20 000 terroristes. - faux-négatifs : 1% de 20 000 = 200 terroristes non détectés (et 19 800 bien détectés) - faux-positifs : 1% de 59 980 000 = 599 800 innocents surveillés Conclusion : 600 000 personnes classées "suspect" par l'algorithme, dont 598 000 innocents et 19 800 vrais terroristes. www.liberation.fr/checknews/2017/05/03/combien-y-a-t-il-de-fiches-s-en-france_1652320 Pour mieux comprendre ce genre de calculs je vous conseille la chaîne "hygiene mentale" : ua-cam.com/video/x-2uVNze56s/v-deo.html
Au final le ratio final prouve les dérives de ce système. De plus sur ces soit disant 20 000 fiché S tous ne sont pas terroristes....certain sont des altermondialistes par exemple... Si on fait un nouveau calcul et que l'on établie le nombre de personne surveillé par rapport aux nombres de passage à l'acte alors c'est encore plus un raté... On fait dire ce que l'on veut aux chiffres.
Y'a tellement d'approximations dans cet épisode, c'est à se demander si vous ne devriez pas passer le relais à une IA pour faire l'écriture à votre place.
@@JzelMoniK Elle est fondatrice d'Algo Transparency ... L'asso qui se bat justement sur ces questions, la légitimité ne s'obtient pas que par des diplômes, les galons gagnés sur le terrain comptent au moins autant !
N0Styl également beaucoup d'approximations dans votre commentaire - la première étant que vous n'indiquez pas où elles sont et en quoi sont elles des approximations. C'est la seule façon de faire avancer le débat
Un épisode extrêmement intéressant ! L'intervention de Soline Ledesert est fascinante en terme d'implications politiques et éthiques, ses propos font réfléchir.
"Les algorithmes servent avant tout les gens qui les financent et pas vraiment les populations" .... Merci pour cette brillante analyse. Au passage elle a l'air de confondre "démocratie" et l'égalitarisme. Je dois avouer que j'ai pas vraiment l'utilité de votre invité, elle a enfoncer 15 000 portes ouvertes et a fini par nous faire une belle récup politique a partir de 8:30 a ce moment la autant arrêter, j'ai rien contre elle mais son analyse et sa psychologie de comptoir a je pense rien a foutre la. Le but des mecs de google est pas de faire passer Clinton pour faire barrage a la haine et au populisme mais de faire de l'argent, je trouve ça dingue que dans le monde dans lequel on vis des """""""journaliste"""""" ne puissent pas comprendre ça. Son serment d’Hippocrate pour "data scientist" (utilise un nom français au pire non ?) qui est juste VIDE : le point 2 "transparence" jusqu'a quel point ? envers qui ? comment éviter de se faire voler ces algorithmes si on les diffuse a tous ? le point 3 "équité" : équité de quoi ? faut peut être préciser sur quel point non ? le but d'un algorithme c'est aussi de suivre des tendances et d'y adapter sa réponse le point 4 "respect" ok, respect envers qui ? on matérialise ça comment ? ça veut juste rien dire de nous balancer "respect" sans rien derrière. le point 5 "responsabilité et indépendance" l'indépendance et les responsabilités de qui ? du "data scientist" ? il travaille dans une grande entreprise (en majorité) alors niveau indépendance ça me parait compliqué, les responsabilités ? bah ouai il en a une, celle de faire ce que lui dit son patron. La fin est magnifique, en gros ça la dérange que les entreprises privés qui ont développé et financé les intelligences artificiel en profitent et n'aient pas comme mission prioritaire l’intérêt de plus grand nombre mais de leurs actionnaires, bah ouai, si t'étais pas contente fallait militer pour demander au gouvernement français de te rebalancer un impôt pour financer des algorithmes. Plus sérieusement encore heureux que les entreprises ayant développé leurs technologies en aient l'usage, au passage elle nous sort la notion "d’intérêt général" mais selon qui ? L'intelligence artificiel est-elle vraiment bonne pour l’intérêt général ? elle pensera surement que oui vu qu'elle taff dedans et que ça fait du taff pour elle mais ça va nous causé quelques problèmes de chômage cette histoire. En bref je l'ai écouté avec intention et j'ai juste trouvé ça vide, elle a enfoncé des portes ouvertes, balancé des généralités et a conclu, j'ai pu en tirer aucune idée (sauf son serment inutile et débile). Je trouve le niveau de Data Gueule risible depuis votre rentrée, en espérant que vous vous ressaisissiez, vous nous aviez habitué a de la qualité et ça fait vraiment de la peine de voir ça.
Bonne vidéo sur le font. Par contre il y à ici un paquet d'approximations et d'imprécisions: - Pour les remarque liées aux TAL (traitement automatisé des langages naturels), le problème lié au notamment à la traduction mais aussi a tout ce touche de près ou de loin au problème de mettre une sémantique à une phrase, sont juste mais connues des chercheurs depuis un bon bout de temps. Beaucoup de laboratoires travaillent sur ce problème. - Sur la non divulgation des algos, c'est un problème c'est sûr mais la a part la voie législative au niveau international il n'y a aucune autre solution. - Le coup de "les gens qui créent les algo sont les Data Scientists". C'est un poil réducteur les "Data Scientists" comme on aime les appeler maintenant sont en fait des statisticiens avec une formation en informatique incluant entre autre de la base de données et un peu d’apprentissage automatique(ce qu'on aime angliciser en machine learning). Mais cela oublies les experts en TAL, si les données contiennent du langage naturel, en RO quand on a un problème difficile ou qu'on cherche a optimiser son algo (notamment sur le temps qu'il prends) etc. sinon pour la partie démocratie 7:10 : "Défier les gens qui font des algorithmes..." c'est se voiler la face sur le véritable problème, qui n'est pas les créateur d'algo mais les décideurs, ceux qui définissent le but de l'algo. Les créateur d'algos sont juste des employés comme les autres. Sinon le travail de recherche, journalisme ect est à développer mais el coup de la charte ethique est, à mon sens inutile tant que les patrons en aurons rien a foutre.
Chouette liste d'instructions à 0:37 1)Abonnez-vous à Data Gueule. 2)Cliquez sur "like". 3)Laissez vos commentaires. 4)Consommez sans modération. 5)Parlez-en à vos amis. 6)Revenez quand vous voulez. 7)Si vous lisez ça, vous perdez votre temps. 8)Mais vous faites comme vous voulez. 9)Après tout vous êtes grand. 10)Nous, ça nous fait plaisir. 11)On est là pour ça. Je crois que j'aime bien perdre mon temps.
Wai... Sauf que non en fait... Cette histoire de traduction, c'est ridicule... Cà n'a aucun sens de traduire des critères de recherche dans une langue ou autre... Si je tape "docteur" ou "doctoresse", j'aurais un set de résultat associé directement à ces termes, et pas à "doctor"... Si je tape par contre "doctor", j'aurais des résultat lié à "female doctor" puisque "doctor" en est un sous ensemble... D'après la logique de la vidéo, les "algorithmes" favoriseraient donc les doctoresses... Toujours en suivant la logique de la vidéo: Chercher "american inventors" sur google image nous renvoie la tronche de plein de noirs ayant inventé des trucs anecdotique, mais majoritairement des blancs dans n'importe quelle autre langue. Cà voudrais donc dire que google incite les pauvres petits blancs anglophone à ne pas inventer quoi que ce soit... En réalité, c'est simplement dû au fait que les écoles américaines sont dominé par des idéologues gauchistes obsédé entre autre par la couleur de peau des gens, et donc demandent sans arrêt à leur étudiants de faire des recherche sur les inventeurs noir. L'algorithme de recherche de google a du coup générer une association automatique entre "american inventors" et "african american inventors", puisqu'il était bombardé de requêtes pour le second groupe de mots... Et puis cette association foireuse avec l'élection de trump... Enfin on a pas eu droit aux fameux bot russes cette fois au moins... Les commentateurs politique indépendant sont beaucoup plus à même d'être pro trump que les grand groupe médiatique (les études les plus conservatrice estiment que plus de 80% des articles de presse sur trump sont négatif... www.cnbc.com/2017/05/19/trump-press-coverage-sets-new-standard-for-negativity-study.html ). Or, les premiers sont presque systématiquement démonétisé tandis que les grand groupe sont automatiquement monétisé, mis en avant, et bénéficient de tout un tas de passe-droits...
Quand je tape « doctor » sur Google traduction, ça me met bien « docteur » hein, et pareil quand tu tape « american inventors » ça te mets à peu près autant de blancs que de noirs, je vois pas en quoi c’est défavorable aux blancs qui font une recherche Google, au contraire ça montre qu’il y a de tout chez les inventeurs. Quand à Trump, tu parles des commentateurs politiques, mais en attendant on a bel et bien vu beaucoup plus de Trump sur UA-cam que de Clinton. Trump a beau avoir été beaucoup critiqué, il a surtout eu beaucoup de visibilité et c’est ça que la vidéo critique. De plus, Trump a dit beaucoup de trucs clivants sur lesquels on peut débattre, mais faudrait pas oublier qu’il a aussi répandu beaucoup de fake news et de ragots donc encore heureux que ce genre de trucs soient démonétisés. Et puis pour les grands groupes, ils sont peut-être majoritairement anti Trump, mais en attendant tu peux me dire ce qu’il a fait contre les grands groupes, Trump, au final? Trump, c’est lui même un milliardaire faut pas l’oublier…
Quand à ta source, ça montre bien que 80% des articles écrits sur Trump sont négatifs, mais ça n’indique pas qui fait partie des 80% et qui fait partie des 20%. Si ça se trouve, il y a des grands groupes dans les 20% et des indés dans les 80%, en plus du fait que la source de l’étude de base, c’est Harvard. Paradoxal, sachant que les universités américaines sont dominées par la gauche, non? En plus l’article confirme bien ce que je t’ai dit: les grands groupes ont fait plus de profit grâce à la baisse des impôts instaurée par Trump. De quoi ils se plaignent, en somme?
Et note aussi que j’ai essayé de voir des articles d’autres sites sur cette étude, mais qu’aucun ne donne de lien vers l’étude originale, ce qui fait que c’est vraiment mort pour savoir qui sont les fameux 80%, ni si l’étude est bien foutue, ni même si elle existe vraiment. Je vais continuer à chercher, mais faut se dire que c’est pas parce que c’est relayé que c’est vrai et honnêtement une étude qui montre que au plus fort de la polémique c’était 90%, au plus faible 70%, soit exactement 10% d’un côté comme de l’autre, ça ressemble fort à du doigt mouillé tout ça
(et de nouveau pour les inventeurs américains: si je tape « inventeurs américains » au lieu de « american inventors », ça me met exactement les mêmes images donc ton argument de la langue ne marche pas
Non mais c'est extraordinaire... J'avance dans la vidéo et vous êtes sérieusement en train de nous expliquer qu'il y a un biais conservateur et nationaliste dans les algorithmes, alors que tous, je dis bien TOUS les médias dominants, les canaux de communication, le cinéma, la pop culture n'ont que quatre mots à la bouche : diversité, féminisme, lgbt et holocauste. J'allume ma télé et n'importe quelle pub me rappelle cela, vous vivez dans quel monde ?
Alors tout d'abord, non, tous les médias n'ont pas ces messages à la bouche, loin de là. Fox News est peut-être l'exemple le plus flagrant. Ensuite, ce que la vidéo explique, ni plus, ni moins, c'est qu'un algorithme créé pour mettre en avant les vidéos générant le plus de réactions (bonnes comme mauvaises, sans discernement) parce que ces vidéos permettaient de caser de la pub, a fini par mettre en avant les clips d'un candidat plutôt que l'autre. Donc une machine à pub a fini par faire de la politique.
@@jaimelapolitique349 OK tu m'as cité UNE chaîne américaine qui effectivement penche à droite. C'est simple c'est la seule. Il n'y a aucune diversité d'opinions dans le monde médiatique. Pour le reste j'ai bien compris les lien entre pub et algorithme mais c'est la lecture politique de cette émission que je déplore. Les vidéos UA-cam sur Trump étaient plus percutantes, normales qu'elles soient plus vues et donc plus ciblées. On n'y peut rien si les gens qui les faisaient étaient de meilleurs communicants, sans doute plus intelligents et avec une meilleurs compréhension des systèmes de propagande à l'heure des mêmes. Vouloir mettre à égalité les bons communicants et les mauvais (ceux d'Hillary) pour des raisons politiques, ça c'est malsain, ça nie la dynamique d'un mouvement et ça enlève à la droite dure le seul avantage qu'elle a aujourd'hui pour faire entendre ses idées dans un paysage médiatique complètement verrouillé.
@@Napouille Le figaro, Rtl ( qui est la radio avec le plus d'audience) , France télévisions, et Tf1 penchent à droite. Je ne perçoit pas beaucoup non plus de lgbt, de féminisme à la radio ou la télé. Pour la diversité je veux bien, mais dans tous les cas, ce qui est diffusé et ce qui est appliqué dans la réalité peuvent différer.
Assez déçu par cet épisode. L'argument assez malhonnête des 1% et des problèmes qui n'en sont pas. L'histoire des mots neutres à traduire, il faut faire un choix du genre en français et si le masculin l'emportait par défaut il y aurait une autre polémique. Se baser sur des données passées réelles semble un bon compromis. Pour les crédits, je pense que l'algorithme qui se base sur de vraies données sera plus juste que le banquier qui voit arriver le "pauvre dans sa misère" et qui aura un jugement biaisé (volontairement ou non) par l'apparence. Pour les élections c'est pareil, si Trump apparaissait plus souvent c'est parce que les gens en parlaient et le recherchaient d'eux-mêmes. S'il y a plus de vidéo de Trump avec chacunes plus de vues ça me semble normal qu'il apparaisse, et créer arbitrairement une parité dans les suggestions ça passerait aussi pour de la censure.
Au contraire c'est tout l'inverse que de ne pas proposer une pluralité de possibilité .... si tu cherches le mot nurse, l'algorithme devrait pouvoir te proposer la possibilité d'infirmière ou de neutre, c'est un pb de langage que l'ordinateur peut régler en te proposant plus de possibilités. Pour Trump c'est pareille si on te gave de vidéos parce qu'elles font buzz pour d'autres personnes, on finit par un point de convergence sans entrevoir qu'il y a d'autres candidats, mais voilà rentabilité oblige si le curseur flanche en faveur de la génération de revenu publicitaire plus importante chez Trump parce qu'à la base il "choc", il finit tristement par en devenir la règle au yeux d'autre qui n'iront pas chercher plus loin. Au final les élections sont influencées. C'est très complexe et malsain, ce qu'on peut retenir c'est qu'encore une fois la loi du marché s'applique encore plus sur internet et qu'il faut faire attention car il y un gros manque de législation si l'on devait comparer à la vie réel (même si ici aussi il y a des manques).
@@neomorphosallomorphis7395 bien sur que non, mais tu participe à ce qu'il soit plus connu et plus omniprésent, selon le fameux adage publicitaire: plus on parle d'un produit (en bien ou en mal) mieux c'est !
@@neomorphosallomorphis7395 Tu pourrais voir ça comme un mélange entre l'activité neuronale et la peur de l'inconnu. Je m'explique : plus une connexion est solicitée, plus une association est faite, plus elle devient facile d'accès. Te surcharger de vidéos sur un sujet va rendre, au moins, ce sujet moins inconnu pour toi. Pas forcément agréable, mais pas inconnu. Puis, viens le moment de voter, et pour des gens qui n'ont pas pris le temps d'étudier les enjeux politiques, deux facteurs vont entrer en jeux, un attractif et un répulsif. L'instinc tribal d'appartenance (celui sur lequel joues nos politiciens, par exemple lorsque Macron a lancé une écharpe du PSG à des marseillais comme un lapin à une meute de loups, nourrissant symboliquement la colère des gens en se mettant et s'affichant de leur côtés, au moins à leurs yeux) est l'attractif. La peur de l'inconnu (le fait de rester dans des schémas que l'on connait, et qui même s'ils sont néfastent, nous gardent en vie, alors que l'inconnu peut nous tuer) est le répulsif, en défavorisant les connexions et associations les moins solicitées. Donc, si tu regardes des vidéos sur Trump, tu seras surtout anti-Hilari :) Mais il y a un autre problème, qui est qu'un algorithme vient optimiser selon des critères, et que dès qu'il y a sélection, il y a moyen de tricher…
DataGueule oui Mais propagande et grille de lecture dans ma gueule, non. En bref, c'était mieux avant cette série. Chaque épisode n'est que plus politisé que le précédent. C'est dur à regarder.
C'est vrai que ces personnes auraient pus nous parler de l'utilisation du big data durant les présidentielles, il existe des exemples très concrets comme macron et l'entreprise LMP. Mais bon, c'est plus simple de lâcher un petit "populisme" à la place.
J'aime beaucoup Datagueule mais ça fait plusieurs épisodes que je trouve de plus faible qualité. Je ne sais pas si c'est volontaires dans un but propagansdiste ou involontaire mais les vidéos sont remplies d'erreurs, de fautes et de données incomplètes. Vous y mettez des informations sans citer vos sources, dans la description ou dans la vidéo. Ce problème se ressend particulièrement avec l'exemple de la NSA qui placerait des terroristes présumés sur "Kill List" simplement car une IA leur a donné le nom. Une recherche de 30 secondes sur Internet m'a permis de tombé à la fois sur le rapport d'ArsTechnica qui doit certainement être votre source ainsi qu'une analyse du Guardian. On peut facilement y lire que la réalité est très loin du scénario que vous dressez dans la vidéo. Et ce n'est qu'un exemple rapidement trouvé, il y a en d'autres comme le fait de ne pas citer que la personne interviewé est fondatrice d'AlgoTransparency, la répartition homme/femme dans certaines formations, l'exemple de l'étude sur l'inégalité face aux offres d'emploi que vous avez totallement biaisé. N'avez-vous pas compris le rapport et les articles et les études en question? Essayez-vous de nous manipuler? De plus, vous interviewez systématiquement des personnes aux profils non-techniques qui, amène certes une vue éthique parfois intéressante mais qui ne maitrise pas assez le sujet, ou sont trop biaisé. Le débat dans la communauté des scientifiques et ingénieurs qui sont aux premières loges dans la création de ces outils est puissants, c'est dommage que vous ne vous en faisiez pas l'écho. Enfin sur le sujet des algorithmes en lui-même, j'ai l'impression, fondée ou non, que vous ne comprennez pas vraiment ce qu'est un algorithme, comme il est construit et dans quel objectif. Vous mélangez dans cette vidéo tellement de types d'algorithmes que cela rends la lecture complèment indigeste. J'ai sincérement eu le sentiment d'être manipuler dans cette vidéo. J'espère que ce n'est qu'un sentiment... En espérant que la prochaine vidéo représente un meilleur travail journalistique.
Je viens de regarder 45 secondes de vidéo et y'a déjà une boulette "Si le résultat est bon l'algorithme est efficace" Non, on peut faire une suite d'opérations compliquées pour parvenir a un résultats simple, mais si on peu obtenir le résultat avec moins d'opérations moins compliqués, alors c'est ce second algorithme qui est efficace.
Bonjour, je suis ingénieur logiciel et en intelligence artificielle, et je pense que vous confondez "Algorithme", "Machine Learning" et "Intelligence articielle". Pour faire simple, le "Machine Learning" est un type d' "Intelligence Artificielle" qui est un type d' "Algorithme". Le problème de votre vidéo est que vous mettez tout dans le même panier : la plupart des algorithmes sont purement inoffensifs, par exemple certains servent à transmettre cette page web, d'autres à l'afficher, d'autres encore à encoder la vidéo youtube. Le problème du machine learning (qui est gros, un algorithme de tri un peu complexe) est son caractère imprédictible: il évolue en fonction de ses données d'apprentissage (d'où le "learning") et il se créer des règles incompréhensibles pour un être humain. Donc on ne peut pas totalement prévoir comment se comporte un tel algorithme. Bref, je ne vous reproche pas de dénoncer les limites de l'utilisation du machine learning (quoique certains de vos exemples sont un peu tiré par les cheveux), mais je vous reproche d'entretenir la peur qu'on les gens à propose de l’algorithmie, de l'intelligence artificielle, et plus généralement de l'informatique. PS : Je trouve que la personne interviewée manque clairement d'objectivité. Si je prends l'exemple de Google, l'accès à des services gratuits qui coutent relativement cher (recherche, stockage des données, maintiens de serveurs, accès partout dans le monde) sont couvert par la pub que vous voyez. Est ce que vous préfèreriez ne pas avoir de pub et payer 25€/mois votre utilisation de google ? Je ne pense pas. Ensuite Google est relativement transparent sur les données qu'ils ont sur vous, et vous pouvez tout à fait désactiver et supprimer ces données : myaccount.google.com/. Et enfin, pourquoi ces algorithmes ne sont pas publics ? Pour la même raison que n'importe quelle entreprise ne veut pas dévoiler son code source : parce que cela représente énormément de recherches et développement et que Google ne veux pas que d'autres entreprises copient son travail gratuitement. Bref, j'aurai préféré voir quelqu'un qui connait bien son sujet et la technique sous-jacente, plutôt qu'une journaliste qui semble beaucoup extrapoler sur ce que sont les algorithmes. Parce que quand j'entends "Il devient urgent d'apprendre à contester et à défier les gens qui font des algorithmes", pardon mais c'est de la pure bêtise. Et le coup de "Est ce que c'est vraiment intéressant d'utiliser une algorithme ici plutôt qu'un être humain", entre une machine qui fait un travail gratuitement et parfaitement en quelques millisecondes et un être humain qui ferait le même travail en un an avec salaire et des erreurs humains potentielles, le choix est vite fait. PS2 : Je pense ne pas avoir entendu une seule fois le mot "Machine Learning" (ou "Apprentissage Automatique" en française), ce qui est quand même un comble pour une vidéo qui traite exclusivement de ce sujet.
Même si c'est très bien expliqué au début de la vidéo, dans la partie en infographie, je tiens juste à préciser pour les gens qui ne le sauraient pas que lorsque Mme Ledesert parle "des gens qui font des algorithmes" ce n'est pas une appellation représentative de ce qu'elle veut réellement dire. Parce que des gens qui font des algorithmes sans faire quoique ce soit de potentiellement discriminant ou touchant à du big data, il y en a plein. Par exemple, une personne programmant un automate sur une chaine d'assemblage ou développant l'IA des ennemis d'un jeu vidéo _est_ une personne qui fait des algorithmes, mais qui n'a rien à voir avec le sujet présent. #pasdamalgame :P
Je tiens à ajouter un point technique qui me paraît très important par rapport au sujet. La majorité des algorithmes d'intelligence artificielle utilisés par les fameux GAFAM reposent sur du Deep Learning. Sans entrer dans les détails, sachez que même pour les data scientists qui les mettent au point il est extrêmement difficile de comprendre comment ces algorithmes raisonnent. On connait les données qu'on leur donne et le but à accomplir. On sait qu'ils sont capable d'atteindre le but avec un taux d'erreur ridicule par rapport à celui d'un humain. Mais ce qui se passe entre l'entrée et la sortie est très flou.
Je n'ai pas du tout aimé cet épisode et voilà pourquoi. Il est naturel de se méfier de ce qu'on ne comprend pas et beaucoup de personnes se méfient déjà part défaut des algorithmes (on a le même phénomène avec les antivax). Or cette méfiance me semble néfaste. Il y a deux champs possibles d'application des algorithmes: le big data et le reste. Pour ce qui est du big data, on ne peut pas faire sans algorithme. La question n'est donc pas de savoir s'il faut utiliser des algorithmes ou pas. Il faut. Le but de youtube n'est pas d'être juste, le but de youtube est de faire de l'argent. Le problème des suggestions youtube serait exactement le même si elles étaient données par des humains. C'est ça le vrai problème. Dans le reste, vous donnez l'exemple de l'allocation des places dans une crèche. Sincèrement, avoir deux personnes qui décident sans supervision des happy few me semble une très mauvaise idée car non seulement elles peuvent décider de faire passer le dossier de leur copine avant mais les critères de sélection ne seront pas les mêmes au cours de la journée. Il semble que les remises de peine accordées par des juges sont beaucoup plus fréquentes quand ces derniers sont reposés et n'ont pas faim¹. De mon côté, je suis enseignant chercheur en informatique et je sais que je ne note pas de la même façon les premières copies d'un paquet que les dernières. La fatigue joue beaucoup. Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs. Un autre intérêt des algorithmes est qu'ils forcent à se poser des questions qu'on évite soigneusement autrement. Un exemple parfait est celui des voitures autonomes. Si on ne peut pas éviter un accident, vaut-il mieux tuer 4 personnes âgées ou un adulte qui tient la main à ses deux enfants ? Bref, oui, les algorithmes ne sont pas parfait et il faut les étudier sérieusement mais les blâmer pour un résultat qui ne nous plaît pas, c'est comme se plaindre qu'un couteau a été utiliser pour poignarder quelqu'un. ¹ sciencetonnante.wordpress.com/2014/12/08/mefiez-vous-dun-juge-affame/
que dire que ta phrase "Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs" ... les algorithmes s'écrivent tout seuls? ils naissent de rien tel des divinités?... ah ben non, ils sont écrit par des humains, oui oui ceux qui ont des biais inconscients, et qui codent surement leur biais dans leur algorithme...
@@Arkula100 Le machine learning n'a pas de biais et ne peut devenir biaisé que si tu lui donnes un paquet de données volontairement biaisé or pour bien faire les choses tu donnes du random donc 0 biais.
@@sandrawhy1380 Avez-vous lu mon commentaire. J'enseigne l'algorithmique à la fac ! Et dans ma liste de publication, j'ai quelques algorithmes. Donc oui, je sais.
Pour une fois je trouves votre vidéo assez mal faite, peut être que je l'ai mal comprise mais je vais essayer d'expliquer pourquoi : -Bon déjà petit détail qui ma fait rire c'est que vous critiquez la traduction de Google en disant qu'il traduit nurse par infirmière et que ça renforce des idées sexistes et juste après vous dite "les infirmières des femmes" au lieu de dire les "infirmiers des femmes" c'est exactement ce que vous reprochiez à Google juste avant. Mais bon je m'en fous c'est des détails. -apres vous parlez des faux positifs en prenant 60 000 000 de personnes soupçonnées ce qui est un nombre totalement irréaliste car si on prends l'exemple de la france je doutes fortement qu'il y ait plus de 200 000 terroristes potentiel sur ces terroriste potentiel l'algorithme en prends une partie plus ou moins grande et fait 1 % de faux positifs sur cette partie, alors je doutes fortement que 60 000 000 de terroristes detectés même dans le monde soit réaliste. De plus 1% de faux positifs c'est assez mauvais pour un algorithme mais c'est toujours mieux que les humains c'est donc un argument pro algorithme que vous donnez. - 4:05 "les biais et les clichés des années passées sont confortés" un algorithme bien fait n'est pas censé avoir de biais et encore moins de clichés qui est totalement humains. Un algorithme se base sur des données sur la récidive qui sont des faits et qui n'ont RIEN À VOIR avec les clichés et biais humains (bon j'ecrirai peut être la suite plus tard parceque la j'ai pas trop le temps mais voilà en gros ma critique constructive)
Pourquoi devrait-il s'abstenir ? Il a tout à fait raison... Beaucoup d'émissions comme DataGueule ont lancé une sorte de tir groupé contre les "grands méchants" algorithmes, et propagent des idées biaisées sur leurs sujets. Il est bon que certaines personnes remettent les pendules à l'heure, et ce même si l'intervenante qui prend le micro de DataGueule a tout à fait raison de demander de la transparence dans les algorithme (au minimum lorsque cela concerne le service public).
9:47 : je ne peut pas vous signer ça. l'indépendance, c'est impossible dans la majorité des cas, il est exceptionnelle de ne pas travaillé pour quelqu'un dans se domaine. la transparence, dans le privé, c'est du suicide. c'est un peut comme travailler aussi pour les concurrents. "équité et respect", ça veut tout et rien dire.
Je ne suis pas d'accord avec votre analyse de la transparence : d'innombrables systèmes "Open Source" (matériels et logiciels) sont utilisés à travers le monde, et pourtant on arrive à gagner son pain avec.
Heureusement que tous les gens qui émettent des réserves et avancent des arguments (parfaitement censés) à l'encontre du raisonnement de votre vidéo ne vous mettent pas des pouces rouges.
Je trouve que cette problématique est mal placée, les algorithmes ne sont que des outils que nous utilisons, comment pouvons nous tourner la problématique autour de l'outil algorithmique alors que ce sont leur créateurs qui y sont maître ? J'aimerai également mettre en avant mon abid par rapport à la partie data science et à l'image que vous y associez, accrocher des affiches de ventes d'articles scolaire devant une école est également fait pour le gain, afficher des publicités orientées réservation d'hôtel pour Quelqu un qui cherche à voyager est également pour le gain, le soucis ici c'est que pour pouvoir fournir des pub aussi bien visées, il faut les donnés des utilisateurs, sachez que nous sommes responsables que ce qu'on nous prend, quand vous téléchargez une appli, on vous spécifie quelles données seront utilisées (On ne vous dira pas pourquoi mais vous savez ce qu'on vous prend) vous êtes de ne pas installer Windows par exemple et d'installer un système d'exploitation libre sur lequel on ne vous prend pas vos données (linux). Dans un monde où les compagnies ne jurent sue par le gain c'est à nous de savoir où se trouve notre responsabilité. Pour moi Quelqu un qui utilise un "algorithme" qui prend vos données, vous le savez et ralez après...désolé mais là responsabilité vous incombe.
Je suis dev, data scientist en herbe, et je regarde #datagueule depuis longtemps. Depuis des annees les logiciels libres/open source et les licences proprietaires. Je crois que les IA ont un grand destin et nous serront tous la pour voir google renaitre. Je parle bien de google car ils ont deja beaucoup d'avance avec les ordinateurs quantiques. Bref pour ceux qui ne savent pas de quoi je parle : l'opensource c'est bien et on devrait s'interesser a Richard Stellman (qui parle francais et a "cree linux") beaucoup plus que Bill Gates qui vend 80e la licence (inclu a l'achat). On sait pertinemment que l'open source est plus sur et plus optimise. (dsl les accents). Sachez que aujourd'hui, n'importe qui de motive et un minimum bon en maths peut devenir data scientist a la maison. En revanche tout le monde n'a pas forcement les moyens de se payer le matos pour bricoler un data center
Merci pour vos vidéos toujours très intéressantes et bien faites... Je sais que vous avez abordé à de nombreuses reprises, les financements de l'état, les banques, etc... Mais vous serait-il possible de faire un épisode dédié à la dette publique (ses mécaniques, son évolution du fait de l'europe, etc...) Merci
03:00 pourquoi ne pas parler de l'échantillon ? Les deux groupes de sujets avaient-ils les mêmes compétences ? + J'aime bien le 404 sur le lien qui redirige vers les sources de l'épisode, très pro
Le lien des sources est cassé ! Un épisode très intéressant, mais je pense qu'il pourrait être un début de série sur l'impact des algorithmes sur nos sociétés, je pense que le sujet est bien plus important qu'on pourrait l'imaginer. Là l'inégalité reste un sujet introductif, il serait possible d'approfondir en fonction des domaines. Par exemple, un sujet intéressant serait d'analyser en profondeur l'aspect sexiste des algorithmes, quel sont ses impacts, comment peut-on le changer etc etc.. Là on a juste quelques infos montrant qu'un algorithme peut l'être mais c'est assez superficiel.
Le biais d'une prise de décision qu'elle soit humaine ou algorithmique est toujours présent, l’intérêt de l’algorithmique est qu'il est parfaitement analysable et modifiable car écrit noir sur blanc, ce qui est tout une autre histoire pour les décisions humaines ...
Il y a quand même une méconnaissance du sujet au niveau technique par votre intervenante. Un exemple simple, vers les 8:30 , l'intervenante confond le concept d'algorithme avec son exécution. Les deux personnes qui vont décider de donner les places en crèche, que vont elles faire ? Appliquer un algorithme pardi. Les dossiers devront toujours être classés suivant des critères bien Definis...
Dans le sens de cette video, je conseille vivement la lecture du livre de Alexandre Laumonier « 6/5 » , editions Zones Sensibles. Cet essai décrit l’existence d’un algorithme et à quel point ils ont pris le controle de nos vies. Les noms des algorithmes existants (et réels) sont assez glaçants : Guerilla, Shark etc.
Très bonne vidéo, sur un sujet de plus en plus important ! Petite note: Google Traduction a changé il y a quelques jours, maintenant nurse renvoit infirmiere et infirmier (dans cet ordre) monosnap.com/direct/JeURLCUPnpSeM4yJQPEIExBbqs9baE Il aura fallu de nombreuses années avant d'avoir cette mise à jour ! Cela marche pour tous les noms auparavant genré au masculin par défaut
Pourquoi ne pas inviter un spécialiste ? Cette personne a bien fait son exposé, mais l'avis d'un ou une expert aurait été plus judicieux qu'une journaliste. Sur cette épisode vous avez un peu tout mélangé, l’algorithme est un mot vaste au meme titre que l’intelligence artificielle, il y a des raccourci facile et pas forcement très juste. Des corrections et un avis d'un chercheur ou d'un dev serait le bienvenue. Très belle réalisation ceci dit !
Ouaaah la coincidence!! :) La nouvelle chaine "craft" a sortie une premiere video, il y a deux jours, traitant presque du meme sujet !! :O Sinon encore une vidéo de qualité de votre part !! Coeur sur vous ♥
Tiens, je suis allé sur google translate, et la traduction propose maintenant les 2 genres. Donc "éternel présent", je ne suis pas trop d'accord ! Il est a noté d'ailleurs que c'est le principe même des algorithmes d'APPRENTISSAGE que d'APPRENDRE au cours du temps ! Donc si les inégalités diminuent au cours du temps, les algos l'apprendrons, et il est également facile d'accorder plus de poids au passé récent... Un autre point : un algo n'est pas intrinsèquement sexiste ou raciste. Il n'est que le reflet d'une société, ne serait-ce pas là un moyen de d'exposer ses discriminations au grand jour et ainsi d'agir en conséquence ?
L'objectif d'un algorithme aussi généralisé que ceux du GAFAM et GATX devrait être de combler le plus de besoins de ceux qui en ont le plus le mieux possible et la plus grande quantité possible. Je serais curieux de voir le résultat.
Vidéo intéressante. A développer. Les algorithmes ne sont pas parfaits certes mais cela fait 'peu' de temps qu'on a commencé à en créer. On apprend plusieurs mois après que UA-cam et Facebook ont favorisé Trump. En espérant qu'ils corrigent erreurs pour les prochaines élections. Les algorithmes sont une bonne idée, mais ils les faut plus démocratiques, régulés, plus éthiques (comme cela est dit dans cette vidéo)
4:49 Suis-je le seul que le titre "Web designeuse" choque ? Est-il nécessaire de rappeler que "Web Designer" est un terme anglais et qu'il n'est pas à accorder en genre ?
Vraiment datagueule, je suis de plus en plus étonné de la pertinence de vos sujets. Ou est-ce moi qui ai changé mes preoccupations au gré des urgences ? Je me posais la question il ya quelques jours de savoir si l'utilisation d'algorithmes pourrait servir le peuple à travers un système politique.. Je pense tout comme vous. Mais je suis toujours effrayé de penser au plus malsaines des utilisations. Restez aux aguets
Il faut développer le libre ou au moins l'open source ! Il faut en parler, c'est une réelle arme pour défendre la démocratie. Les logiciels libres concurrencent les grosses boîtes, sont transparentes en ce qui concerne leurs algorithmes et gratuites pour tous. De plus tous le monde est appelé à contribuer à l'amélioration de ces logiciels. Mozilla firefox, linux, VLC... il y en a énormément qui marche très bien et qui ont déjà conquis le marché.
Très bonne vidéo lorsque j'ai vu le titre j'ai eu peur que vous tombiez dans une opposition dogmatique comme vous l'avez fait avec le geoengineering. Mais j'ai été agréablement surpris de voir une vidéo qui exposait les danger et les avantages des algorithmes. Si je devais faire une critique a cet épisode (et c'est valable pour une majorité d’épisodes) c'est que je trouve qu'il y a peut de temps passé au solution possible.
Très bonne vidéo, mais j'avoue que l'exemple de google translate je le trouve un peu wtf, c'est pas tant une quetion d'algorithme que juste de langage quoi
En plus, c'est pas comme si il y avait une seule traduction proposée. Si il y a plusieurs traduction, elle sont écrite en dessous de la zone de traduction en forme de liste.
Il faut plus voir cela comme un exemple vulgarisé, facile a se représenter et donc a comprendre par une audience qui n'est pas forcément familière avec le principe du machine learning. Ce qu'il faut comprendre avec cet exemple, c'est que si l'on utilise des données passées qui présentent un biais manifeste (dans notre cas, le fait que les médecins étaient majoritairement des hommes) ce même biais ressortira alors de l'apprentissage et donc des résultats de l'execution de l'algorithme.
Propagande égalitariste tout simplement. Ils veulent faire du forcing a casser des soi disant code créer de toute pièce alors que leur origines sont innées.
Attention François, là tu reprends un des biais de la vidéo. Les médecins *sont* majoritairement des hommes (et, en France au moins, ils le seront encore pendant quelques années). Et pour ma part, je ne connais personne qui emploie le mot doctoresse au quotidien : les gens disent qu'ils vont "au docteur"... bien que de genre masculin, c'est une appelation neutre qui ne nous permet pas de savoir le sexe du docteur qu'ils vont voir (et d'ailleurs, on en à rien à faire : ce n'est pas comme si le diplôme d'un homme avait moins de valeur que celui d'une femme, ou réciproquement). Du coup, on peut bien dire que l'exemple est wtf, car il n'a de sens que si on partage son propre biais : ça ne marche que pour le genre de personnes qui pourraient croire que l'écriture inclusive est un progrès, par exemple.
J'ai fait la découverte de Bayes Impact récemment, une ONG qui utilise le Machine Learning pour permettre aux demandeurs d'emplois d'être mieux orientés. Algorithme open source, véritable désir d'apporter un impact positif via l'utilisation de la technologie. Bref je vous conseille de jeter un coup d'œil au documentaire sur son fondateur : "le rêve de Paul Duan"
Je suis développeur informatique, et je fais régulièrement des algorithmes. J'ai travaillé pendant 4 mois pour une boite qui gère les données des cartes de fidélités de grands magasins, et la lecture des demandes me choquais : - Nous allons faire cette action car cela touchera tel sentiment etc... J'ai démissionné au bout de 4 mois, et j'en suis ravi :)
Bravo à vous d'avoir démissionné par conviction 👍
Est-ce que vous pourriez préciser des exemples de ce qu'ils demandaient - si cela reste possible sans rompre le secret professionnel - ?
@@Nalojuntu merci en fait, ce n'etait pas des algo très poussés pour être clair, mais par exemple j'avais des phrases du genre:"pour jouer sur le sentiments d'exclusivité nous enverrons un courrier pour l'anniversaire de la personne"
Et il y avait tout une liste avec le sentiment touché et l'action à mettre en place.
Ce type de manipulation (qui est d'ailleurs plutôt grotesque et pas très fine) me gênait quand même...
Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir. C'est beaucoup plus simple pour moi de démissionner et trouver un autre travail que pour beaucoup.
"Je tiens à préciser que j'ai la chance d'être dans un filière sans problème de travail, et que j'ai la chance de pouvoir choisir."
Mouais. De mon expérience personnelle, une grande majorité des choix sont justement des emplois ou on nous fera ce genre de demandes. On fait de la publicité, on aide des lobbys à diffuser leurs propagandes, on collecte à l'aveugle des données sur les utilisateurs... j'en ai fait, moi, des entreprises, avant de comprendre que la seule solution était de changer de métier.
C'est pas pour rien qu'on a pas de problèmes à trouver du travail. Nous sommes les premiers ouvriers de la machine de propagande de l'ordre capitaliste.
@@vivienm.3580je partage tes propos, après 15 ans de consultance, j'ai dit basta, plus moyen de participer à ça. Aujourd'hui je plante des arbres, des légumes et m'occupe de mes enfants.
De même, j'ai refusé un devis pour cela...
Vous auriez clairement du préciser que la personne interviewée était co-fondatrice d'AlgoTransparency. Car en voyant sa présentation "Journaliste & Web designeuse" j'avais vraiment du mal à voir sa légitimité pour parler du sujet.
L'argument d'autorité, bien ancré dans nos moeurs
@@corentinhembise t'aurais mieux fait de te taire
@Atrid On va dire que c'est un argument qui est bien sur quelque chose qui appuie une proposition, mais effectivement elle est souvent surestimée.
@@corentinhembise Je suis désolé mais je ne comprends pas du tout ce que tu as voulu dire ?
Sérieux @corentinthembise ? Nous n'avons pas la même définition de la chose ; mais s'il y en a beaucoup comme toi on comprend mieux sa modestie...
Je suis en dernière année dans une grande école publique qui nous forme à devenir Data Scientist. Dès la première année, nous avons fait, en cours, des exercices à travers lesquels nous devions calculer le nombre de personnes qu'une entreprise devait licencier pour optimiser ses revenus. Un bien beau programme...
Je suis convaincu que la data science peut permettre de rendre le monde meilleur, comme on a pu le voir dans la vidéo avec l'algorithme qui permettrait de faire connaître à des gens leur droit à accéder à des aides sociales qu'ils méritent. Il y a surtout un souci à la base. Il est très difficile de trouver de telles missions. Étant en dernière année, chaque étudiant de ma promotion doit trouver un stage de fin d'étude qui débouche dans 80% des cas sur un CDI. J'essaie tant bien que mal de chercher ce stage dans une entreprise, ONG ou institutions qui me permettrait de faire de la data science dans un contexte qui pourrait permettre de rendre le monde meilleur. Même si j'en trouve, elles n'ont en général pas de place pour un stagiaire. Pendant ce temps, quasiment quotidiennement, nous recevons des offres avec de beaux salaires de groupes comme Nestlé, HSBC ou Total ou de cabinets de conseils travaillant pour eux. N'ayant pas de cours d'éthique de la donnée et ces groupes cachant suffisamment bien du grand publique leurs actions moralement répréhensibles, la très grande majorité des gens de ma promotion va alors travailler pour eux et permettre à ces groupes de créer des algorithmes dont la vidéo parle en ne cherchant pas plus qu'à répondre au cahier des charges fixé. Quand j'en parle avec eux, je pense juste qu'ils ne se rendent pas compte du mal que cela peut causer et la paie qui va avec leur laisse à penser que le mal qu'il font ne peut pas être aussi horrible. J'espère que je pourrai travailler dans un contexte en accord avec mes idées mais plus le temps passe, malgré mes recherches, l'absence d'offres éthiquement correctes me fait peur et j'ai bien peur qu'à mon tour, en dépit de mes convicitions, je n'aurai pas d'autre choix que de travailler un certain temps pour ces grands groupes.
Comme partout, c'est dur de faire un travail qui rentre en accord avec son éthique personnelle. Parce que le boulot y en a dans des boîtes qui ont des thunes, et ces boîtes ont des thunes parce qu'elles sont pas éthiques ! Après entre la voie de la facilité et la galère en bonne conscience, pas toujours facile de choisir...
Salut Le Chat, as-tu regardé du coté de l'Open source ? Il y a de nombreuses sociétés et fondations qui, je pense, recherchent des data scientists. Genre Framasoft, la Quadrature du Net, Mozilla,...
Pour cela, il existe un programme d'Entrepreneurs d'intérêt général au sein de l'Etat : entrepreneur-interet-general.etalab.gouv.fr/ . Mais aussi de "start-ups d'Etat" : beta.gouv.fr/ qui cherchent justement des profils pointus.
@@thomaslegluher4241 Comme disait PNL, "Riche dans l'haram ou pauvre dans l'halal alors choisis vas-y dis-le"..
Il y a aussi la possibilité de travailler à la mise en place d'un système tel que ce serait bien l'intérêt général qui prévaudrait (et où tu serais rémunéré en fonction de ta contribution à l'intérêt général). C'est ce que je fais. Bien sûr, ça ne suffit pas à résoudre ton problème à court terme, mais c'est ce qu'impose ton éthique ! Voir mes vidéos sur l'économie (par exemple : ua-cam.com/video/am1UUqhY_Dw/v-deo.html) et mon commentaire de ce matin ici, et/ou se renseigner sur l'ucratie !
Une perle en terme de recherche, de rédaction ainsi que le travail au niveau du rendu visuel. Continuez le bon boulot et au plaisir de regarder les prochaines vidéos à venir.
C’est marrant que vous parliez du genre dans Google Traduction, par ce que justement , y a pas longtemps, il a changé et il propose maintenant directement les 2 genres !
Si tu demandes la traduction de "nurse", il te propose bien "infirmière" et "infirmier" !
Comme quoi, tout n’est pas perdu, et les algos peuvent être améliorée quand on prend conscience de leurs biais :)
C'est énervant que dans tous les commentaires vous n'avez pas compris le message essentiel de la vidéo : la légitimité des algorithmes n'est pas remis en question, d'ailleurs c'est valorisée en médecine.
Ici, c'est le fait que ce soit des humains derrières qui les façonnent ! Et qu'en laissant de manière non démocratique et débattue, le poids des algorithmes prendre de l'ampleur sur nos vies, ce sont les idéologies sous -jacentes qui ne sont pas discutées ! Tout ça pour du profit ! Même si c'est non voulu à la base, le fait de ne pas remettre en question les postulats des algorithmes, comme ceux des lois ou des indicateurs de type PIB etc... C'est se laisser portet au gré des préjugés !
Enfin un qui a compris la même chose que moi...Les gens s'arrêtent sur des détails pour étaler leur connaissance mais passent souvent à côté du problème de base. Alors content de voir que d'autre ont compris la même chose que moi.
@@samsara5996 voilà pourquoi on fonce dans le mur. Quand on croit savoir sans se dire que l'on ne sait pas on continue tout droit jusqu'au mur
Je suis actuellement étudiant dans un master en Intelligence artificielle et je suis bien content que nous soyons sensibilisés à tous ces biais potentiels !
Excellent taff, comme d'habitude !
Pour ceux que ça intéresse, les algorithmes de machine learning utilisés le plus fréquemment dans l'industrie sont quasiment tous publics. En voici quelques uns :
- régression linéaire
- régression logistique
- réseau de neurones
- machine à support vecteur
- K-means
- détection d'anomalies
- système de recommandations
Et ils sont open source, disponibles entre autre dans la librairie Python Scikitlearn.
8:45
Ah donc en fait les algorithme si pas bien ça fait monter le populisme ? Le constat n'est il pas plutôt "Les dirigeants approuvés par l'oligarchie ne feraient ils pas monte le populisme au vu de leur médiocrité"
Les dirigeants sont très souvent perçus comme médiocres et aujourd'hui font très souvent monter le populisme. Il y a simplement que le phénomène est accentué par des intérêts privés et pour des intérêts privés.
@@carpenter3816 Oui et non. Je ne suis pas sûre que la minorité aujourd'hui qui scande le retour de de Gaulle soit vraiment pour un candidat populiste, candidat qui ne devra pas l'être s'il veut s'appuyer sur cette minorité, qui est parfois une majorité d'ailleurs.
Le populisme et l'amateurisme risquent d'être de simples erreurs de l'histoire quand on s'apercevra que les technocrates font le travail le plus efficacement
Tout ce qu'on peut reprocher aux algorithmes on peut le faire à la presse, sauf que cette dernière nous influence souvent consciemment, dans un but politique ou financier (cliquer plus).
Je ne suis pas d'accord, derrière la presse il y a des humains qui analysent la situation, essayent de comprendre ce qu'il s'est passé pour permettre de se forger une opinion dessus.
L'algorithme, et je parle principalement du machine learning, se base sur des donnés passé qu'il prend pour de vérité universels. L'homme n'est (pour le moment) pas égalitaire, et les données que l' on donne aux algos ne le sont donc pas non plus. Pourquoi espérer alors avoir un resultat egalitaire.
La presse, tout comme chacun de nous, ont une capacité d'analyse. Une sorte de conscience de soi et de recul sur la situation pour essayer de saisir toutes les nuances d'une situation. Un algorithme non, il se contente de suivre les données qu'on lui fourni. Ce manque de jugement et de souplesse est même dans la définition. Même si certains médias sont orienté, on ne peux pas les comparer aux algorithmes qui restent des machines bonnes en statistiques.
@@epickiwi8318 Les algorithmes en se basant sur l'ensemble des données ne peuvent qu'être plus objectives et il n'y aura jamais une intention derrière, le "humains qui analysent la situation" s'applique de moins en moins sur l'information-réseau sociaux où les gens prennent juste le temps de lire le titre voire des mots clés de l'article qui outrance souvent la situation de base, si on cherche des algorithmes qui font vendre effectivement la situation empirera, par contre des algorithmes qui cherchent à informer le plus sobrement possible, ça ne pourra que faire du bien en obligeant les journalistes humain à un concours de qualité et non de faire le plus économique possible.
Certes, c'est vrai pour les médias des réseaux sociaux mais là c'est plus notre problème en tant que lecteur d'essayer de creuser plus profond que de simplement lire le titre. Par contre, ce qui est montré dans cette vidéo c'est que les algorithmes sont des grandes machines statistiques. Même si tu donne 3 Zo de données a un algorithme de Machine Learning, si 70% des données sont inégalitaires, le robot le sera aussi. On ne peut pas espérer que les algos reparent nos problèmes de société
Les médias en général , pas que la presse, que ce soit l'organisme classique à la BFM ou l'influenceur antivax qui propose son homéopathie hors de prix pour guérir du cancer avec ses jus de fruits
Le public sait quand même que la presse n'est pas objective, mais considère à tort les algorithmes comme objectifs. D’où un rappel.
Je suis de plus en plus stupéfait par l'efficacité de vos publications. La convergence de la pertinence des propos et de l'esthétisme des graphismes est tout simplement splendide. Bravos les gars et les garces. Sorry! J'ai fais une traduction gougueule ;-) Utilisez le navigateur de Tor (oignon) et disparaissez des radars.
1) Alors on a un média qui reproche à youtube d'influencer des élections ... c'est exquis
2) On nous dit que le passé influence le futur avec sur la langue ... merci ça s'appelle l'histoire on a pas besoin de google trad pour savoir tout ça
De plus sachez que ce n'est pas un "présent qui devient éternel" dans les faits car 81% du personnel du domaine médicale est féminin et 54% du domaine pharmacologique aussi
3) Vous nous dites que sur une population hétérogène de 1000 personnes les femmes se voit moins proposer des fonctions à haut salaire mais est ce à poste égale ? quel salaire est élevé ? est ce que pour les salaires faibles c'est inversé ? Car encore une fois encore les statistiques de l'insee montre que sur la population française les différences de salaires de 26% pourcent entre hommes et femmes seul 6.7% n'est pas expliqable et laisse supposer à de la discrimination (je suis pour une égalité parfaite à poste égale compétence égale travail égale et expérience égale entre homme et femme) mais on est loin de votre 1800-500 que vous nous proposez sans nuance
4) Pour votre faux positif à 1% sur la population française pour débusquer les terroristes il faut préciser que 1 y a des profils types, 2 "seulement" 20 000 fiché S et encore y a aussi d'autres fiché dont je me rappelle plus le nom mais y a encore moins de monde donc on est loin de 1% d'incertitude et loin de 600 000 personnes accusé à tord
5) vous donnez aucuns exemples pour le sujet de la justice
Après pour les gens qui s'intéressent au sujet des algorithmes et des GAFAM et BATX
Je leur conseille le dernier hors série du canard enchaîné qui explique fort bien ce qu'ils font de nos données et comment ils les prélèvent et comment on peut s'en protéger.
Je rappelle que le canard enchaîné est un des derniers médias libres qui possède sûrement les meilleurs journalistes de France (le coût des 500 000€ de vaisselles de Micron c'est eux qui l'ont découvert, d'ailleurs ils ont plusieurs fois fait l'objet de mise sur écoute ils expliquent tout ça)
Je peux aussi partager les liens des infos sur les inégalités hommes femmes de l'insee pour ceux que ça intéresse
Réponse rapide pour le 4 : si l'algorithme est sensé observer toute la population et pas juste les déjà fichés, avec 1% de faux positifs c'est effectivement 600k personnes qui se retrouvent classés "terroristes potentiels" sans raison.
Pour le reste... allez, rapidement :
1) Oui, c'est surtout demander que youtube reconnaisse les influencer, hein.
2) La langue se construit avec le présent, mais google trad maintient cette forme passée. Alors que l'évolution de la langue ne va pas dans ce sens là.
3) On peut supposer que les profils, ayant été générés, sont comparables. Les sources sont listées, peut-être est ce dedans ?
5) Voir sources ?
les liens stp :)
Oui mais la population entière n'est pas surveillé ex: les enfants les vieillards les handicapés etc
Et le 1% est arbitrairement choisi comme exemple il n'en est rien dans les fait comme le faible nombre de fiché
1) je comprends pas ta phrase
2) L'évolution de la langue va dans quel sens ? PERSONNE ne le sait le futur est au futur
3) "on peut suposer" ... sérieusement c'est quoi cet esprit critique naïf
5) oui absolument y a pas de source
Et ça c'est pour les inégalité homme femme l'étude de l'insee qui explique les différences au niveau du type de travail , les différences inter et intra poste ainsi que la prise en compte de d'autres facteurs
www.insee.fr/fr/statistiques/2128979
Liberdiko elle fait 45min la video tu veux bien me donner l'endroit stp :) et merci pour le lien
Ensuite je vais te poser une question : imaginons un algorithme parfait qui prend en compte tous les aspects permettant de détecter à 100% sûre un futur crime comme dans Minority report mais que au lieu de les arrêter on se contente de surveiller et juste tu les empêcher de récidiver si il y a eu une première condamnation ceux dont on est sûre qu'ils vont faire un autre crime ... est ce que parce qu'un des critères de l'algorithme n'est pas politiquement correct et est donc retiré (par conséquence on est plus à 100% et on augmente le nombre de faux positifs) et donc laisserait des criminels agir sans surveillance parfaite ou alors tu oublies le politiquement correct et tu peux protéger la population des futurs criminels ? Que préfères tu ?
y'a des choses à redire sur le coincoin, mais c'est vrai qu'il s'élève loin au dessus des autres
Vous avez aujourd'hui l'une des meilleurs chaîne de vulgarisation de UA-cam. Merci pour votre travail
Cet épisode est le point culminant de Data Gueule! Bravo à vous! Merci pour nous.
Encore une belle contribution pour la réflexion sur les communs. Super boulot, merci à toute l'équipe !
Bonjour l'algorithme de Google. Merci pour cette vidéo.
Vos vidéos sont vraiment bien travaillées que ce soit dans le travail d'investigation doration du texte et surtout le motion design 😍
Merci pour ce concentré d'enjeux. Quand des gens me disent: "moi je m'en fou de l'utilisation qui sont faites de mes donnés, je ne suis pas un criminel, donc je n'ai rien à cacher", je peux être tenter de leurs répondre un phrase toute faite: "dire ça, est aussi absurde de dire que tu te moque de la liberté d'expression parce que tu n'as rien à dire". Mais la vérité c'est que, et après?
Si cette personne me demande alors: "ok, donc qu'est-ce que j'ai à craindre?" et là, la réponse est difficile sans tombé dans des lieux communs, voire des biais cognitifs. Cette vidéo va me permettre de penser à une réponse abordable sans utiliser le mot "algorithme" qui, comme chacun sait, signifie "mot qu'utilise un informaticien quand il n'as pas envie d'expliqué ce qu'il a fait".
Bravo, la question est très importante et vous l'expliquez avec rigueur
Bonjour DATA GUEULE est que vous pourriez faire une vidéo sur la polution des déchets que l'on produit en masse ( industriel, ménager etc) ou une vidéo sur le gaspillage alimentaire
Regarde Nicolas Meyrieux
Déjà fait plusieurs fois. regarde les vidéos d'il y a 2 ou 3 ans
"On" parlez pour vous, je ne produit aucun déchet.
@@walter253 AH BON?! (oui réponse un peu en retard) c'est pas trop beaucoup possible de ne pas produire de déchets mdr
C'est super de terminer par une note positive ! Ça fait plaisir une touche de bonne nouvelle dans cette juste dénonciation
Hello, je fais une thèse en informatique et voyant tant d'incompréhension dans les commentaires face au "1% d'erreur qui génère 600 000 suspects" je vais tenter une explication plus détaillée :
Dans l'exemple l'algorithme de détection de suspect analyse les infos de toute la population pour sortir une liste de suspects à surveiller. C'est donc un algorithme de classification à 2 catégories :
- "suspect" (positif)
- "non suspect" (negatif)
La performance d'un algorithme de classification peut-être évaluée par son taux d'erreur. A noter que deux types d'erreurs sont possibles : le faux-négatif (on rate un terroriste en le classant "non-suspect") et le faux-positif (on classe un innocent comme "suspect").
Ici, le taux d'erreur est de 1% (c'est vraiment un super algo, c'est rare d'atteindre un score aussi bon). Donc sur toute la population (60 millions), 1% des individus vont être mal classés. Donc 600 000 erreurs de classification. Parmi ces erreurs, combien sont des faux-positifs, et combien sont des faux-negatifs ? C'est simple :
- faux-positifs : 1% des innocents
- faux négatifs : 1% des terroristes
Mais, du coup, il y en a combien des terroristes en France ? J'ai trouvé 20 000 fichés S en 2015 selon un articlé de Libé (lien à la fin). Prenons donc pour l'exemple : 59 980 000 innocents vs 20 000 terroristes.
- faux-négatifs : 1% de 20 000 = 200 terroristes non détectés (et 19 800 bien détectés)
- faux-positifs : 1% de 59 980 000 = 599 800 innocents surveillés
Conclusion : 600 000 personnes classées "suspect" par l'algorithme, dont 598 000 innocents et 19 800 vrais terroristes.
www.liberation.fr/checknews/2017/05/03/combien-y-a-t-il-de-fiches-s-en-france_1652320
Pour mieux comprendre ce genre de calculs je vous conseille la chaîne "hygiene mentale" : ua-cam.com/video/x-2uVNze56s/v-deo.html
Au final le ratio final prouve les dérives de ce système. De plus sur ces soit disant 20 000 fiché S tous ne sont pas terroristes....certain sont des altermondialistes par exemple...
Si on fait un nouveau calcul et que l'on établie le nombre de personne surveillé par rapport aux nombres de passage à l'acte alors c'est encore plus un raté...
On fait dire ce que l'on veut aux chiffres.
Y'a tellement d'approximations dans cet épisode, c'est à se demander si vous ne devriez pas passer le relais à une IA pour faire l'écriture à votre place.
@@JzelMoniK voilà un bien beau raccourci là encore...
trop.
@@JzelMoniK Elle est fondatrice d'Algo Transparency ... L'asso qui se bat justement sur ces questions, la légitimité ne s'obtient pas que par des diplômes, les galons gagnés sur le terrain comptent au moins autant !
IA ?
N0Styl également beaucoup d'approximations dans votre commentaire - la première étant que vous n'indiquez pas où elles sont et en quoi sont elles des approximations.
C'est la seule façon de faire avancer le débat
Toujours aussi excellent, n'arrêtez jamais ! Et un grand merci :-)
Un épisode extrêmement intéressant ! L'intervention de Soline Ledesert est fascinante en terme d'implications politiques et éthiques, ses propos font réfléchir.
"Les algorithmes servent avant tout les gens qui les financent et pas vraiment les populations"
.... Merci pour cette brillante analyse.
Au passage elle a l'air de confondre "démocratie" et l'égalitarisme.
Je dois avouer que j'ai pas vraiment l'utilité de votre invité, elle a enfoncer 15 000 portes ouvertes et a fini par nous faire une belle récup politique a partir de 8:30 a ce moment la autant arrêter, j'ai rien contre elle mais son analyse et sa psychologie de comptoir a je pense rien a foutre la. Le but des mecs de google est pas de faire passer Clinton pour faire barrage a la haine et au populisme mais de faire de l'argent, je trouve ça dingue que dans le monde dans lequel on vis des """""""journaliste"""""" ne puissent pas comprendre ça.
Son serment d’Hippocrate pour "data scientist" (utilise un nom français au pire non ?) qui est juste VIDE :
le point 2 "transparence" jusqu'a quel point ? envers qui ? comment éviter de se faire voler ces algorithmes si on les diffuse a tous ?
le point 3 "équité" : équité de quoi ? faut peut être préciser sur quel point non ? le but d'un algorithme c'est aussi de suivre des tendances et d'y adapter sa réponse
le point 4 "respect" ok, respect envers qui ? on matérialise ça comment ? ça veut juste rien dire de nous balancer "respect" sans rien derrière.
le point 5 "responsabilité et indépendance" l'indépendance et les responsabilités de qui ? du "data scientist" ? il travaille dans une grande entreprise (en majorité) alors niveau indépendance ça me parait compliqué, les responsabilités ? bah ouai il en a une, celle de faire ce que lui dit son patron.
La fin est magnifique, en gros ça la dérange que les entreprises privés qui ont développé et financé les intelligences artificiel en profitent et n'aient pas comme mission prioritaire l’intérêt de plus grand nombre mais de leurs actionnaires, bah ouai, si t'étais pas contente fallait militer pour demander au gouvernement français de te rebalancer un impôt pour financer des algorithmes. Plus sérieusement encore heureux que les entreprises ayant développé leurs technologies en aient l'usage, au passage elle nous sort la notion "d’intérêt général" mais selon qui ? L'intelligence artificiel est-elle vraiment bonne pour l’intérêt général ? elle pensera surement que oui vu qu'elle taff dedans et que ça fait du taff pour elle mais ça va nous causé quelques problèmes de chômage cette histoire.
En bref je l'ai écouté avec intention et j'ai juste trouvé ça vide, elle a enfoncé des portes ouvertes, balancé des généralités et a conclu, j'ai pu en tirer aucune idée (sauf son serment inutile et débile).
Je trouve le niveau de Data Gueule risible depuis votre rentrée, en espérant que vous vous ressaisissiez, vous nous aviez habitué a de la qualité et ça fait vraiment de la peine de voir ça.
Bonne vidéo sur le font. Par contre il y à ici un paquet d'approximations et d'imprécisions:
- Pour les remarque liées aux TAL (traitement automatisé des langages naturels), le problème lié au notamment à la traduction mais aussi a tout ce touche de près ou de loin au problème de mettre une sémantique à une phrase, sont juste mais connues des chercheurs depuis un bon bout de temps. Beaucoup de laboratoires travaillent sur ce problème.
- Sur la non divulgation des algos, c'est un problème c'est sûr mais la a part la voie législative au niveau international il n'y a aucune autre solution.
- Le coup de "les gens qui créent les algo sont les Data Scientists". C'est un poil réducteur les "Data Scientists" comme on aime les appeler maintenant sont en fait des statisticiens avec une formation en informatique incluant entre autre de la base de données et un peu d’apprentissage automatique(ce qu'on aime angliciser en machine learning). Mais cela oublies les experts en TAL, si les données contiennent du langage naturel, en RO quand on a un problème difficile ou qu'on cherche a optimiser son algo (notamment sur le temps qu'il prends) etc.
sinon pour la partie démocratie 7:10 : "Défier les gens qui font des algorithmes..." c'est se voiler la face sur le véritable problème, qui n'est pas les créateur d'algo mais les décideurs, ceux qui définissent le but de l'algo. Les créateur d'algos sont juste des employés comme les autres. Sinon le travail de recherche, journalisme ect est à développer mais el coup de la charte ethique est, à mon sens inutile tant que les patrons en aurons rien a foutre.
Chouette liste d'instructions à 0:37
1)Abonnez-vous à Data Gueule.
2)Cliquez sur "like".
3)Laissez vos commentaires.
4)Consommez sans modération.
5)Parlez-en à vos amis.
6)Revenez quand vous voulez.
7)Si vous lisez ça, vous perdez votre temps.
8)Mais vous faites comme vous voulez.
9)Après tout vous êtes grand.
10)Nous, ça nous fait plaisir.
11)On est là pour ça.
Je crois que j'aime bien perdre mon temps.
C'est super ce que vous faites les gars!
Wai... Sauf que non en fait... Cette histoire de traduction, c'est ridicule... Cà n'a aucun sens de traduire des critères de recherche dans une langue ou autre... Si je tape "docteur" ou "doctoresse", j'aurais un set de résultat associé directement à ces termes, et pas à "doctor"... Si je tape par contre "doctor", j'aurais des résultat lié à "female doctor" puisque "doctor" en est un sous ensemble... D'après la logique de la vidéo, les "algorithmes" favoriseraient donc les doctoresses...
Toujours en suivant la logique de la vidéo:
Chercher "american inventors" sur google image nous renvoie la tronche de plein de noirs ayant inventé des trucs anecdotique, mais majoritairement des blancs dans n'importe quelle autre langue. Cà voudrais donc dire que google incite les pauvres petits blancs anglophone à ne pas inventer quoi que ce soit... En réalité, c'est simplement dû au fait que les écoles américaines sont dominé par des idéologues gauchistes obsédé entre autre par la couleur de peau des gens, et donc demandent sans arrêt à leur étudiants de faire des recherche sur les inventeurs noir.
L'algorithme de recherche de google a du coup générer une association automatique entre "american inventors" et "african american inventors", puisqu'il était bombardé de requêtes pour le second groupe de mots...
Et puis cette association foireuse avec l'élection de trump... Enfin on a pas eu droit aux fameux bot russes cette fois au moins... Les commentateurs politique indépendant sont beaucoup plus à même d'être pro trump que les grand groupe médiatique (les études les plus conservatrice estiment que plus de 80% des articles de presse sur trump sont négatif... www.cnbc.com/2017/05/19/trump-press-coverage-sets-new-standard-for-negativity-study.html ). Or, les premiers sont presque systématiquement démonétisé tandis que les grand groupe sont automatiquement monétisé, mis en avant, et bénéficient de tout un tas de passe-droits...
Quand je tape « doctor » sur Google traduction, ça me met bien « docteur » hein, et pareil quand tu tape « american inventors » ça te mets à peu près autant de blancs que de noirs, je vois pas en quoi c’est défavorable aux blancs qui font une recherche Google, au contraire ça montre qu’il y a de tout chez les inventeurs. Quand à Trump, tu parles des commentateurs politiques, mais en attendant on a bel et bien vu beaucoup plus de Trump sur UA-cam que de Clinton. Trump a beau avoir été beaucoup critiqué, il a surtout eu beaucoup de visibilité et c’est ça que la vidéo critique. De plus, Trump a dit beaucoup de trucs clivants sur lesquels on peut débattre, mais faudrait pas oublier qu’il a aussi répandu beaucoup de fake news et de ragots donc encore heureux que ce genre de trucs soient démonétisés. Et puis pour les grands groupes, ils sont peut-être majoritairement anti Trump, mais en attendant tu peux me dire ce qu’il a fait contre les grands groupes, Trump, au final? Trump, c’est lui même un milliardaire faut pas l’oublier…
Quand à ta source, ça montre bien que 80% des articles écrits sur Trump sont négatifs, mais ça n’indique pas qui fait partie des 80% et qui fait partie des 20%. Si ça se trouve, il y a des grands groupes dans les 20% et des indés dans les 80%, en plus du fait que la source de l’étude de base, c’est Harvard. Paradoxal, sachant que les universités américaines sont dominées par la gauche, non? En plus l’article confirme bien ce que je t’ai dit: les grands groupes ont fait plus de profit grâce à la baisse des impôts instaurée par Trump. De quoi ils se plaignent, en somme?
Et note aussi que j’ai essayé de voir des articles d’autres sites sur cette étude, mais qu’aucun ne donne de lien vers l’étude originale, ce qui fait que c’est vraiment mort pour savoir qui sont les fameux 80%, ni si l’étude est bien foutue, ni même si elle existe vraiment. Je vais continuer à chercher, mais faut se dire que c’est pas parce que c’est relayé que c’est vrai et honnêtement une étude qui montre que au plus fort de la polémique c’était 90%, au plus faible 70%, soit exactement 10% d’un côté comme de l’autre, ça ressemble fort à du doigt mouillé tout ça
(et de nouveau pour les inventeurs américains: si je tape « inventeurs américains » au lieu de « american inventors », ça me met exactement les mêmes images donc ton argument de la langue ne marche pas
Après j’ai essayé dans d’autres langues que le français et là effectivement j’ai vu que des blancs, j’avoue)
Non mais c'est extraordinaire... J'avance dans la vidéo et vous êtes sérieusement en train de nous expliquer qu'il y a un biais conservateur et nationaliste dans les algorithmes, alors que tous, je dis bien TOUS les médias dominants, les canaux de communication, le cinéma, la pop culture n'ont que quatre mots à la bouche : diversité, féminisme, lgbt et holocauste.
J'allume ma télé et n'importe quelle pub me rappelle cela, vous vivez dans quel monde ?
Alors tout d'abord, non, tous les médias n'ont pas ces messages à la bouche, loin de là. Fox News est peut-être l'exemple le plus flagrant. Ensuite, ce que la vidéo explique, ni plus, ni moins, c'est qu'un algorithme créé pour mettre en avant les vidéos générant le plus de réactions (bonnes comme mauvaises, sans discernement) parce que ces vidéos permettaient de caser de la pub, a fini par mettre en avant les clips d'un candidat plutôt que l'autre. Donc une machine à pub a fini par faire de la politique.
@@jaimelapolitique349 OK tu m'as cité UNE chaîne américaine qui effectivement penche à droite. C'est simple c'est la seule. Il n'y a aucune diversité d'opinions dans le monde médiatique.
Pour le reste j'ai bien compris les lien entre pub et algorithme mais c'est la lecture politique de cette émission que je déplore.
Les vidéos UA-cam sur Trump étaient plus percutantes, normales qu'elles soient plus vues et donc plus ciblées. On n'y peut rien si les gens qui les faisaient étaient de meilleurs communicants, sans doute plus intelligents et avec une meilleurs compréhension des systèmes de propagande à l'heure des mêmes. Vouloir mettre à égalité les bons communicants et les mauvais (ceux d'Hillary) pour des raisons politiques, ça c'est malsain, ça nie la dynamique d'un mouvement et ça enlève à la droite dure le seul avantage qu'elle a aujourd'hui pour faire entendre ses idées dans un paysage médiatique complètement verrouillé.
@@Napouille Le figaro, Rtl ( qui est la radio avec le plus d'audience) , France télévisions, et Tf1 penchent à droite. Je ne perçoit pas beaucoup non plus de lgbt, de féminisme à la radio ou la télé. Pour la diversité je veux bien, mais dans tous les cas, ce qui est diffusé et ce qui est appliqué dans la réalité peuvent différer.
Tu es fort pour trouver du féminisme, lgbt chez valeur actuel x'D
Assez déçu par cet épisode. L'argument assez malhonnête des 1% et des problèmes qui n'en sont pas.
L'histoire des mots neutres à traduire, il faut faire un choix du genre en français et si le masculin l'emportait par défaut il y aurait une autre polémique. Se baser sur des données passées réelles semble un bon compromis.
Pour les crédits, je pense que l'algorithme qui se base sur de vraies données sera plus juste que le banquier qui voit arriver le "pauvre dans sa misère" et qui aura un jugement biaisé (volontairement ou non) par l'apparence.
Pour les élections c'est pareil, si Trump apparaissait plus souvent c'est parce que les gens en parlaient et le recherchaient d'eux-mêmes. S'il y a plus de vidéo de Trump avec chacunes plus de vues ça me semble normal qu'il apparaisse, et créer arbitrairement une parité dans les suggestions ça passerait aussi pour de la censure.
Au contraire c'est tout l'inverse que de ne pas proposer une pluralité de possibilité .... si tu cherches le mot nurse, l'algorithme devrait pouvoir te proposer la possibilité d'infirmière ou de neutre, c'est un pb de langage que l'ordinateur peut régler en te proposant plus de possibilités.
Pour Trump c'est pareille si on te gave de vidéos parce qu'elles font buzz pour d'autres personnes, on finit par un point de convergence sans entrevoir qu'il y a d'autres candidats, mais voilà rentabilité oblige si le curseur flanche en faveur de la génération de revenu publicitaire plus importante chez Trump parce qu'à la base il "choc", il finit tristement par en devenir la règle au yeux d'autre qui n'iront pas chercher plus loin. Au final les élections sont influencées. C'est très complexe et malsain, ce qu'on peut retenir c'est qu'encore une fois la loi du marché s'applique encore plus sur internet et qu'il faut faire attention car il y un gros manque de législation si l'on devait comparer à la vie réel (même si ici aussi il y a des manques).
@@RubyRhod83 Si je te comprends bien, si je regarde des vidéos sur Trump, je suis pro-Trump? Merci pour l'info 😲
@@neomorphosallomorphis7395 bien sur que non, mais tu participe à ce qu'il soit plus connu et plus omniprésent, selon le fameux adage publicitaire: plus on parle d'un produit (en bien ou en mal) mieux c'est !
@@neomorphosallomorphis7395 Tu pourrais voir ça comme un mélange entre l'activité neuronale et la peur de l'inconnu. Je m'explique : plus une connexion est solicitée, plus une association est faite, plus elle devient facile d'accès. Te surcharger de vidéos sur un sujet va rendre, au moins, ce sujet moins inconnu pour toi. Pas forcément agréable, mais pas inconnu. Puis, viens le moment de voter, et pour des gens qui n'ont pas pris le temps d'étudier les enjeux politiques, deux facteurs vont entrer en jeux, un attractif et un répulsif. L'instinc tribal d'appartenance (celui sur lequel joues nos politiciens, par exemple lorsque Macron a lancé une écharpe du PSG à des marseillais comme un lapin à une meute de loups, nourrissant symboliquement la colère des gens en se mettant et s'affichant de leur côtés, au moins à leurs yeux) est l'attractif. La peur de l'inconnu (le fait de rester dans des schémas que l'on connait, et qui même s'ils sont néfastent, nous gardent en vie, alors que l'inconnu peut nous tuer) est le répulsif, en défavorisant les connexions et associations les moins solicitées. Donc, si tu regardes des vidéos sur Trump, tu seras surtout anti-Hilari :)
Mais il y a un autre problème, qui est qu'un algorithme vient optimiser selon des critères, et que dès qu'il y a sélection, il y a moyen de tricher…
@@romarickostenko9032 merci 😉 t'as bien expliqué et argumenter ce que je tentais de dire ^^
BRAVO ! Mes algorithmes me confirment que votre chaîne est d'utilité publique ! 😉
DataGueule oui
Mais propagande et grille de lecture dans ma gueule, non.
En bref, c'était mieux avant cette série. Chaque épisode n'est que plus politisé que le précédent. C'est dur à regarder.
Deux commentaires, pas un seul exemple ou argument.
Bravo.
C'est vrai que ces personnes auraient pus nous parler de l'utilisation du big data durant les présidentielles, il existe des exemples très concrets comme macron et l'entreprise LMP. Mais bon, c'est plus simple de lâcher un petit "populisme" à la place.
Énorme vidéo encore une fois, bravo. Continuez !
On en parle que cette émission est complètement folle et tellement bien !
J'aime beaucoup Datagueule mais ça fait plusieurs épisodes que je trouve de plus faible qualité. Je ne sais pas si c'est volontaires dans un but propagansdiste ou involontaire mais les vidéos sont remplies d'erreurs, de fautes et de données incomplètes. Vous y mettez des informations sans citer vos sources, dans la description ou dans la vidéo. Ce problème se ressend particulièrement avec l'exemple de la NSA qui placerait des terroristes présumés sur "Kill List" simplement car une IA leur a donné le nom. Une recherche de 30 secondes sur Internet m'a permis de tombé à la fois sur le rapport d'ArsTechnica qui doit certainement être votre source ainsi qu'une analyse du Guardian. On peut facilement y lire que la réalité est très loin du scénario que vous dressez dans la vidéo. Et ce n'est qu'un exemple rapidement trouvé, il y a en d'autres comme le fait de ne pas citer que la personne interviewé est fondatrice d'AlgoTransparency, la répartition homme/femme dans certaines formations, l'exemple de l'étude sur l'inégalité face aux offres d'emploi que vous avez totallement biaisé. N'avez-vous pas compris le rapport et les articles et les études en question? Essayez-vous de nous manipuler?
De plus, vous interviewez systématiquement des personnes aux profils non-techniques qui, amène certes une vue éthique parfois intéressante mais qui ne maitrise pas assez le sujet, ou sont trop biaisé. Le débat dans la communauté des scientifiques et ingénieurs qui sont aux premières loges dans la création de ces outils est puissants, c'est dommage que vous ne vous en faisiez pas l'écho.
Enfin sur le sujet des algorithmes en lui-même, j'ai l'impression, fondée ou non, que vous ne comprennez pas vraiment ce qu'est un algorithme, comme il est construit et dans quel objectif. Vous mélangez dans cette vidéo tellement de types d'algorithmes que cela rends la lecture complèment indigeste.
J'ai sincérement eu le sentiment d'être manipuler dans cette vidéo. J'espère que ce n'est qu'un sentiment...
En espérant que la prochaine vidéo représente un meilleur travail journalistique.
Je viens de regarder 45 secondes de vidéo et y'a déjà une boulette "Si le résultat est bon l'algorithme est efficace"
Non, on peut faire une suite d'opérations compliquées pour parvenir a un résultats simple, mais si on peu obtenir le résultat avec moins d'opérations moins compliqués, alors c'est ce second algorithme qui est efficace.
3:43 haha x) Henri Poulain, votre réalisateur sur la "kill list", de quoi voir si il prête attention à la vidéo :)
Revenez sur insta
Toujours aussi bien vos vidéos !!!
Encore de l'excellent travail merci !
Vous mérite plus d'abonnés mm mon prof d'histoire passe vos vidéo en cours 😍😍😂
Je mets un commentaire pour que la vidéo soit remontée dans le référencement ^^
Bonjour, je suis ingénieur logiciel et en intelligence artificielle, et je pense que vous confondez "Algorithme", "Machine Learning" et "Intelligence articielle".
Pour faire simple, le "Machine Learning" est un type d' "Intelligence Artificielle" qui est un type d' "Algorithme".
Le problème de votre vidéo est que vous mettez tout dans le même panier : la plupart des algorithmes sont purement inoffensifs, par exemple certains servent à transmettre cette page web, d'autres à l'afficher, d'autres encore à encoder la vidéo youtube. Le problème du machine learning (qui est gros, un algorithme de tri un peu complexe) est son caractère imprédictible: il évolue en fonction de ses données d'apprentissage (d'où le "learning") et il se créer des règles incompréhensibles pour un être humain. Donc on ne peut pas totalement prévoir comment se comporte un tel algorithme.
Bref, je ne vous reproche pas de dénoncer les limites de l'utilisation du machine learning (quoique certains de vos exemples sont un peu tiré par les cheveux), mais je vous reproche d'entretenir la peur qu'on les gens à propose de l’algorithmie, de l'intelligence artificielle, et plus généralement de l'informatique.
PS : Je trouve que la personne interviewée manque clairement d'objectivité. Si je prends l'exemple de Google, l'accès à des services gratuits qui coutent relativement cher (recherche, stockage des données, maintiens de serveurs, accès partout dans le monde) sont couvert par la pub que vous voyez. Est ce que vous préfèreriez ne pas avoir de pub et payer 25€/mois votre utilisation de google ? Je ne pense pas. Ensuite Google est relativement transparent sur les données qu'ils ont sur vous, et vous pouvez tout à fait désactiver et supprimer ces données : myaccount.google.com/. Et enfin, pourquoi ces algorithmes ne sont pas publics ? Pour la même raison que n'importe quelle entreprise ne veut pas dévoiler son code source : parce que cela représente énormément de recherches et développement et que Google ne veux pas que d'autres entreprises copient son travail gratuitement.
Bref, j'aurai préféré voir quelqu'un qui connait bien son sujet et la technique sous-jacente, plutôt qu'une journaliste qui semble beaucoup extrapoler sur ce que sont les algorithmes. Parce que quand j'entends "Il devient urgent d'apprendre à contester et à défier les gens qui font des algorithmes", pardon mais c'est de la pure bêtise. Et le coup de "Est ce que c'est vraiment intéressant d'utiliser une algorithme ici plutôt qu'un être humain", entre une machine qui fait un travail gratuitement et parfaitement en quelques millisecondes et un être humain qui ferait le même travail en un an avec salaire et des erreurs humains potentielles, le choix est vite fait.
PS2 : Je pense ne pas avoir entendu une seule fois le mot "Machine Learning" (ou "Apprentissage Automatique" en française), ce qui est quand même un comble pour une vidéo qui traite exclusivement de ce sujet.
Même si c'est très bien expliqué au début de la vidéo, dans la partie en infographie, je tiens juste à préciser pour les gens qui ne le sauraient pas que lorsque Mme Ledesert parle "des gens qui font des algorithmes" ce n'est pas une appellation représentative de ce qu'elle veut réellement dire. Parce que des gens qui font des algorithmes sans faire quoique ce soit de potentiellement discriminant ou touchant à du big data, il y en a plein. Par exemple, une personne programmant un automate sur une chaine d'assemblage ou développant l'IA des ennemis d'un jeu vidéo _est_ une personne qui fait des algorithmes, mais qui n'a rien à voir avec le sujet présent.
#pasdamalgame :P
Très intéressante vidéo et très joli visuellement, chapeau!
Je tiens à ajouter un point technique qui me paraît très important par rapport au sujet. La majorité des algorithmes d'intelligence artificielle utilisés par les fameux GAFAM reposent sur du Deep Learning. Sans entrer dans les détails, sachez que même pour les data scientists qui les mettent au point il est extrêmement difficile de comprendre comment ces algorithmes raisonnent. On connait les données qu'on leur donne et le but à accomplir. On sait qu'ils sont capable d'atteindre le but avec un taux d'erreur ridicule par rapport à celui d'un humain. Mais ce qui se passe entre l'entrée et la sortie est très flou.
Pour ceux qui en veulent plus sur le sujet, ce livre contient toute l'essence des algorithmes et de leur dérives : weaponsofmathdestructionbook.com/
Toujours aussi bien.
Je n'ai pas du tout aimé cet épisode et voilà pourquoi.
Il est naturel de se méfier de ce qu'on ne comprend pas et beaucoup de personnes se méfient déjà part défaut des algorithmes (on a le même phénomène avec les antivax). Or cette méfiance me semble néfaste.
Il y a deux champs possibles d'application des algorithmes: le big data et le reste.
Pour ce qui est du big data, on ne peut pas faire sans algorithme. La question n'est donc pas de savoir s'il faut utiliser des algorithmes ou pas. Il faut. Le but de youtube n'est pas d'être juste, le but de youtube est de faire de l'argent. Le problème des suggestions youtube serait exactement le même si elles étaient données par des humains. C'est ça le vrai problème.
Dans le reste, vous donnez l'exemple de l'allocation des places dans une crèche. Sincèrement, avoir deux personnes qui décident sans supervision des happy few me semble une très mauvaise idée car non seulement elles peuvent décider de faire passer le dossier de leur copine avant mais les critères de sélection ne seront pas les mêmes au cours de la journée.
Il semble que les remises de peine accordées par des juges sont beaucoup plus fréquentes quand ces derniers sont reposés et n'ont pas faim¹. De mon côté, je suis enseignant chercheur en informatique et je sais que je ne note pas de la même façon les premières copies d'un paquet que les dernières. La fatigue joue beaucoup.
Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs.
Un autre intérêt des algorithmes est qu'ils forcent à se poser des questions qu'on évite soigneusement autrement. Un exemple parfait est celui des voitures autonomes. Si on ne peut pas éviter un accident, vaut-il mieux tuer 4 personnes âgées ou un adulte qui tient la main à ses deux enfants ?
Bref, oui, les algorithmes ne sont pas parfait et il faut les étudier sérieusement mais les blâmer pour un résultat qui ne nous plaît pas, c'est comme se plaindre qu'un couteau a été utiliser pour poignarder quelqu'un.
¹ sciencetonnante.wordpress.com/2014/12/08/mefiez-vous-dun-juge-affame/
Tiens, je me disais que j'étais d'accord avec ce commentaire. et puis j'ai vu l'auteur. Coucou collègue !
que dire que ta phrase "Les êtres humains sont nuls ! Ils sont pleins de biais inconscients et sont incapables d'être justes. De ce point de vue, les algorithmes nous sont très supérieurs" ... les algorithmes s'écrivent tout seuls? ils naissent de rien tel des divinités?... ah ben non, ils sont écrit par des humains, oui oui ceux qui ont des biais inconscients, et qui codent surement leur biais dans leur algorithme...
@@Arkula100
Le machine learning n'a pas de biais et ne peut devenir biaisé que si tu lui donnes un paquet de données volontairement biaisé or pour bien faire les choses tu donnes du random donc 0 biais.
@@Arkula100 Monsieur avez vous déjà codé un algorithme? Savez vous la rigueur que cela impose?
@@sandrawhy1380 Avez-vous lu mon commentaire. J'enseigne l'algorithmique à la fac ! Et dans ma liste de publication, j'ai quelques algorithmes. Donc oui, je sais.
Une femme qui a un doctorat est un docteur. Pas une doctoresse.
Ah bon, qui a dit ça ? 😀
Pour une fois que l'intervenant est intéressant (en plus d'être agréable à regarder :)
Merci pour cette super vidéo :)
Pour une fois je trouves votre vidéo assez mal faite, peut être que je l'ai mal comprise mais je vais essayer d'expliquer pourquoi :
-Bon déjà petit détail qui ma fait rire c'est que vous critiquez la traduction de Google en disant qu'il traduit nurse par infirmière et que ça renforce des idées sexistes et juste après vous dite "les infirmières des femmes" au lieu de dire les "infirmiers des femmes" c'est exactement ce que vous reprochiez à Google juste avant. Mais bon je m'en fous c'est des détails.
-apres vous parlez des faux positifs en prenant 60 000 000 de personnes soupçonnées ce qui est un nombre totalement irréaliste car si on prends l'exemple de la france je doutes fortement qu'il y ait plus de 200 000 terroristes potentiel sur ces terroriste potentiel l'algorithme en prends une partie plus ou moins grande et fait 1 % de faux positifs sur cette partie, alors je doutes fortement que 60 000 000 de terroristes detectés même dans le monde soit réaliste. De plus 1% de faux positifs c'est assez mauvais pour un algorithme mais c'est toujours mieux que les humains c'est donc un argument pro algorithme que vous donnez.
- 4:05 "les biais et les clichés des années passées sont confortés" un algorithme bien fait n'est pas censé avoir de biais et encore moins de clichés qui est totalement humains. Un algorithme se base sur des données sur la récidive qui sont des faits et qui n'ont RIEN À VOIR avec les clichés et biais humains
(bon j'ecrirai peut être la suite plus tard parceque la j'ai pas trop le temps mais voilà en gros ma critique constructive)
tu peux t'abstenir d'écrire la suite stp
Pourquoi devrait-il s'abstenir ? Il a tout à fait raison...
Beaucoup d'émissions comme DataGueule ont lancé une sorte de tir groupé contre les "grands méchants" algorithmes, et propagent des idées biaisées sur leurs sujets. Il est bon que certaines personnes remettent les pendules à l'heure, et ce même si l'intervenante qui prend le micro de DataGueule a tout à fait raison de demander de la transparence dans les algorithme (au minimum lorsque cela concerne le service public).
Surtout 1% de FP dans l'échantillon test ou en terme de spécificité ? Ce n'est pas pareil ..
L'intervenant tire des conclusions erronées qui s'appuient sur sa propre interprétation qui elle est vraisemblablement biaisée. @@vivienm.3580
9:47 : je ne peut pas vous signer ça.
l'indépendance, c'est impossible dans la majorité des cas, il est exceptionnelle de ne pas travaillé pour quelqu'un dans se domaine.
la transparence, dans le privé, c'est du suicide. c'est un peut comme travailler aussi pour les concurrents.
"équité et respect", ça veut tout et rien dire.
Je ne suis pas d'accord avec votre analyse de la transparence : d'innombrables systèmes "Open Source" (matériels et logiciels) sont utilisés à travers le monde, et pourtant on arrive à gagner son pain avec.
Heureusement que tous les gens qui émettent des réserves et avancent des arguments (parfaitement censés) à l'encontre du raisonnement de votre vidéo ne vous mettent pas des pouces rouges.
Commentaire pour le référencement de la video
Je trouve que cette problématique est mal placée, les algorithmes ne sont que des outils que nous utilisons, comment pouvons nous tourner la problématique autour de l'outil algorithmique alors que ce sont leur créateurs qui y sont maître ?
J'aimerai également mettre en avant mon abid par rapport à la partie data science et à l'image que vous y associez, accrocher des affiches de ventes d'articles scolaire devant une école est également fait pour le gain, afficher des publicités orientées réservation d'hôtel pour Quelqu un qui cherche à voyager est également pour le gain, le soucis ici c'est que pour pouvoir fournir des pub aussi bien visées, il faut les donnés des utilisateurs, sachez que nous sommes responsables que ce qu'on nous prend, quand vous téléchargez une appli, on vous spécifie quelles données seront utilisées (On ne vous dira pas pourquoi mais vous savez ce qu'on vous prend) vous êtes de ne pas installer Windows par exemple et d'installer un système d'exploitation libre sur lequel on ne vous prend pas vos données (linux). Dans un monde où les compagnies ne jurent sue par le gain c'est à nous de savoir où se trouve notre responsabilité.
Pour moi Quelqu un qui utilise un "algorithme" qui prend vos données, vous le savez et ralez après...désolé mais là responsabilité vous incombe.
Je suis dev, data scientist en herbe, et je regarde #datagueule depuis longtemps. Depuis des annees les logiciels libres/open source et les licences proprietaires. Je crois que les IA ont un grand destin et nous serront tous la pour voir google renaitre. Je parle bien de google car ils ont deja beaucoup d'avance avec les ordinateurs quantiques. Bref pour ceux qui ne savent pas de quoi je parle : l'opensource c'est bien et on devrait s'interesser a Richard Stellman (qui parle francais et a "cree linux") beaucoup plus que Bill Gates qui vend 80e la licence (inclu a l'achat). On sait pertinemment que l'open source est plus sur et plus optimise. (dsl les accents). Sachez que aujourd'hui, n'importe qui de motive et un minimum bon en maths peut devenir data scientist a la maison. En revanche tout le monde n'a pas forcement les moyens de se payer le matos pour bricoler un data center
Merci pour vos vidéos toujours très intéressantes et bien faites...
Je sais que vous avez abordé à de nombreuses reprises, les financements de l'état, les banques, etc...
Mais vous serait-il possible de faire un épisode dédié à la dette publique (ses mécaniques, son évolution du fait de l'europe, etc...)
Merci
03:00 pourquoi ne pas parler de l'échantillon ? Les deux groupes de sujets avaient-ils les mêmes compétences ?
+ J'aime bien le 404 sur le lien qui redirige vers les sources de l'épisode, très pro
Je suis content que vous ayez produit une nouvelle vidéo extraordinaire.
j'ai pas qui a fait le montage de cette video mais 🎩 👏👏👏👏
Merci, courage à vous
Le lien des sources est cassé !
Un épisode très intéressant, mais je pense qu'il pourrait être un début de série sur l'impact des algorithmes sur nos sociétés, je pense que le sujet est bien plus important qu'on pourrait l'imaginer. Là l'inégalité reste un sujet introductif, il serait possible d'approfondir en fonction des domaines. Par exemple, un sujet intéressant serait d'analyser en profondeur l'aspect sexiste des algorithmes, quel sont ses impacts, comment peut-on le changer etc etc.. Là on a juste quelques infos montrant qu'un algorithme peut l'être mais c'est assez superficiel.
le lien vers les sources est réparé
Le biais d'une prise de décision qu'elle soit humaine ou algorithmique est toujours présent, l’intérêt de l’algorithmique est qu'il est parfaitement analysable et modifiable car écrit noir sur blanc, ce qui est tout une autre histoire pour les décisions humaines ...
Ce serait bien un épisode sur la légalisation du cananbis recreatif
Il y a quand même une méconnaissance du sujet au niveau technique par votre intervenante.
Un exemple simple, vers les 8:30 , l'intervenante confond le concept d'algorithme avec son exécution. Les deux personnes qui vont décider de donner les places en crèche, que vont elles faire ? Appliquer un algorithme pardi. Les dossiers devront toujours être classés suivant des critères bien Definis...
Science4all fait des vidéos sur le sujet, elles sont bien plus détaillées et plus précises.
Et une vidéo ur le "populisme", beaucoup dénoncé dans cette vidéo !
Dans le sens de cette video, je conseille vivement la lecture du livre de Alexandre Laumonier « 6/5 » , editions Zones Sensibles. Cet essai décrit l’existence d’un algorithme et à quel point ils ont pris le controle de nos vies. Les noms des algorithmes existants (et réels) sont assez glaçants : Guerilla, Shark etc.
Très bonne vidéo, sur un sujet de plus en plus important !
Petite note: Google Traduction a changé il y a quelques jours, maintenant nurse renvoit infirmiere et infirmier (dans cet ordre) monosnap.com/direct/JeURLCUPnpSeM4yJQPEIExBbqs9baE Il aura fallu de nombreuses années avant d'avoir cette mise à jour ! Cela marche pour tous les noms auparavant genré au masculin par défaut
Super vidéo
Pourquoi ne pas inviter un spécialiste ? Cette personne a bien fait son exposé, mais l'avis d'un ou une expert aurait été plus judicieux qu'une journaliste. Sur cette épisode vous avez un peu tout mélangé, l’algorithme est un mot vaste au meme titre que l’intelligence artificielle, il y a des raccourci facile et pas forcement très juste. Des corrections et un avis d'un chercheur ou d'un dev serait le bienvenue. Très belle réalisation ceci dit !
8:57 Où est le problème d'une montée du populisme?
Bonjour le liens des sources ne fonctionne pas et n’existe plus sur le site de Frama.link
c'est réparé
Toujours percutant et informatif. Encore une très bonne vidéo, merci d'exister sur cette plateforme
Le lien pour consulter les sources de l'épisode ne fonctionne pas.
le lien est maintenant réparé
Ouaaah la coincidence!! :) La nouvelle chaine "craft" a sortie une premiere video, il y a deux jours, traitant presque du meme sujet !! :O Sinon encore une vidéo de qualité de votre part !! Coeur sur vous ♥
Tiens, je suis allé sur google translate, et la traduction propose maintenant les 2 genres. Donc "éternel présent", je ne suis pas trop d'accord !
Il est a noté d'ailleurs que c'est le principe même des algorithmes d'APPRENTISSAGE que d'APPRENDRE au cours du temps ! Donc si les inégalités diminuent au cours du temps, les algos l'apprendrons, et il est également facile d'accorder plus de poids au passé récent...
Un autre point : un algo n'est pas intrinsèquement sexiste ou raciste. Il n'est que le reflet d'une société, ne serait-ce pas là un moyen de d'exposer ses discriminations au grand jour et ainsi d'agir en conséquence ?
L'objectif d'un algorithme aussi généralisé que ceux du GAFAM et GATX devrait être de combler le plus de besoins de ceux qui en ont le plus le mieux possible et la plus grande quantité possible. Je serais curieux de voir le résultat.
Vidéo intéressante. A développer. Les algorithmes ne sont pas parfaits certes mais cela fait 'peu' de temps qu'on a commencé à en créer. On apprend plusieurs mois après que UA-cam et Facebook ont favorisé Trump. En espérant qu'ils corrigent erreurs pour les prochaines élections. Les algorithmes sont une bonne idée, mais ils les faut plus démocratiques, régulés, plus éthiques (comme cela est dit dans cette vidéo)
4:49 Suis-je le seul que le titre "Web designeuse" choque ? Est-il nécessaire de rappeler que "Web Designer" est un terme anglais et qu'il n'est pas à accorder en genre ?
Vraiment datagueule, je suis de plus en plus étonné de la pertinence de vos sujets. Ou est-ce moi qui ai changé mes preoccupations au gré des urgences ?
Je me posais la question il ya quelques jours de savoir si l'utilisation d'algorithmes pourrait servir le peuple à travers un système politique.. Je pense tout comme vous.
Mais je suis toujours effrayé de penser au plus malsaines des utilisations. Restez aux aguets
Comme quoi, tout est relatif. Personnellement, au gré des vidéos, j'apprécie de moins en moins.
0:39 , chaque détail compte
Merci, beaucoup de talent et de professionnalisme par ici. Très instructif, pas seulement critique, vous ouvrez des possibilités et ça fait du bien 😎
Il faut développer le libre ou au moins l'open source ! Il faut en parler, c'est une réelle arme pour défendre la démocratie. Les logiciels libres concurrencent les grosses boîtes, sont transparentes en ce qui concerne leurs algorithmes et gratuites pour tous. De plus tous le monde est appelé à contribuer à l'amélioration de ces logiciels.
Mozilla firefox, linux, VLC... il y en a énormément qui marche très bien et qui ont déjà conquis le marché.
Très bonne vidéo lorsque j'ai vu le titre j'ai eu peur que vous tombiez dans une opposition dogmatique comme vous l'avez fait avec le geoengineering. Mais j'ai été agréablement surpris de voir une vidéo qui exposait les danger et les avantages des algorithmes. Si je devais faire une critique a cet épisode (et c'est valable pour une majorité d’épisodes) c'est que je trouve qu'il y a peut de temps passé au solution possible.
0:40 quel génie ! 😂
Très bonne vidéo, mais j'avoue que l'exemple de google translate je le trouve un peu wtf, c'est pas tant une quetion d'algorithme que juste de langage quoi
En plus, c'est pas comme si il y avait une seule traduction proposée. Si il y a plusieurs traduction, elle sont écrite en dessous de la zone de traduction en forme de liste.
La proposition de traduction est gérée par algorithme et est donc la traduction des biais y compris ceux du langage.
Il faut plus voir cela comme un exemple vulgarisé, facile a se représenter et donc a comprendre par une audience qui n'est pas forcément familière avec le principe du machine learning.
Ce qu'il faut comprendre avec cet exemple, c'est que si l'on utilise des données passées qui présentent un biais manifeste (dans notre cas, le fait que les médecins étaient majoritairement des hommes) ce même biais ressortira alors de l'apprentissage et donc des résultats de l'execution de l'algorithme.
Propagande égalitariste tout simplement. Ils veulent faire du forcing a casser des soi disant code créer de toute pièce alors que leur origines sont innées.
Attention François, là tu reprends un des biais de la vidéo. Les médecins *sont* majoritairement des hommes (et, en France au moins, ils le seront encore pendant quelques années).
Et pour ma part, je ne connais personne qui emploie le mot doctoresse au quotidien : les gens disent qu'ils vont "au docteur"... bien que de genre masculin, c'est une appelation neutre qui ne nous permet pas de savoir le sexe du docteur qu'ils vont voir (et d'ailleurs, on en à rien à faire : ce n'est pas comme si le diplôme d'un homme avait moins de valeur que celui d'une femme, ou réciproquement).
Du coup, on peut bien dire que l'exemple est wtf, car il n'a de sens que si on partage son propre biais : ça ne marche que pour le genre de personnes qui pourraient croire que l'écriture inclusive est un progrès, par exemple.
Et que faites-vous des logiciels libres dans les solutions ?
Et on peut saluer au passage le formidable travail d'Etalab.
J'ai fait la découverte de Bayes Impact récemment, une ONG qui utilise le Machine Learning pour permettre aux demandeurs d'emplois d'être mieux orientés.
Algorithme open source, véritable désir d'apporter un impact positif via l'utilisation de la technologie.
Bref je vous conseille de jeter un coup d'œil au documentaire sur son fondateur : "le rêve de Paul Duan"
Très intéressant merci ! Attention à la faute d'orthographe à la fin de la description : rythment nos vies !
Merci !
Vous ferez gaffe vous êtes sur la kill list! Fuyez viiiiiite !!!!!
Je pense que les dislike sont des gens qui voient le compteur a zero et qui peuvent pas s’en empêcher
Le lien des sources ne fonctionne pas
le lien est maintenant réparé
le lien vers les source est more ? ou est le sermon des data scientiste?
c'est réparé
le lien des sources ne marche pas pour moi . suis je le seul ?
le lien est maintenant réparé
Aaah je vous aime les mecs !