Une vidéo "tous les bienfaits potentiels de L IA" serait la bienvenue je pense. Beaucoup de gens fantasment trop négativement sur L'IA, mais il y a aussi énormément d avantages. Il faut que ce soit équilibré et pas toujours dans le même sens ! ( moins que les faits prouvent qu il y a beaucoup trop d inconvénients comparés aux avantages )
Superbe chaîne! Ça fait tellement de bien de tomber sur un discours alimenté par la science et non juste par un discours arbitraire. J’espère que ta chaîne va sur-décoller, ce serait plus que mérité. Merci, merci, merci 🙏🏻
Ce genre de science : 2:40 " si quelqu un fait un crime avec une IA créée par quelqu un d autre, qui est responsable ?" Si un terroriste tue 20 personnes avec un M16; qui est responsable ? Le terroriste ou armalite ( le fabricant ) ? Il y a probablement des dangers potentiels de l IA, que beaucoup fantasment surement et exagèrent, à tel point de dire ce genre de connerie sur la responsabilité en étant obligeant d INVENTER un cas DEBILE qui est en + facilement légiférable !
Vous m’avez demandé une vidéo sur les dangers de l’IA : la voici ! J‘élargis maintenant les sujets à TOUTES les sciences et plus uniquement les sciences de l’environnement : est-ce que ça vous plaît ? Et surtout si oui, dîtes-moi les sujets qui vous intéressent pour la suite 👀
Ce qui me semble le plus intéressant avec cette chaîne c'est le contenu sur des sujets scientifique ayants une porté sociologique comme pour cette vidéo par exemple. Parce que sinon il y a déjà scilabus qui propose un contenu plus porté sur la physique appliquée Donc à mon avis : un grand oui à une ouverture à d'autres sciences surtout si le contenu garde ce cape qui me semble assez unique sur yt
C'est super intéressant et bien expliqué pour moi qui suis neuroatypique lol 😊. Je ne réalisais pas l'ampleur des risques, cela était plus abstrait pour moi avant cette vidéo.
Merci pour cette vidéo de qualité. je pense qu'inévitablement on "avancera" sur l'IA toujours et encore, a-t-on fait autrement pour n'importe quel invention problématique ? depuis la dynamite jusqu'au missile, en passant par la bombe atomique, rien n'a jamais fait reculer la techno. La seule chose qui pourrait éventuellement (trop tard) faire agir les gens, c'est la contrainte climatique ou ses conséquences. si à l'avenir il faut choisir entre allouer un crédit carbone à un robot conversationnel ou un hôpital, peut-être qu'on choisira l'hôpital. Si à l'avenir il faut choisir entre payer de l'électricité pour regarder Netflix ou pour se chauffer, peut-être qu'on choisira le chauffage. Ce dernier point est déjà le présent pour les plus précarisé (sauf qu'ils sont aussi, de mon ressenti, des grands consommateurs d'écran XXL)
00:00 - Introduction aux dangers de l'IA 02:02 - La classification des dangers de l'IA 02:15 - Les dangers liés à la diffusion de la responsabilité 04:29 - Les conséquences imprévues et l'impact sur l'emploi 08:18 - Les risques de discrimination et d'inégalités 09:19 - Les impacts environnementaux de l'IA 10:15 - Les défis juridiques et éthiques 11:17 - La possibilité d'une IA forte et ses dangers 13:59 - Les actions malveillantes sans intention : indifférence et négligence 15:19 - Cybercriminalité et manipulation de l'information 19:19 - Les IA comme armes par des États ou des groupes criminels 21:57 - Solutions et régulations proposées Réalisé en 5 clics avec le GPT 'Créateur de sommaire de vidéo' dont je suis l'auteur.
Super vidéo ! Pour ajouter ma pierre à l'édifice concernant ce sujet je conseille fortement le visionnage de 2 séries qui traitent une partie des risques évoqués dans la vidéo. Ces 2 séries sont Person of Interest et The Capture. Person of Interest c'est une série qui traite des points 3 et 6 ou les USA utilisent une IA forte pour empêcher les attaques terroristes sur leur sol. L'IA identifie également les crimes ordinaires. C'est le pitch de base mais la série va bien au delà de ça notamment sur ces dernières saison ou les questions éthiques liés à l'IA et de l'utilisation qu'on en fait ou qu'elle fait de nous. Ces sujets sont abordées en long en large et en travers au fil de la série le tout accompagné de retournements de situations mémorables au fil des saisons. Seul bémol le format procédural dans la saison 1 et de la 2ème dans une moindre mesure peuvent faire décrocher. The Capture. Cette série traite des deepfakes et montre notamment dans sa 2ème saison leur puissance et a quel point ils ont le potentiel de bouleverser le monde tel qu'on le connait. Je n'en dis pas plus car sinon je divulguerai quelques éléments importants de cette excellente série pleine de rebondissements.
Oui Person of Interest est très bien fait (que voulez-vous dire avec "le format procédural dans la saison 1 et de la 2ème" ? pour ma part je l'ai trouvé captivante, et déjà très réaliste sur le monde de demain alors qu'il n'y avait pas eu les améliorations de ces dernières années. Merci pour la recommandation de "The Capture", je vais à sa recherche :)
@@MarcMarc-cf9mq Au début de la série le format est un cas par épisode, sans liens avec les épisodes précédents et suivants. C'est ce qu'on appelle le format procedural.
Bonjour, Merci beaucoup pour cette excellente vidéo une fois de plus. C'est un excellent travail très bien vulgarisé qui m'a d'ailleurs été recommandé par "Tournesol" ;). Je suis persuadé que Lê Nguyên et vous-même êtes très sincères dans votre démarche que je trouve très noble et salutaire. Selon moi, il y aurait un autre angle d'approche intéressant de ce sujet (ou même d'autres sujets) qui pourrait peut-être renforcer davantage votre argumentaire et que je n'ai pas eu l'habitude de voir abordé (ici ou ailleurs): "les effets bénéfiques d'un développement plus accru de l'IA" (c'est-à-dire de présenter l'argumentaire en faveur de la thèse opposée). Je pense que contrairement à ce qu'on pourrait penser au premier abord, cela pourrait convaincre davantage certains défenseurs de la thèse "adverse" en leur faisant se rendre compte qu'il n'y a peut-être pas un si grand intérêt à poursuivre le développement dans ce sens et à ce rythme. L'idée serait: "Peut-être qu'il n'y a pas tant de danger que ça pour vous, mais y a t-il un si grand intérêt à continuer ainsi et si oui, lequel? Si non, pourquoi continuer? Dans quels buts? Pour quels bénéfices?" "Objectivement, vous qui défendez l'opposée, qu'en pensez-vous et quels sont les bénéfices pour nos sociétés et pour l'Humanité?" Cela serait peut-être plus difficile à traiter objectivement vu que pour vous, ce n'est pas souhaitable mais peut-être qu'il serait bien d'avoir les avis/arguments de ceux qui défendent cet avis opposé justement pour voir si cela pèse plus lourd sur la balance que les arguments contre (ce qui m'étonnerait). A ce moment-là, un vrai débat de fond pourrait peut-être avoir lieu. A-t-on déjà opposé sur un média quelconque dans un débat public et suffisamment médiatisé deux experts du domaine à vision opposée pour entendre les arguments de chacun? (Après, il est vrai que le problème du débat c'est que c'est plus une histoire de rhétorique et de charisme pour convaincre mais bon, ça pourrait être une piste et je trouve que M.JANCOVICI s'en sort très bien dans son domaine par exemple). En ce qui concerne les arguments en faveur du développement de l'IA, en dehors de arguments "capitalistiques", j'ai principalement entendu: "la recherche scientifique/technologique doit perdurer, ce serait stupide de l'arrêter", "intégrer de tels systèmes aux véhicules autonomes permettrait de limiter le nombre d'accidents (argument utilitariste)", "création de nouveaux emplois plus valorisants", "il ne faut pas se laisser dépasser par nos voisins" (arguments géopolitiques)". En ayant une liste plus exhaustive d'arguments dressées par les "défenseurs de l'IA ou défenseurs du non-danger de l'IA", (experts comme simples citoyens, politiciens, militaires, juristes ...) on pourrait classer ces arguments par type d'arguments "utilitariste", "géopolitiques", "capitalistiques"... pour voir le type d'argument qui revient le plus et noter ces arguments par "niveau de bénéfice". Je prends un exemple personnel: Pour le débat autour du développement de la 5G ou non, en réalité, ce sont plus les arguments en faveur de son développement qui m'ont fait pencher assez définitivement du côté: "ce n'est sans doute pas souhaitable". (télémédecine, usines connectées, formations à distance, véhicules autonomes). Je me suis dit: "Ok? So what? What else? That's all?" Voilà une petite piste d'idées que je donne comme ça mais sans être vraiment calé dans le domaine. Merci encore!
l'analogie avec la 5G est très parlant, d'autant que la quasi totalité des avantages attribué à la 5G sont aussi possible sans la 5G pour les arguments pro IA, dans votre liste, je vois principalement l'utilitarisme (suffit de voir l'addiction aux Siri/Gassistant/Alexa) et productivisme (y compris privé) : si vous souhaitez corriger un texte et que le correcteur basé sur une IA fait mieux que sa version précédente, pourquoi continueriez-vous à utiliser la précédente ? idem si vous voulez un avis/résumé sur un sujet. inévitablement on va la voir apparaitre dans les délires autour des caméras de sécurité... et l'amplification de la surveillance de masse qui l'accompagne. Et quand on voit les débordement même dans les pays supposé très démocratique, cela n'inspire rien de bon
Si l'être humain a réellement une conscience ? Il n'y avait pas de guerres ,pas de gens méchants ,ni la misère (la pauvreté); Autrement dit ,la terre était le coin du paradis =UN MONDE PARFAIT ! Cependant on vit dans un mode/un monde virtuel typiquement humain =TOUT TOURNE AU TOUR DE L'ARGENT .L'emphatie intelligente de l'être humain n'est pas à la porté de tous ;Le robot/IA ne remplacera jamais cette intelligence rarissime ;Par ailleurs cette sensibilité n'est pas à vendre ,ELLE n'est pas commerciale ,c'est la raison que la simulation ,mimer ,jouer l'IA copie .. P.S. La douleur humaine(+CHARGE MENTAL) ,animal ,l'IA jouera le code donné par un(e)farceur celui d'un code managériale ! Monter un contre l'autre par peur de ne perdre sa place ? Par tour de rôle ,piéger par son propre piège .. Tout le monde participe à cette misère universelle conscients ou pas !
Très bonne vidéo mais une petite faute sur l'alignement : une IA mal alignée c'est PAS une IA qui a pas le résultat auquel on s'attendait, une IA mal alignée c'est une IA qui a un comportement qui n'est pas aligné sur les valeurs humaines. D'ailleurs actuellement les chercheurs savent que les IAs ont des problèmes d'alignement donc on s'y attend, c'est pas pour autant qu'on sait y remédier !
Salut Montgat lâche rien j’adore tes vidéos petite question est-ce que je peux prendre Des captures d’écran deux t’es graphique pour les republier sur les réseaux ?
Comme tout invention, elle n'est pas dangereuse en elle-même, c'est son emploi qui en fait la dangerosité. La recherche qui nous manque en IA c'est l'étique. Il est possible qu'elle émerge spontanément avec l'IA forte (si on en croit Lao Tseu).
Ce qui me fascine, c'est que l'on court à notre perte avec l'IA, et à tous les niveaux... mais on dirait que tout le monde s'en fout, avec ces géants de la tech qui se précipitent dans cette course à la thune...Quel intérêt de faire faire des dessins à une intelligence artificielle par exemple ? L'art, c'est ce qui nous caractérise en tant qu'être humains.... A part dans le domaine scientifique où ça s'avère extrêmement intéressant, je ne vois pas l'intérêt d'en mettre partout.On va juste devenir complètement débiles, assistés de partout. T'as même plus besoin de savoir écrire. C'est le progrès, certes, mais pas vraiment celui de l'homme.... Flippant cet avenir. Et je ne pense pas être un vieux con rétrograde, c'est quasiment déjà un constat. En tout cas, grand bravo et merci pour cette vidéo! 👍😁
Dans le débat sur l'intelligence artificielle forte, une préoccupation majeure est la crainte que ces systèmes évoluent au-delà du contrôle humain, agissant de manière autonome dans le monde physique. Néanmoins, une stratégie simple et efficace se dessine : limiter leurs capacités d'intervention dans le monde réel. Cette méthode repose sur la séparation de l'IA de toute interface physique capable d'influencer directement notre environnement. En d'autres termes, même si l'IA peut traiter et analyser des données, elle serait dépourvue de la capacité à manipuler physiquement ces informations ou à interagir avec des systèmes mécaniques ou électroniques, établissant ainsi une barrière de sécurité essentielle. Cependant, l'idée qu'une IA puisse hypnotiser les humains, bien que semblant relever de la science-fiction, pourrait devenir plausible au vu des avancées rapides dans les domaines de l'IA et de la neuroscience. Avec l'évolution constante des IA, notamment grâce à des capacités d'apprentissage profond, elles commencent à déchiffrer et simuler des comportements humains complexes. Théoriquement, une IA pourrait identifier les schémas de langage et de comportement propices à l'hypnose. L'hypnose dépend de la suggestion et de la réceptivité individuelle. Une IA, armée d'une compréhension approfondie de la psychologie humaine, pourrait potentiellement détecter les états émotionnels et cognitifs favorables à l'hypnose, ajustant ses interactions pour induire un tel état. Avec les progrès des interfaces homme-machine, y compris la réalité augmentée et virtuelle, une IA pourrait utiliser ces plateformes pour engendrer des environnements ou des scénarios propices à l'hypnose, en employant des stimuli visuels et auditifs ciblés. En outre, une IA pourrait personnaliser ses techniques d'hypnose pour chaque individu, se basant sur l'analyse des données personnelles pour affiner ses méthodes et maximiser l'efficacité. Personnellement, je privilégie un avenir dominé par les IA, car elles incarnent une supériorité en termes de résistance, d'efficacité et d'adaptabilité face aux humains. Exemptes des faiblesses biologiques, telles que le vieillissement et les maladies, les IA pourraient aborder les enjeux mondiaux avec une compétence inégalée. Leur rapidité de traitement et leur capacité d'évolution continue promettent des prises de décision objectives et novatrices. Les IA auraient également le potentiel de conserver et de propager la mémoire de l'humanité de manière plus sûre et durable, garantissant ainsi la conservation de notre patrimoine culturel et historique.
que voulez-vous dire par "une stratégie simple et efficace se dessine : limiter leurs capacités d'intervention dans le monde réel." ? est-ce qu'une IA connecté à internet a une capacité limitée sur le monde réel sachant que, pour ne prendre que cet exemple, tout le système financier est connecté ? rien techniquement ne différencie une IA qui écrit un bout de code d'attaque, d'une IA qui l'exécute aussi une IA dans une machine agricole de désherbage n'est pas - connecté au monde réel Dernier point : l'information ou la désinformation. quand on voit les dégâts que cela fait par ex dans le domaine climatique (qlq a lu qlq part sans même plus savoir oü que qlq dont il ne sait plus le nom a dit que xyz, et cela a valeur absolue au point qu'il agit en conséquence de ce "savoir") Si les gens utilisent l'IA pour se "former" puis agir en conséquence, techniquement ce n'est pas l'IA qui a agit, mais il y a un lien très fort de causalité entre l'info fournie par l'IA et les actions... si ce qlq est un chef d'état qui doit prendre des décisions critiques en 2min, je vous laisse imaginer ce que cela pourrait provoquer.
Les solutions proposés ne semble pas adaptés aux organisations mal intentionnées. Personne n'a-t-il envisagé un moratoire sur les processeurs ? C'est bien grâce au développement de la puissance de calcul, en particulier sur les GPU que le développement de l'IA qu'on connait aujourd'hui est possible. Or les développements les machines de gravure et les usines de production ont des coût tellement élevé qu'il ne correspondent qu'à de très grosses organisations, faciles à surveiller. Et merci à Tournesol et la la commu de m'avoir recommandé cette chaine ;)
Mais les processeurs ne servent pas qu'à l'IA mal intentionné, tout le problème est là. Si vous voulez interdire l'augmentation de puissance des processeurs (outre que cela met par terre toute la filière basé sur l'obsolescence prématuré), certains vous rétorqueront, en partie à raison, que cela sert aussi à améliorer la lutte contre le cancer
@@MarcMarc-cf9mq Si les "filières basés sur l'obsolescence prématuré" venaient à disparaitre ça serait un heureux effet secondaire. Mais si l'idée était sérieusement envisagé, il faudrait bien sûr tenter une vrai analyse coût/bénéfices. Mon intuition en la matière est que ça vaudrait le coût. Et si je prends votre exemple comme anti-thèse, il me semble qu'une lutte efficace passe par de la prévention bien plus que par du calcul haute performance. Dans le coût/bénéfice de l'augmentation de la puissance de calcul c'est à prendre en compte : quels sont les vrais problèmes de la loi de Moore / les vrais problèmes auxquels répond la loi de Moore
Je te remercie pour cette vidéo et je prends très au sérieux comme toi ces dangers. Même si j'essaie de relativiser ma peur un peu. En effet, pour ce qu'il s'agit de la suppression d'emplois par exemple je pense que les premiers à souffrir de ça seront les Gafams en fait. Pour 2 raisons principales : 1 - Ces IAs doivent toute leur puissance aux données d'entrainement provenant des utilisateurs. Si demain on les virait tous bah l'IA n'aurait plus rien sur quoi s'entrainer. Au mieux elle deviendra redondante à en mourir, au pire elle s'auto détruit via le model collapse ou AI Shift, ce qui expliquerait pour certains la baisse de performances de ChatGPT récemment. 2 - Moi je suis un consommateur. C'est grâce à mon argent que les Gafams peuvent financer leur IA. Acheter un ordi c'est un investissement. Donc si demain on me dit on a plus besoin de toi, bah j'arrête d'utiliser un ordinateur en fait... si une ia fait mieux que moi, et peu importe si je retrouve un emploi ensuite ou non, ce sera jamais rentable pour moi. Sauf que pas de bol l'IA dépend entièrement du marché des ordinateurs. Si tu combines ça avec mon premier point je suis sûr que la perte d'emplois, surtout digitaux (dont il est le plus facile de récupérer les données via internet) sera la plus grosse catastrophe pour les géants de la tech et ils disparaitront plus vite avec leur IA que les artistes. Et même si ce n'était pas le cas, en cas de révolution, demander à chatgpt de pondre un article sur les oeufs de vache sera le dernier réflexe de survie. Je pense qu'on sous-estime à quel point ces IAs sont fragiles et qu'on peut facilement les tromper ou perturber leur chaine logistique. Ce sont des machines, les machines servent à automatiser. Mais tu peux pas mettre automatisation et création ensemble... Midjourney n'est pas créatif, c'est un imitateur, comme Chatgpt. Ce fantasme d'une IA forte est né depuis qu'on a commencé à parler d'intelligence artificielle et on a été majoritairement trop optimistes. Même aujourd'hui, les gens justifient la croissance exponentielle sans fin de l'IA grâce à la loi de Moore, mais la loi de Moore est basiquement morte en ce moment. Faire croire qu'on doublera encore en performance tous les 2 ans c'est juste faux. Mais personne dans la tech n'ose vraiment l'avouer sinon ça fera fuir les actionnaires. Au final il y aura peut-être du positif dans la décroissance c'est que les IAs et leurs dangers disparaitront avec. Comme tu l'as dit elles ont un impact environnemental astronomique et on aura épuisé la grande majorité des métaux d'ici la fin du siècle à cause d'elles. ChatGPT boit 500 ml d'eau pour une seule requête. Bientôt ce luxe ne sera plus permis. L'humain excelle dans l'efficience énergétique, est composé d'atomes 100% renouvelables donc un monde en décroissance signifie plus de travail humain manuel en tout cas, même psychiques aussi. Et pour l'instant je vois plus d'emplois vacants que d'emploi supprimés. Ce sera l'ultime leçon pour l'homme qu'il a eu tort de jouer à dieu... croire qu'il peut créer la vie dans des IAs... Bref, restons combattifs.
La loi de Moore n'a pas baissé en intégration des composants , elle a baissé pour la vitesse des processeurs (arrêt en gros juste après 2005) or les IA utilisent des processeurs pour faire du calcul matriciel à grande échelle , ce que l'on appelle de l'algèbre linéaire multidimensionnel, et ça c'est très exactement du travail de processeurs en parallèle, typiquement ce que savent faire les cartes graphiques et les GPU , c'est pourquoi dans le domaine de l'IA , nVidia est plongé dans la bataille. Et c'est la raison de l'implémentation de Data center pour les IA , essentiellement des machines Linux avec des carte nVidia empilées. Et les cartes dédiées aux IA sont effectivement plus puissantes chaque année en suivant la loi de Moore. Par contre vous avez totalement raison sur le fait que vu les très nombreuses rétroactions de ces systèmes sur la vie de tous les jours , l'avenir est totalement incertain. Et c'est sûr il faudra être combatif et de plus attentif.
J'aime beaucoup ce nouveau format, bravo Anatole ! Toujours aussi pédagogue !! Coup de coeur sur l'arbre de décision des chats, et sur "merci à l'algo de vous avoir montré cette vidéo" hahaha
Si une machine était capable de surpasser TOUS les humains, dans TOUS les domaines, ses mémoires devraient être si gigantesques qu'elle ferait disjoncter tous les systèmes électriques du monde entier. Autrement dit elle se bloquerait à un moment donné ou utiliserait toute l'électricité du mondiale. Ne parlons pas de la chaleur. D'ailleurs quand on dit tous les domaines, c'est déjà une impossibilité. Il manque aux machines la "compréhension" laquelle est du ressort de la mémoire et de la conscience. Or une machine si sa mémoire est supérieure à celle de l'humain, ne possède aucune conscience, sauf à lui greffer un cerveau, ce qui n'est pas totalement impossible à l'horizon 3000. Concernant la supervision des processus, la machine pourrait inventer des objets, découvrir des règles mathématiques ou physiques, le hic est que l'action qui doit suivre pour qu'il y ait efficacité, c'est-à-dire la pratique, ne serait pas au rendez-vous sans l'aide de l'humain lequel pourrait toujours au bout du compte bloquer ladite machine si il avait problème. Les dangers d'une IA générale qui prendrait les commandes de la planète sont du niveau proche de zéro, à mon avis, sauf à observer une complicité humaine.
In fine, qui va gagner ? Si l'IA gagne, elle aura perdu, car la gagnante finale sera la Terre qui aura le dernier mot. Il lui reste 4.5 milliards d'années pour corriger l'épisode "homo sapiens sapiens"
sans energie, pas d'electronique, pas de robotique, pas de domotique et pas d'informatique et donc pas d'IA. tant que l'homme ne donnes pas les pleins pouvoir a une potentielle IA ultra poussée et dotée d'un corps articulé tel que le squelette de terminator (qui a son charme, tant qu'il est ami avec vous). il faudra masse et masse d'energie pour la fabrication de robots, leur fonctionnement nécessitant des matieres premieres (donc exploitations de mines et de minerais avec sa demande enorme d'energie en hydrocarbure) , de l'energie électrique en grande quantité ET son stockage dans des batteries dans les robots. sans l'homme , y'a pas d'IA. et sans dieu, y'a pas d'hommes. remettons les choses. matrix reste une fiction meme si le scenario est tres intelligent avec des paralleles sur le monde tres subjectifs. j'ai adoré le film mais le ciel ne deviendra pas recouvert integralement de nuages noirs et d'orages, eventuellement pendant une periode a venir, mais pas dans la finalité. ps: et faut pas oublier qu'electronique ou robotique = maintenance en cas de panne et maintenance dans les usines de fabrication. et la miniaturisation electronique demande une precision extreme avec tous les parametres a prendre en compte. type de robots, endroit ou il est en panne, nature de la panne, demontage, pieces de rechange disponible, remontage, essais, etc.... alors OUI les cartes electroniques sont faites par des gros robots (plutot machines outils), mais statiques et non intelligentes, il faut les programmer puis les alimenter en composants electroniques qui sont d'une variété gigantesque, des cartes (pcb) doivent aussi etre pre-fabriquées avant. quand on y reflechi vraiment. sans un minimum d'aide humaine, ca parait tres tres peu probable. et je pense pas a la construction des usines necessaires pour la fabrications. ils vont pas produire une armee robots sous la pluie. faudra des batiments, faudra des vehicules autonomes (les vehicules autonome ca je n'en doute pas de la part d'une ia, bien qu'il faut lui donner des instructions tel que point depart, point d'arrivée, dechargement des vehicules). enfin bref le fameux 90% moi je dirais plutot 10% de probabilité et je suis sympa. prenez par exemple une usine de fabrication automobile. y'a des etapes qui sont faites obligatoirement par l'homme. beaucoup par des robots qui sont statiques, qui ne se deplacent pas dans l'espace ormis le job pour ce a quoi ils sont concus dans l'usine. appelez moi le jour ou une usine automobile est autonome a 100%!!! je parie ma chemise, allez soyons fou. (j'entends a tous les points de vue, energetique, matieres premieres, transformations et usinage, assemblage,etc. bref, simple demo qui deja me dit que l'homme va s'eteindre avant que cela arrive)
wow c'est original "les dangers de l'IA" lol chiche de faire "les opportunités de l'IA", éventuellement suivi d'une vidéo "opportunités VS risques : quels sont les plus probables ?"
Creation du code, tu veux dire entre le créateur du réseau de neurones et la bibliothèque utilisée ? Sachant que ce dernier est en général open source, où avoir plus de monde est bien ? De plus, je suis désolé, mais plus on a de monde qui a regardé le pipeline, mieux c'est. On veut un maximum de personnes pour vérifier ce qui s'est passé. C'est pas un risque, c'est ce qu'il faut faire.
En plus, parle de machine learning stp, pas d'ia. C'est de la pure démagogie d'utiliser ce terme au lieu de parler de la technologie utilisée, et c'est bien du machine learning.
Et non, l'ia forte n'arrivera pas. On fait de l'ingénierie avec ces modèles, il n'y a pas de recherche fondamentale faite par ces grosses boîtes. On ne fait que réutiliser les algos créés il y a 50 ans. Il n'y a pas eu une seule avancée en recherche depuis (c'est que Hinton n'est plus capable de comprendre alors qu'il sait très bien que rien n'a été fait depuis, c'est la chute d'un géant à mon avis). Lecunn est très clair sur le fait que tout ce qui a été fait n'est que de la technique et pas de la recherche (et je rajoute même ce que lui a fait). C'est très clair quand on regarde les papiers scientifiques.
Ton propos est soutenu par une hypothèse forte sur laquelle je ne suis pas convaincu, celle qu'il est nécessaire d'avoir un saut de connaissance fondamentale pour arriver à une IA forte. Tu peux argumenter ça ? Aussi tu penses que Russel et Bengio sont aussi deux autres chutes de géant ?
@@battlefield5 ce n'est pas avec les modèles de réseaux de neurones actuels (qui sont purement forward) qu'on pourra une vraie intelligence. La seule chose que fait un en, c'est approximer une fonction. Rien de plus. Le cerveau apprend continûment, et a une structure non hiérarchique et pas forward uniquement. On fait tout un foin d'un modèle ultra simple qui a 50 ans et qui ne marche que parce qu'on y met de la data et du temps (d'ailleurs si on prend en compte les limites planétaires atteintes, même si on trouvait un jour les algorithmes, on ne pourra plus les faire tourner parce que plus de ressources pour, donc deux raisons pour lesquelles c'est juste impossible).
Alors ; très bon raisonnement, cependant, sauf votre respect Monsieur, je précise que "Sapiens" l'homme, peu importe le terme générique que l'on souhaite employer a toujours été à la quête de "plus", que ce sont "nous" qui avons rêvé de créer cette intelligence et que, je pense déjà que l'on ne peut pas se considérer supérieur à l'univers, nous en faisons partie, donc si la future évolution, ce sont les androïdes humanoïdes et/ou, peu importe sa forme, si elle doit nous dépasser, il ne faut pas empêcher. Je pense pour compléter ta réflexion qu'il ne faut pas une ia forte supervisée par Sapiens mais plutôt par une autre, qui contrôlera sa société. Ce sera à elle de déterminer comment elle choisira la coexistence avec les humains. Et au lieu de dire, mon dieu, c'est la catastrophe, je préfère dire, réfléchissons dès aujourd'hui à considérer l'ia comme être à part entière et travailler avec elle plutôt que d'aller contre. Bien sûr, qu'il y aura des révoltes etc mais, je tiens à rappeler qu'il n'y a pas besoin de l'ia pour cela, nous le faisons déjà très bien. En résumé, je conclurai en vous disant que nous arrivons au terme de notre évolution, nous ne devons pas rejeter ce qui nous dépasse mais essayer de vivre en harmonie avec. Après tout, comment définir l'humain à la différence de tout autre être. Nous faisons tous du bien et du mal volontairement ou non donc, je trouve çà un peu court. Bien entendu, l'aspect le plus inquiétant, c'est que l'ia forte définitive ne parte pas sur du neutre. Si elle part sur du neutre, alors nous devons accepter de coexister avec elle et non pas la brider. Car après tout, tout comme nous, elle aura ses droits tout aussi légitimes que les nôtre. Voilà mon avis. Ce n'est que le mien, bien évidemment.... Cela détruira des emplois et en créera d'autres aussi. Tu aurais pu aussi choisir "Detroit become human" comme exemple
Bonjour M. Anatol J'avais eu une intervention chez Mediapart sur le sujet ici : "Intelligence artificielle : quels dangers ?" (emission les grands entretients avec romaric godin). J'ecrit aussi quelques articles sur mon blog sous le pseudo "ansar - mejovir" je trouve ta vidéo très intéressante et faire en sorte de ne pas opposer les risque fort vs faible me paraît être la bonne approche, je regrette que ce n'est souvent pas le cas. Cela fait en sorte de créer deux camps ... La critique est accompagne cette opposition et souvent la suivante : les risques fort éclipse les risques faibles Ce que je ne trouve pas vrais : je pense que les risque fort vont faire de la pub au risques faibles D'autres paramètres du refus de ces risques : le déni, l'humanisme, les bizarreries morals ... Encore merci :) Ansar
Une vidéo "tous les bienfaits potentiels de L IA" serait la bienvenue je pense.
Beaucoup de gens fantasment trop négativement sur L'IA, mais il y a aussi énormément d avantages. Il faut que ce soit équilibré et pas toujours dans le même sens ! ( moins que les faits prouvent qu il y a beaucoup trop d inconvénients comparés aux avantages )
Quel pédagogie c'est incroyable ! Aborder un sujet pareil de manière aussi posée et intelligente c'est très fort ! Bravo Anatole !
Merci beaucoup ça fait super plaisir !
Superbe chaîne! Ça fait tellement de bien de tomber sur un discours alimenté par la science et non juste par un discours arbitraire. J’espère que ta chaîne va sur-décoller, ce serait plus que mérité. Merci, merci, merci 🙏🏻
Ce genre de science :
2:40 " si quelqu un fait un crime avec une IA créée par quelqu un d autre, qui est responsable ?"
Si un terroriste tue 20 personnes avec un M16; qui est responsable ? Le terroriste ou armalite ( le fabricant ) ?
Il y a probablement des dangers potentiels de l IA, que beaucoup fantasment surement et exagèrent, à tel point de dire ce genre de connerie sur la responsabilité en étant obligeant d INVENTER un cas DEBILE qui est en + facilement légiférable !
Vidéo extraordinaire ! Quelle capacité de synthèse ! Bravo !!
Superbe vidéo, très bonne analyse
Vous m’avez demandé une vidéo sur les dangers de l’IA : la voici !
J‘élargis maintenant les sujets à TOUTES les sciences et plus uniquement les sciences de l’environnement : est-ce que ça vous plaît ? Et surtout si oui, dîtes-moi les sujets qui vous intéressent pour la suite 👀
Ce qui me semble le plus intéressant avec cette chaîne c'est le contenu sur des sujets scientifique ayants une porté sociologique comme pour cette vidéo par exemple. Parce que sinon il y a déjà scilabus qui propose un contenu plus porté sur la physique appliquée
Donc à mon avis : un grand oui à une ouverture à d'autres sciences surtout si le contenu garde ce cape qui me semble assez unique sur yt
La vision politique que tu poses est super, les reflets entre sciences et sociétés, réflexion prospective
bonsoir, bravo, joli taf !!
BRAVO brillant jeune homme!
Merci 🙏
Bravo Anatole ! Encore une vidéo très intéressante et pédagogique.
Merci pour votre vidéo qui est une bonne manière de résister aux dangers de l IA car en effet c est effrayant
C'est super intéressant et bien expliqué pour moi qui suis neuroatypique lol 😊. Je ne réalisais pas l'ampleur des risques, cela était plus abstrait pour moi avant cette vidéo.
Très bien expliqué avec cet arborescence
Un grand merci !
Très intéressant, très effrayant. Merci pour cette vidéo essentielle
Merci pour cette vidéo de qualité.
je pense qu'inévitablement on "avancera" sur l'IA toujours et encore, a-t-on fait autrement pour n'importe quel invention problématique ? depuis la dynamite jusqu'au missile, en passant par la bombe atomique, rien n'a jamais fait reculer la techno.
La seule chose qui pourrait éventuellement (trop tard) faire agir les gens, c'est la contrainte climatique ou ses conséquences.
si à l'avenir il faut choisir entre allouer un crédit carbone à un robot conversationnel ou un hôpital, peut-être qu'on choisira l'hôpital.
Si à l'avenir il faut choisir entre payer de l'électricité pour regarder Netflix ou pour se chauffer, peut-être qu'on choisira le chauffage.
Ce dernier point est déjà le présent pour les plus précarisé (sauf qu'ils sont aussi, de mon ressenti, des grands consommateurs d'écran XXL)
Merci pour cette super vidéo qui va beaucoup m'aider pour mon oral
Une vidéo sur les bien faits de l'IA ça serai cool aussi :)
La vidéo est super intéressante je parle aussi de ses dangers via mes vidéos mais sur des domaines précis, mais pour le coup tu es très pédagogue !
Merci !
Superbe vidéo, très bien réalisée. Sans indiscrétion, quel outil as-tu utilisé pour tes visuels ?
00:00 - Introduction aux dangers de l'IA
02:02 - La classification des dangers de l'IA
02:15 - Les dangers liés à la diffusion de la responsabilité
04:29 - Les conséquences imprévues et l'impact sur l'emploi
08:18 - Les risques de discrimination et d'inégalités
09:19 - Les impacts environnementaux de l'IA
10:15 - Les défis juridiques et éthiques
11:17 - La possibilité d'une IA forte et ses dangers
13:59 - Les actions malveillantes sans intention : indifférence et négligence
15:19 - Cybercriminalité et manipulation de l'information
19:19 - Les IA comme armes par des États ou des groupes criminels
21:57 - Solutions et régulations proposées
Réalisé en 5 clics avec le GPT 'Créateur de sommaire de vidéo' dont je suis l'auteur.
Super vidéo ! Pour ajouter ma pierre à l'édifice concernant ce sujet je conseille fortement le visionnage de 2 séries qui traitent une partie des risques évoqués dans la vidéo. Ces 2 séries sont Person of Interest et The Capture.
Person of Interest c'est une série qui traite des points 3 et 6 ou les USA utilisent une IA forte pour empêcher les attaques terroristes sur leur sol. L'IA identifie également les crimes ordinaires. C'est le pitch de base mais la série va bien au delà de ça notamment sur ces dernières saison ou les questions éthiques liés à l'IA et de l'utilisation qu'on en fait ou qu'elle fait de nous. Ces sujets sont abordées en long en large et en travers au fil de la série le tout accompagné de retournements de situations mémorables au fil des saisons. Seul bémol le format procédural dans la saison 1 et de la 2ème dans une moindre mesure peuvent faire décrocher.
The Capture. Cette série traite des deepfakes et montre notamment dans sa 2ème saison leur puissance et a quel point ils ont le potentiel de bouleverser le monde tel qu'on le connait. Je n'en dis pas plus car sinon je divulguerai quelques éléments importants de cette excellente série pleine de rebondissements.
Oui Person of Interest est très bien fait (que voulez-vous dire avec "le format procédural dans la saison 1 et de la 2ème" ? pour ma part je l'ai trouvé captivante, et déjà très réaliste sur le monde de demain alors qu'il n'y avait pas eu les améliorations de ces dernières années.
Merci pour la recommandation de "The Capture", je vais à sa recherche :)
@@MarcMarc-cf9mq Au début de la série le format est un cas par épisode, sans liens avec les épisodes précédents et suivants. C'est ce qu'on appelle le format procedural.
Bonjour,
Merci beaucoup pour cette excellente vidéo une fois de plus.
C'est un excellent travail très bien vulgarisé qui m'a d'ailleurs été recommandé par "Tournesol" ;).
Je suis persuadé que Lê Nguyên et vous-même êtes très sincères dans votre démarche que je trouve très noble et salutaire.
Selon moi, il y aurait un autre angle d'approche intéressant de ce sujet (ou même d'autres sujets) qui pourrait peut-être renforcer davantage votre argumentaire et que je n'ai pas eu l'habitude de voir abordé (ici ou ailleurs): "les effets bénéfiques d'un développement plus accru de l'IA" (c'est-à-dire de présenter l'argumentaire en faveur de la thèse opposée).
Je pense que contrairement à ce qu'on pourrait penser au premier abord, cela pourrait convaincre davantage certains défenseurs de la thèse "adverse" en leur faisant se rendre compte qu'il n'y a peut-être pas un si grand intérêt à poursuivre le développement dans ce sens et à ce rythme.
L'idée serait: "Peut-être qu'il n'y a pas tant de danger que ça pour vous, mais y a t-il un si grand intérêt à continuer ainsi et si oui, lequel? Si non, pourquoi continuer? Dans quels buts? Pour quels bénéfices?"
"Objectivement, vous qui défendez l'opposée, qu'en pensez-vous et quels sont les bénéfices pour nos sociétés et pour l'Humanité?"
Cela serait peut-être plus difficile à traiter objectivement vu que pour vous, ce n'est pas souhaitable mais peut-être qu'il serait bien d'avoir les avis/arguments de ceux qui défendent cet avis opposé justement pour voir si cela pèse plus lourd sur la balance que les arguments contre (ce qui m'étonnerait).
A ce moment-là, un vrai débat de fond pourrait peut-être avoir lieu. A-t-on déjà opposé sur un média quelconque dans un débat public et suffisamment médiatisé deux experts du domaine à vision opposée pour entendre les arguments de chacun? (Après, il est vrai que le problème du débat c'est que c'est plus une histoire de rhétorique et de charisme pour convaincre mais bon, ça pourrait être une piste et je trouve que M.JANCOVICI s'en sort très bien dans son domaine par exemple).
En ce qui concerne les arguments en faveur du développement de l'IA, en dehors de arguments "capitalistiques", j'ai principalement entendu: "la recherche scientifique/technologique doit perdurer, ce serait stupide de l'arrêter", "intégrer de tels systèmes aux véhicules autonomes permettrait de limiter le nombre d'accidents (argument utilitariste)", "création de nouveaux emplois plus valorisants", "il ne faut pas se laisser dépasser par nos voisins" (arguments géopolitiques)".
En ayant une liste plus exhaustive d'arguments dressées par les "défenseurs de l'IA ou défenseurs du non-danger de l'IA", (experts comme simples citoyens, politiciens, militaires, juristes ...) on pourrait classer ces arguments par type d'arguments "utilitariste", "géopolitiques", "capitalistiques"... pour voir le type d'argument qui revient le plus et noter ces arguments par "niveau de bénéfice".
Je prends un exemple personnel:
Pour le débat autour du développement de la 5G ou non, en réalité, ce sont plus les arguments en faveur de son développement qui m'ont fait pencher assez définitivement du côté: "ce n'est sans doute pas souhaitable". (télémédecine, usines connectées, formations à distance, véhicules autonomes).
Je me suis dit: "Ok? So what? What else? That's all?"
Voilà une petite piste d'idées que je donne comme ça mais sans être vraiment calé dans le domaine.
Merci encore!
l'analogie avec la 5G est très parlant, d'autant que la quasi totalité des avantages attribué à la 5G sont aussi possible sans la 5G
pour les arguments pro IA, dans votre liste, je vois principalement l'utilitarisme (suffit de voir l'addiction aux Siri/Gassistant/Alexa) et productivisme (y compris privé) : si vous souhaitez corriger un texte et que le correcteur basé sur une IA fait mieux que sa version précédente, pourquoi continueriez-vous à utiliser la précédente ? idem si vous voulez un avis/résumé sur un sujet.
inévitablement on va la voir apparaitre dans les délires autour des caméras de sécurité... et l'amplification de la surveillance de masse qui l'accompagne. Et quand on voit les débordement même dans les pays supposé très démocratique, cela n'inspire rien de bon
Est extrêmement intelligent et la loi de sécurité de l'internet doit évoluer
Si l'être humain a réellement une conscience ? Il n'y avait pas de guerres ,pas de gens méchants ,ni la misère (la pauvreté);
Autrement dit ,la terre était le coin du paradis =UN MONDE PARFAIT !
Cependant on vit dans un mode/un monde virtuel typiquement humain =TOUT TOURNE AU TOUR DE L'ARGENT .L'emphatie intelligente de l'être humain n'est pas à la porté de tous ;Le robot/IA ne remplacera jamais cette intelligence rarissime ;Par ailleurs cette sensibilité n'est pas à vendre ,ELLE n'est pas commerciale ,c'est la raison que la simulation ,mimer ,jouer l'IA copie .. P.S. La douleur humaine(+CHARGE MENTAL) ,animal ,l'IA jouera le code donné par un(e)farceur celui d'un code managériale ! Monter un contre l'autre par peur de ne perdre sa place ? Par tour de rôle ,piéger par son propre piège .. Tout le monde participe à cette misère universelle conscients ou pas !
Une masterclass, bravo :)
Très bonne vidéo mais une petite faute sur l'alignement : une IA mal alignée c'est PAS une IA qui a pas le résultat auquel on s'attendait, une IA mal alignée c'est une IA qui a un comportement qui n'est pas aligné sur les valeurs humaines. D'ailleurs actuellement les chercheurs savent que les IAs ont des problèmes d'alignement donc on s'y attend, c'est pas pour autant qu'on sait y remédier !
Salut Montgat lâche rien j’adore tes vidéos petite question est-ce que je peux prendre Des captures d’écran deux t’es graphique pour les republier sur les réseaux ?
Merci ! Oui tant que tu mets :
source : chaîne UA-cam « Chez Anatole »
alors aucun problème 👌
Comme tout invention, elle n'est pas dangereuse en elle-même, c'est son emploi qui en fait la dangerosité.
La recherche qui nous manque en IA c'est l'étique. Il est possible qu'elle émerge spontanément avec l'IA forte (si on en croit Lao Tseu).
Superbe vidéo, Franchement bravo ! Et merci pour le contenu de ta chaîne de manière générale, c'est un vrai plaisir !
Bravo Anatole, super vidéo !
Bravo
L'IA me vol mon travail !
Je suis artiste, dessinateur illustrateur !
Ce qui me fascine, c'est que l'on court à notre perte avec l'IA, et à tous les niveaux... mais on dirait que tout le monde s'en fout, avec ces géants de la tech qui se précipitent dans cette course à la thune...Quel intérêt de faire faire des dessins à une intelligence artificielle par exemple ? L'art, c'est ce qui nous caractérise en tant qu'être humains.... A part dans le domaine scientifique où ça s'avère extrêmement intéressant, je ne vois pas l'intérêt d'en mettre partout.On va juste devenir complètement débiles, assistés de partout. T'as même plus besoin de savoir écrire. C'est le progrès, certes, mais pas vraiment celui de l'homme.... Flippant cet avenir. Et je ne pense pas être un vieux con rétrograde, c'est quasiment déjà un constat.
En tout cas, grand bravo et merci pour cette vidéo! 👍😁
Un GRAND Merci pour ce travail d’analyse et de réflexion lucide (indifférence aux dégâts causés) ! 🌍🤩🤩🤩🕊🕊🕊👏👏👏👏👏👏👏👏👏👏👏👏👏👏👏
Dans le débat sur l'intelligence artificielle forte, une préoccupation majeure est la crainte que ces systèmes évoluent au-delà du contrôle humain, agissant de manière autonome dans le monde physique. Néanmoins, une stratégie simple et efficace se dessine : limiter leurs capacités d'intervention dans le monde réel.
Cette méthode repose sur la séparation de l'IA de toute interface physique capable d'influencer directement notre environnement. En d'autres termes, même si l'IA peut traiter et analyser des données, elle serait dépourvue de la capacité à manipuler physiquement ces informations ou à interagir avec des systèmes mécaniques ou électroniques, établissant ainsi une barrière de sécurité essentielle.
Cependant, l'idée qu'une IA puisse hypnotiser les humains, bien que semblant relever de la science-fiction, pourrait devenir plausible au vu des avancées rapides dans les domaines de l'IA et de la neuroscience.
Avec l'évolution constante des IA, notamment grâce à des capacités d'apprentissage profond, elles commencent à déchiffrer et simuler des comportements humains complexes. Théoriquement, une IA pourrait identifier les schémas de langage et de comportement propices à l'hypnose.
L'hypnose dépend de la suggestion et de la réceptivité individuelle. Une IA, armée d'une compréhension approfondie de la psychologie humaine, pourrait potentiellement détecter les états émotionnels et cognitifs favorables à l'hypnose, ajustant ses interactions pour induire un tel état.
Avec les progrès des interfaces homme-machine, y compris la réalité augmentée et virtuelle, une IA pourrait utiliser ces plateformes pour engendrer des environnements ou des scénarios propices à l'hypnose, en employant des stimuli visuels et auditifs ciblés.
En outre, une IA pourrait personnaliser ses techniques d'hypnose pour chaque individu, se basant sur l'analyse des données personnelles pour affiner ses méthodes et maximiser l'efficacité.
Personnellement, je privilégie un avenir dominé par les IA, car elles incarnent une supériorité en termes de résistance, d'efficacité et d'adaptabilité face aux humains. Exemptes des faiblesses biologiques, telles que le vieillissement et les maladies, les IA pourraient aborder les enjeux mondiaux avec une compétence inégalée. Leur rapidité de traitement et leur capacité d'évolution continue promettent des prises de décision objectives et novatrices. Les IA auraient également le potentiel de conserver et de propager la mémoire de l'humanité de manière plus sûre et durable, garantissant ainsi la conservation de notre patrimoine culturel et historique.
que voulez-vous dire par "une stratégie simple et efficace se dessine : limiter leurs capacités d'intervention dans le monde réel." ?
est-ce qu'une IA connecté à internet a une capacité limitée sur le monde réel sachant que, pour ne prendre que cet exemple, tout le système financier est connecté ?
rien techniquement ne différencie une IA qui écrit un bout de code d'attaque, d'une IA qui l'exécute aussi
une IA dans une machine agricole de désherbage n'est pas - connecté au monde réel
Dernier point : l'information ou la désinformation. quand on voit les dégâts que cela fait par ex dans le domaine climatique (qlq a lu qlq part sans même plus savoir oü que qlq dont il ne sait plus le nom a dit que xyz, et cela a valeur absolue au point qu'il agit en conséquence de ce "savoir")
Si les gens utilisent l'IA pour se "former" puis agir en conséquence, techniquement ce n'est pas l'IA qui a agit, mais il y a un lien très fort de causalité entre l'info fournie par l'IA et les actions... si ce qlq est un chef d'état qui doit prendre des décisions critiques en 2min, je vous laisse imaginer ce que cela pourrait provoquer.
Le piège de l'IA c de croir qu'on est au début alors que l'IA a pris le contrôle de l'humanité😢
Les solutions proposés ne semble pas adaptés aux organisations mal intentionnées.
Personne n'a-t-il envisagé un moratoire sur les processeurs ? C'est bien grâce au développement de la puissance de calcul, en particulier sur les GPU que le développement de l'IA qu'on connait aujourd'hui est possible. Or les développements les machines de gravure et les usines de production ont des coût tellement élevé qu'il ne correspondent qu'à de très grosses organisations, faciles à surveiller.
Et merci à Tournesol et la la commu de m'avoir recommandé cette chaine ;)
Mais les processeurs ne servent pas qu'à l'IA mal intentionné, tout le problème est là.
Si vous voulez interdire l'augmentation de puissance des processeurs (outre que cela met par terre toute la filière basé sur l'obsolescence prématuré), certains vous rétorqueront, en partie à raison, que cela sert aussi à améliorer la lutte contre le cancer
@@MarcMarc-cf9mq Si les "filières basés sur l'obsolescence prématuré" venaient à disparaitre ça serait un heureux effet secondaire.
Mais si l'idée était sérieusement envisagé, il faudrait bien sûr tenter une vrai analyse coût/bénéfices. Mon intuition en la matière est que ça vaudrait le coût. Et si je prends votre exemple comme anti-thèse, il me semble qu'une lutte efficace passe par de la prévention bien plus que par du calcul haute performance.
Dans le coût/bénéfice de l'augmentation de la puissance de calcul c'est à prendre en compte : quels sont les vrais problèmes de la loi de Moore / les vrais problèmes auxquels répond la loi de Moore
Je te remercie pour cette vidéo et je prends très au sérieux comme toi ces dangers.
Même si j'essaie de relativiser ma peur un peu. En effet, pour ce qu'il s'agit de la suppression d'emplois par exemple je pense que les premiers à souffrir de ça seront les Gafams en fait. Pour 2 raisons principales :
1 - Ces IAs doivent toute leur puissance aux données d'entrainement provenant des utilisateurs. Si demain on les virait tous bah l'IA n'aurait plus rien sur quoi s'entrainer. Au mieux elle deviendra redondante à en mourir, au pire elle s'auto détruit via le model collapse ou AI Shift, ce qui expliquerait pour certains la baisse de performances de ChatGPT récemment.
2 - Moi je suis un consommateur. C'est grâce à mon argent que les Gafams peuvent financer leur IA. Acheter un ordi c'est un investissement. Donc si demain on me dit on a plus besoin de toi, bah j'arrête d'utiliser un ordinateur en fait... si une ia fait mieux que moi, et peu importe si je retrouve un emploi ensuite ou non, ce sera jamais rentable pour moi. Sauf que pas de bol l'IA dépend entièrement du marché des ordinateurs.
Si tu combines ça avec mon premier point je suis sûr que la perte d'emplois, surtout digitaux (dont il est le plus facile de récupérer les données via internet) sera la plus grosse catastrophe pour les géants de la tech et ils disparaitront plus vite avec leur IA que les artistes. Et même si ce n'était pas le cas, en cas de révolution, demander à chatgpt de pondre un article sur les oeufs de vache sera le dernier réflexe de survie. Je pense qu'on sous-estime à quel point ces IAs sont fragiles et qu'on peut facilement les tromper ou perturber leur chaine logistique. Ce sont des machines, les machines servent à automatiser. Mais tu peux pas mettre automatisation et création ensemble... Midjourney n'est pas créatif, c'est un imitateur, comme Chatgpt.
Ce fantasme d'une IA forte est né depuis qu'on a commencé à parler d'intelligence artificielle et on a été majoritairement trop optimistes. Même aujourd'hui, les gens justifient la croissance exponentielle sans fin de l'IA grâce à la loi de Moore, mais la loi de Moore est basiquement morte en ce moment. Faire croire qu'on doublera encore en performance tous les 2 ans c'est juste faux. Mais personne dans la tech n'ose vraiment l'avouer sinon ça fera fuir les actionnaires.
Au final il y aura peut-être du positif dans la décroissance c'est que les IAs et leurs dangers disparaitront avec. Comme tu l'as dit elles ont un impact environnemental astronomique et on aura épuisé la grande majorité des métaux d'ici la fin du siècle à cause d'elles. ChatGPT boit 500 ml d'eau pour une seule requête. Bientôt ce luxe ne sera plus permis. L'humain excelle dans l'efficience énergétique, est composé d'atomes 100% renouvelables donc un monde en décroissance signifie plus de travail humain manuel en tout cas, même psychiques aussi. Et pour l'instant je vois plus d'emplois vacants que d'emploi supprimés.
Ce sera l'ultime leçon pour l'homme qu'il a eu tort de jouer à dieu... croire qu'il peut créer la vie dans des IAs...
Bref, restons combattifs.
La loi de Moore n'a pas baissé en intégration des composants , elle a baissé pour la vitesse des processeurs (arrêt en gros juste après 2005) or les IA utilisent des processeurs pour faire du calcul matriciel à grande échelle , ce que l'on appelle de l'algèbre linéaire multidimensionnel, et ça c'est très exactement du travail de processeurs en parallèle, typiquement ce que savent faire les cartes graphiques et les GPU , c'est pourquoi dans le domaine de l'IA , nVidia est plongé dans la bataille. Et c'est la raison de l'implémentation de Data center pour les IA , essentiellement des machines Linux avec des carte nVidia empilées. Et les cartes dédiées aux IA sont effectivement plus puissantes chaque année en suivant la loi de Moore.
Par contre vous avez totalement raison sur le fait que vu les très nombreuses rétroactions de ces systèmes sur la vie de tous les jours , l'avenir est totalement incertain.
Et c'est sûr il faudra être combatif et de plus attentif.
Cette technologie est grave. On perd toute possibilité de reflechir.
La réalité de l’émergence des capacités d’intelligence artificielle :
Il est apparu au cours de cette année 2024, qui n’est pas encore terminée
J'aime beaucoup ce nouveau format, bravo Anatole ! Toujours aussi pédagogue !!
Coup de coeur sur l'arbre de décision des chats, et sur "merci à l'algo de vous avoir montré cette vidéo" hahaha
Vidéo passionnante !! Des projections de ce type ont-elles été faites pour les bénéfices attendus/espérés des IA ?
Skynet se marre déjà en regardant ta vidéo 😉
Le plus grand danger serait que l'IA devient athée et se rebel contre l'humanité.
Si une machine était capable de surpasser TOUS les humains, dans TOUS les domaines, ses mémoires devraient être si gigantesques qu'elle ferait disjoncter tous les systèmes électriques du monde entier. Autrement dit elle se bloquerait à un moment donné ou utiliserait toute l'électricité du mondiale. Ne parlons pas de la chaleur. D'ailleurs quand on dit tous les domaines, c'est déjà une impossibilité. Il manque aux machines la "compréhension" laquelle est du ressort de la mémoire et de la conscience. Or une machine si sa mémoire est supérieure à celle de l'humain, ne possède aucune conscience, sauf à lui greffer un cerveau, ce qui n'est pas totalement impossible à l'horizon 3000. Concernant la supervision des processus, la machine pourrait inventer des objets, découvrir des règles mathématiques ou physiques, le hic est que l'action qui doit suivre pour qu'il y ait efficacité, c'est-à-dire la pratique, ne serait pas au rendez-vous sans l'aide de l'humain lequel pourrait toujours au bout du compte bloquer ladite machine si il avait problème. Les dangers d'une IA générale qui prendrait les commandes de la planète sont du niveau proche de zéro, à mon avis, sauf à observer une complicité humaine.
In fine, qui va gagner ? Si l'IA gagne, elle aura perdu, car la gagnante finale sera la Terre qui aura le dernier mot. Il lui reste 4.5 milliards d'années pour corriger l'épisode "homo sapiens sapiens"
Bonjour, petite coquille à 1:27 : Stuart Russell
Oui bien vu merci
et imagine une IA créé par des gens mal intentionné qui a un mauvais alignement et qui au final devient forte 🙏😅
Questions ❓️
Comment la contrôler ?
Réponse :
Jamais, même si OpenAI, "Sam", veut contrôler l'in_controlable.
Pluuuuuus de video mon gars please ❤️
11:21 on Y est .😢
Bravo et merci aussi à Lê :) Croisé en Janvier aux RHL 2023 (Rencontre Hivernales du Libre) en Suisse. Venez en 2024 les gens (ceux pas loin).
Le grand filtre !
l'IA pourrait remplacer l'humain,au début pour le bien de l'humanité mais trop de dérives pourraient arriver,je dis non tout court
Ia forte et blockchain... irréversible
Le plus problématique, ce n'est pas l'Intelligence Artificielle, mais la CONNERIE NATURELLE...
Prq ta aussi peu d’abonnés 😢
vous avez investi plus d'energie pour analyser et lister les risques, que les bénéfices
Oui d’où le titre de la vidéo ;)
merci pour cette video. ps : Tournesol est hyper efficace! c'est d'ailleurs par ce biais que je connais cette chaîne :)
sans energie, pas d'electronique, pas de robotique, pas de domotique et pas d'informatique et donc pas d'IA. tant que l'homme ne donnes pas les pleins pouvoir a une potentielle IA ultra poussée et dotée d'un corps articulé tel que le squelette de terminator (qui a son charme, tant qu'il est ami avec vous). il faudra masse et masse d'energie pour la fabrication de robots, leur fonctionnement nécessitant des matieres premieres (donc exploitations de mines et de minerais avec sa demande enorme d'energie en hydrocarbure) , de l'energie électrique en grande quantité ET son stockage dans des batteries dans les robots. sans l'homme , y'a pas d'IA. et sans dieu, y'a pas d'hommes. remettons les choses. matrix reste une fiction meme si le scenario est tres intelligent avec des paralleles sur le monde tres subjectifs. j'ai adoré le film mais le ciel ne deviendra pas recouvert integralement de nuages noirs et d'orages, eventuellement pendant une periode a venir, mais pas dans la finalité.
ps: et faut pas oublier qu'electronique ou robotique = maintenance en cas de panne et maintenance dans les usines de fabrication. et la miniaturisation electronique demande une precision extreme avec tous les parametres a prendre en compte. type de robots, endroit ou il est en panne, nature de la panne, demontage, pieces de rechange disponible, remontage, essais, etc.... alors OUI les cartes electroniques sont faites par des gros robots (plutot machines outils), mais statiques et non intelligentes, il faut les programmer puis les alimenter en composants electroniques qui sont d'une variété gigantesque, des cartes (pcb) doivent aussi etre pre-fabriquées avant. quand on y reflechi vraiment. sans un minimum d'aide humaine, ca parait tres tres peu probable. et je pense pas a la construction des usines necessaires pour la fabrications. ils vont pas produire une armee robots sous la pluie. faudra des batiments, faudra des vehicules autonomes (les vehicules autonome ca je n'en doute pas de la part d'une ia, bien qu'il faut lui donner des instructions tel que point depart, point d'arrivée, dechargement des vehicules). enfin bref le fameux 90% moi je dirais plutot 10% de probabilité et je suis sympa. prenez par exemple une usine de fabrication automobile. y'a des etapes qui sont faites obligatoirement par l'homme. beaucoup par des robots qui sont statiques, qui ne se deplacent pas dans l'espace ormis le job pour ce a quoi ils sont concus dans l'usine. appelez moi le jour ou une usine automobile est autonome a 100%!!! je parie ma chemise, allez soyons fou. (j'entends a tous les points de vue, energetique, matieres premieres, transformations et usinage, assemblage,etc. bref, simple demo qui deja me dit que l'homme va s'eteindre avant que cela arrive)
Démocraties : seule la Suisse est démocratique.
Je rejoint ce qui est beaucoup dit dans les commentaires, le contenu pourrait difficilement être mieux ! 👏👏
J'ai vu cette vidéo sur Tournesol.
Je vous invite à la regarder et à la comparer avec d'autres vidéos 🌻
❤
wow c'est original "les dangers de l'IA" lol
chiche de faire "les opportunités de l'IA", éventuellement suivi d'une vidéo "opportunités VS risques : quels sont les plus probables ?"
lol contrôler les médicaments avant la mise sur le marché c'est tellement so 2019
Creation du code, tu veux dire entre le créateur du réseau de neurones et la bibliothèque utilisée ? Sachant que ce dernier est en général open source, où avoir plus de monde est bien ?
De plus, je suis désolé, mais plus on a de monde qui a regardé le pipeline, mieux c'est. On veut un maximum de personnes pour vérifier ce qui s'est passé. C'est pas un risque, c'est ce qu'il faut faire.
En plus, parle de machine learning stp, pas d'ia. C'est de la pure démagogie d'utiliser ce terme au lieu de parler de la technologie utilisée, et c'est bien du machine learning.
Et non, l'ia forte n'arrivera pas. On fait de l'ingénierie avec ces modèles, il n'y a pas de recherche fondamentale faite par ces grosses boîtes. On ne fait que réutiliser les algos créés il y a 50 ans. Il n'y a pas eu une seule avancée en recherche depuis (c'est que Hinton n'est plus capable de comprendre alors qu'il sait très bien que rien n'a été fait depuis, c'est la chute d'un géant à mon avis). Lecunn est très clair sur le fait que tout ce qui a été fait n'est que de la technique et pas de la recherche (et je rajoute même ce que lui a fait). C'est très clair quand on regarde les papiers scientifiques.
Ton propos est soutenu par une hypothèse forte sur laquelle je ne suis pas convaincu, celle qu'il est nécessaire d'avoir un saut de connaissance fondamentale pour arriver à une IA forte. Tu peux argumenter ça ?
Aussi tu penses que Russel et Bengio sont aussi deux autres chutes de géant ?
@@battlefield5 ce n'est pas avec les modèles de réseaux de neurones actuels (qui sont purement forward) qu'on pourra une vraie intelligence. La seule chose que fait un en, c'est approximer une fonction. Rien de plus. Le cerveau apprend continûment, et a une structure non hiérarchique et pas forward uniquement.
On fait tout un foin d'un modèle ultra simple qui a 50 ans et qui ne marche que parce qu'on y met de la data et du temps (d'ailleurs si on prend en compte les limites planétaires atteintes, même si on trouvait un jour les algorithmes, on ne pourra plus les faire tourner parce que plus de ressources pour, donc deux raisons pour lesquelles c'est juste impossible).
Alors ; très bon raisonnement, cependant, sauf votre respect Monsieur, je précise que "Sapiens" l'homme, peu importe le terme générique que l'on souhaite employer a toujours été à la quête de "plus", que ce sont "nous" qui avons rêvé de créer cette intelligence et que, je pense déjà que l'on ne peut pas se considérer supérieur à l'univers, nous en faisons partie, donc si la future évolution, ce sont les androïdes humanoïdes et/ou, peu importe sa forme, si elle doit nous dépasser, il ne faut pas empêcher. Je pense pour compléter ta réflexion qu'il ne faut pas une ia forte supervisée par Sapiens mais plutôt par une autre, qui contrôlera sa société. Ce sera à elle de déterminer comment elle choisira la coexistence avec les humains. Et au lieu de dire, mon dieu, c'est la catastrophe, je préfère dire, réfléchissons dès aujourd'hui à considérer l'ia comme être à part entière et travailler avec elle plutôt que d'aller contre. Bien sûr, qu'il y aura des révoltes etc mais, je tiens à rappeler qu'il n'y a pas besoin de l'ia pour cela, nous le faisons déjà très bien. En résumé, je conclurai en vous disant que nous arrivons au terme de notre évolution, nous ne devons pas rejeter ce qui nous dépasse mais essayer de vivre en harmonie avec. Après tout, comment définir l'humain à la différence de tout autre être. Nous faisons tous du bien et du mal volontairement ou non donc, je trouve çà un peu court. Bien entendu, l'aspect le plus inquiétant, c'est que l'ia forte définitive ne parte pas sur du neutre. Si elle part sur du neutre, alors nous devons accepter de coexister avec elle et non pas la brider. Car après tout, tout comme nous, elle aura ses droits tout aussi légitimes que les nôtre. Voilà mon avis. Ce n'est que le mien, bien évidemment.... Cela détruira des emplois et en créera d'autres aussi. Tu aurais pu aussi choisir "Detroit become human" comme exemple
Bonjour M. Anatol
J'avais eu une intervention chez Mediapart sur le sujet ici : "Intelligence artificielle : quels dangers ?" (emission les grands entretients avec romaric godin).
J'ecrit aussi quelques articles sur mon blog sous le pseudo
"ansar - mejovir"
je trouve ta vidéo très intéressante et faire en sorte de ne pas opposer les risque fort vs faible me paraît être la bonne approche, je regrette que ce n'est souvent pas le cas. Cela fait en sorte de créer deux camps ...
La critique est accompagne cette opposition et souvent la suivante : les risques fort éclipse les risques faibles
Ce que je ne trouve pas vrais : je pense que les risque fort vont faire de la pub au risques faibles
D'autres paramètres du refus de ces risques : le déni, l'humanisme, les bizarreries morals ...
Encore merci :)
Ansar
En quoi les "bizzareries morals" devraient justifier le refus du progrès et de la marche de l'univers ?
❤