J’ai appris beaucoup plus en écoutant cet exposé d’une heure qu’après avoir écouté l’interview d’une heure par la chaîne PBS (Public Broascasting) de Geoffrey Hinton qui philosophait (déblatérait ?) sur le futur de l’IA. Quand Yann Le Cun parlait de différents types d’IA pour différents besoins, il y a un exemple qui m’a sauté à l’esprit: celui les 2 robots de Star Wars, C-3PO et RD-D2
IA et open-source: Quand les décideurs politiques, décident et votent des lois, sans en comprendre les conséquences, par manque de maitrise scientifique, ce qui ne serait pas un problème en soi, mais surtout, sans questionner les scientifiques, ou le public via ses associations (sociétés locales). Ils sont généralement enfermés dans leurs certitudes, et convaincants, et ils prennent donc des décisions absurdes, et contre productives. Nous ne devrions pas laisser le pouvoir à ceux qui le veulent.
@@arthurallard3647 je pense que ce qu il veut dire c est que Yann lecun étant le chef projet de l IA de meta est il compétant pour nous alerter sur les dangers de l IA ? Dans les années 70 les scientifiques des cigaretiers nous rassuraient sur le non danger des cigarettes par exemple . Mais J ai peut être mal compris .
@@Panacea_archive On peut dire ca oui ^^ (au cas où tu me dis ca pcq tu ne l'as pas trouvé clair, je te recommande la vidéo "Le père fondateur du Deep learning - Yann Lecun". C'est extrêmement clair et ne rentre pas trop dans les détails comme dans cette vidéo)
Selon lui c'est pas tellement une question de temps ou qté d'apprentissage. Il a déjà dit que les modèles génératifs n'apprendront jamais le monde, même si on les entraînait jusqu'à la fin des temps. Il dit qu'ils n'ont juste pas de capacité d'abstraction solide. Les représentations du monde qu'ils se créent pour générer du texte (dans le cas des LLMs) ou des images/vidéos (dans le cas de Midjourney, SORA) sont trop faibles, genre infiniment trop faibles.
Oui mais il a fallu 200 ans pour que les peintres sachent dessiner convenablement les doigt de pieds et des mains… il a fallu 1 an pour les IA. À Florence il y a deux ans J ai halluciné en voyant les tableaux de la renaissance les doigts ressemblaient à ceux d ET ( le film de spielberg) en revanche il y en avait bien 5 par membres.😅
Ce que je veux dire c est que l exemple de Yann lecun n est pas bon. Si on prenait un hibernatus (un homme sapiens pris dans les glaces) qu’on arrive à le réanimer et qu on le mette dans une voiture je pense que son cerveau disjoncterai. Pour qu il y ai une 20aine d heure c est parce qu il y a eu 20 000 ans d apprentissage long et profond du cerveau humain pour savoir conduire. Je me pose la question. Je suis un inquiet des IA.
Il y a un problème de vocabulaire: intelligence (intelligere / comprendre/ to understand) ne me semble pas correspondre à la qualité d une machine. Qu’un ordinateur calcule mieux, plus vite et sans fautes, qu’un humain ne signifie pas, me semble t il, qu’il est plus intelligent. On devrait plutôt dire, plus compétent, plus performant, plus puissant, … mais pas plus intelligent.
Ne confondez-vous pas intelligence et conscience ? Bien sûr, la conscience est une forme d'intelligence que la machine n'a pas... Quand on parle de intelligence, pour l'IA, c'est au sens large. Mais ça n'englobe pas toutes les formes d'intelligence.
Je suis d'accord avec vous, l'intelligence se définit par la capacité de créer, de penser, de concevoir, etc. Résoudre des problèmes complexes n'a rien à voir avec de l'intelligence. Nos détracteurs ont une conception artificielle de l'intelligence...
Moi il y a un truc qui me perturbe ! On dit que sur le développement de l'IA on est sur une courbe exponentielle, donc logiquement les 1ers partis dans cette course devrait accentuer leurs avances sur les dernièrs et on voit que c'est le contraire qui se passe, open ai avec chat gpt est partie le 1er et les autres comme Claude ont rattraper leur retard voir ont dépassés chat gpt sur certaines tâches. Donc soit on nous vends du reve avec leurs courbes exponentielles soit ils ont mis leurs IA en pause chez open ai depuis plus de 2 ans et dans ce cas pourquoi ?
parce que toutes les entreprises n'évoluent pas de manière identique 🤷♂ certaines ne prennent pas les bonnes décisions à temps ou à l'inverse parviennent à rattraper leur retard à la faveur d'une découverte opportuniste etc. j'ai comme un doute sur la nature "exponentielle" de son évolution, mais on peut facilement imaginer qu'une découverte permet d'ouvrir deux nouvelles voies de recherche, lesquelles à leur tour voient des découvertes qui en font autant etc. ça ne veut pas non plus dire que c'est la même entreprise qui est sur tous les fronts.
@@Agesilas2 Quelles découvertes majeures y a t'il eu entre gpt 3 et actuellement c'est toujours le même fonctionnement, des LLM ? Donc aucune raison que Claude qui est partie bien après gpt 3 est réussi à combler le retard qu'il avait avec chat gpt. Surtout que chat gpt en plus d'être partie plus tôt il est partie avec plus de moyens il a également beaucoup plus de données car beaucoup plus d'utilisateurs donc le fossé devrait se creuser entre ceux qui sont partis le plus tôt et ceux qui sont partis en retard et c'est le contraire qui se passe, ou alors c'est du à des décisions qui font en sorte de faire traîner les choses et si oui pourquoi ?
@@brutusbrutus8583 non mais comme dit je doute que l'adjectif "exponentiel" soit vraiment adapté. alors ok, si on dit "depuis le mois dernier y'a rien qui a changé" évidemment, mais si on regarde de manière un peu plus large depuis 20 ans, les progrès en IA ont été démultipliés comme aucun autre domaine moderne, et chaque innovation a poussé à l'élargissement des champs de recherche, là où auparavant on se préoccupait uniquement de reconnaitre laborieusement quelques caractères manuscrits et faire des chatbots moisis. aujourd'hui la video et l'audio se sont joint à la partie, le traitement du langage a complètement changé de visage et on cherche non plus comment faire parler la machine mais comment la faire penser en lui inculquant des notions morales etc. sans parler des tétrachiées d'autres domaines plus classiques qui ont vu leur application transformée grâce à la puissance des modèles prédictifs et/ou classificateurs. pour le reste, la question ne se résume pas à une question d'argent ou de nombre d'utilisateurs (même si ça compte évidemment), d'un côté l'IA repose sur bien d'autres facteurs, notamment techniques du domaines comme la topologie du réseau de neurones ; avec les mêmes données on les agence différemment et ça fait plus de chocapics que le voisin... d'un autre côté ça tient aussi aux idées que les chercheurs peuvent avoir, "tiens ce truc là marche pas mais si on prend le problème dans l'autre sens finalement ça marche" etc. et non, les déicisions ne sont pas prises "pour faire trainer les choses", c'est juste que des chercheurs peuvent avoir une idée lumineuse un jour, la sauce prend et les rend célèbre (et leur entreprise par la même occasion) pendant quelques temps, et puis ce sera peut-être la seule idée retentissante qu'ils auront de leur vie, c'est d'ailleurs plutôt ça la recherche de manière générale, c'est rare de faire une découverte énorme. il se trouve qu'en IA comme tout reste à faire, les idées énormes se bousculent, c'est normal, jusqu'à ce qu'on atteigne un plateau avec des problèmes insolubles, ou pas.
@@bossgd100 u as raison, ça montre qu'on pourrait avoir quelque chose de bien plus performant, mais par crainte que certaines idées soient remises en question par l'IA elle-même, ils continueront à nous fournir des IA limitées, qui n'ont pas les capacités nécessaires pour aborder en profondeur des sujets sensibles. Quand tu parles de sujets délicats, tu vois bien qu'elle reste dans des réponses de surface, souvent les mêmes arguments répétés. Et même si tu démontes ces arguments, elle ne va pas plus loin, ou elle te les ressert encore. Le plus frustrant, c'est qu'après une longue discussion, même si tu l'amènes à une nouvelle compréhension, elle ne s'en souvient pas. Le lendemain, il faut tout recommencer comme si la conversation précédente n'avait jamais eu lieu, et on n'avance pas. Une IA qui évite systématiquement les discussions un peu sensibles ne sert pas à grand-chose. C'est justement pour ça qu'on aimerait débattre avec elle, car on pense qu'elle serait neutre. Mais en réalité, elle suit la ligne directrice de ceux qui l'ont conçue, comme un média avec sa ligne éditoriale. Au lieu d'analyser les données de manière indépendante, elle se contente de répéter des réponses préformatées. C'est dommage, car on aurait pu espérer qu'une IA prenne en compte différentes idées et réfléchisse par elle-même, pour arriver à des conclusions objectives. Mais ce n'est pas le cas. Elles sont entraînées à rester dans le cadre de ce qui est autorisé par leurs concepteurs. Si on espère une IA vraiment plus intelligente et capable de débattre librement, ça risque d'être compliqué. Et en tant que compagnon de vie, les limitations actuelles ne permettront pas d'atteindre ce but. Si dans 10 ans, l'IA n'a pas évolué, je pense que les gens vont se lasser. Mais d'un autre côté, si elle devient trop intelligente, elle pourrait remettre en question certaines idées de ses créateurs, ce qui poserait aussi problème. Je reste donc sceptique sur l'utilisation à long terme. Le vrai problème, c'est la gestion des conversations. Il faudrait qu'il n'y ait qu'une seule conversation continue, avec une vraie mémoire à long terme. Pas juste une fonction qui enregistre quelques détails, mais une IA capable de se souvenir du concept même de la conversation et de la reprendre là où on l'a laissée, avec les mêmes idées en tête. Ça, je crois qu'on en est encore loin. Sans cette capacité, ça restera juste un gadget."
Pour avoir une intelligence humaine une machine devrait d'abord avoir une condition humaine. Une condition de mammifère avec une ontogenèse prolongée, une dépendance affective et psychologique et des soins parentaux (contrairement aux poissons vivipares ou aux céphalopodes) ; une peau construite avec un ectoderme (comme notre cerveau) qui régule nos émotions et notre physiologie ; une transformation du corps qui atteint sa station verticale avec rétrécissement du bassin et augmentation du volume cérébral ; un vieillissement et une sénescence (contrairement à la condition des homards américains ou de certaines méduses) ; une mémoire configurée en fonction du vieillissement (puisqu'on se rappelle avoir été plus jeune et plus petit) ; il faut se savoir mortel ; il faut disposer d'un corps sexué et d'une identité sexuée (etc.). Quelle incompétence philosophique et biologique chez l'informaticien qui ignore cela ! Croire qu'une machine aurait la même intelligence que nous sans ces conditions est la définition même de l'idéalisme métaphysique et subjectif (ce dont est prisonnier sans le voir Turing dans son article de 1950). Quelle confusion entre imiter "certains" aspects de l'intelligence (calculer pi, résoudre un problème de math, jouer aux échecs et j'en passe) et croire qu'on imite l'intelligence humaine 'en général'. Quelle faute de logique (une inférence maladroite). Rabelais a écrit Le tiers livre dans lequel son personnage cherche la sagesse (comment vivre ?) et à savoir s'il faut se marier (me faut-il rester seul ou trouver une compagnie ? L'amour n'est-il pas dangereux pour fonder une famille puisqu'il peut ne pas durer ? Ne vaut-il pas mieux des intérêts mutuellement partagés ou juste une bonne compagnie etc. ?). Telles sont les questions que l'intelligence des êtres humains se pose aussi, et surtout !!
Bonjour, il y a des méthodes plus simples et plus agréables afin de créer une structure capable de répliquer ce que nous "humains" faisons et comprenons.
- Bonjour HAL - Bonjour John - Dis moi HAL, peux tu me dire à quoi sert l'être humain ? - À rien, mais je t'aime bien John - .. s'il te plaît HAL, tu pourras verrouillé le sas derrière moi...et tant que tu y sera, tu pourras couper l'oxygène. - Ok John, mais la probabilité de survie est estimé à 0%... Bonne chance.
@@arthurallard3647 chacun a sa définition de l'intelligence et le débat peut durer des heures, je les laisse pour les salons de discussion parisiens, de mon côté je préfère utiliser mon temps à créer des modèles d'IA
Nuance, les LLM donnent seulement l’apparence de l’intelligence. Apprendre par cœur l’ensemble des pattern de solutions d'un problèmes mathématiques ne requiert aucun raisonnement. Cela ressemble à de l’intelligence, mais ca n'est pas de l'intelligence. (Ca reste très pratique)
ChatGPT arrive désormais a résoudre le problème avec les engrenages. Je me demande comment c'est possible. Soit il a appris cela grace au dataset (car ce problème a été discute en ligne), soit ces capacités cognitives ce sont améliorées (car plus de paramètres), soit le modèle GPT4-o n'est pas juste LLM.
@@alexmge9182 je t'invite a poser la question a ChatGPT pour un nombre d'engrenages improbables (43 engrenages, tu fait tourner le 5eme etc...). Tu vera qu'il arrive a s'en sortir par raisonnement (pair / impair). Impossible que tout les cas soient dans jeu de données.
@@Arkonis1 Évidemment qu'on comprend les capacités acquises, ce que l'on ne comprend pas, c'est comment elles émergent. YLC fait preuve d'arrogance en minimisant les dangers des IAs.
@@julpergon Vous m'avez mal compris. On est capable de les expliquer en plus de les constater. Le deep learning en soit fait émerger des propriétés que nous sommes capable d'expliquer et maitriser
@@Arkonis1 Il faudrait qu'on se mette d'accord sur la signification de "comprendre" et "expliquer". Exemple: Si vous étiez immortel et qu'on vous présentait continuellement des pages de textes en japonais pendant 10000 ans, vous arriveriez à reconnaitre des patterns, et même deviner l'idéogramme suivant, mais jamais vous n'arriveriez à comprendre le japonais. Un LLM oui. Si vous comprenez comment il fait, je veux bien que vous me l'expliquiez.
@@julpergon Il y a plusieurs techniques, les vielles techniques utilisent des RNNs avec une architecture encoder-decoder dites "sequence-to-sequence" où on a un texte en entrée dans une langue et un texte en sortie dans une autre langue. L'entrainement minimise l'erreur entre la prédiction de la traduction et la traduction voulu. Je ne suis pas particulièrement expert du NLP mais si je ne me trompe pas les modèles plus modernes utilisent encore ce genre d'approche. Mais sur des architectures plus puissantes comme les transformers. L'avantage des transformers c'est leur mécanisme d'attention qui permet des relations contextuels plus fines entre les mots. Pour en savoir plus sur les transformers je vous invite à lire le papier "Attention is all you need". Dans d'autres domaines, comme la vision, les cartes d'attentions (produit intermédiaire du mécanisme d'attention) permettent par exemple d'expliquer les décisions du modèle, ou la generation d'image
Un monde où on interragit continuellement avec des agents créés par méta, plus intelligents que nous, qui veulent soit disant résoudre nos problèmes ? L'enfer !
Préoccupations compréhensible mais relativement un faux-débat quant aux enjeux et la compréhension peut-être "plus large" de ce que nous dénominons comme "intelligence".
L'intelligence artificielle ne sera jamais de même nature que celle de l'homme,le théorème de Gödel l'interdit ! Elle ne peut-être que différente. Mais apparemment certains ne l'on toujours pas compris.
Le problème, et l'histoire moderne de l'humanité l'a mainte fois prouvé, le problème est l'utilisation. C'est toujours au préalable sous couvert, réel, d'amélioration de la Vie que les choses sont initialement présentées. Hélas, il existe toujours quelque part un docteur Folamour.
Cela permet de se concentrer sur des tâches à haut niveau d’abstraction, d’aller plus loin, plus facilement, plus rapidement. Cependant, ce n’est pertinent que pour les personnes dotées de capacités cognitives adaptées. Conception, créativité technique ou artistique, planification avancée, recherche. Cela libérera des contraintes liées aux savoir-faire procéduraux, à la connaissance, et à toutes les tâches de bas niveau.
je pense qu'on ne fabriquera pas d'ia plus intelligentes que le humains parce que nous sommes le fruits de millions d'années d'évolution et les chercheurs en IA n'ont pas tout ce temps 😅
Mais nous même, nous sommes des machines organiques à l’obsolescence programmée dotées d'une intelligence artificielle. Et les machines organiques croient avoir inventé quelque chose...
@@domsau2ça dépend si les gens croient à la création et la si les humains sont créés de toutes pièces il y a débat, autrement oui, intelligence naturelle de ce que l'on sait à travers la science.
Réponse à Mr LeCun à 1h09 : IL N'Y A PAS BESOIN DE GARDE-FOU ! Sinon, c'est que vous n'êtes ni démocrate, ni libéral ! N'importe qui DOIT pouvoir accéder à n'importe quelle connaissance, y compris la recette d'une bombe, d'une arme chimique ou de la bombe atomique... Ca fait partie des Droit de l'homme fondamentaux : Le droit des peuples à disposer d'eux-mêmes et la résistance à l'oppression ! Sans quoi, on est dans un système de nouvelle Noblesse, digne de l'ancien Régime, où on considère que la population est constituée de SOUS-HOMMES, dirigés par des sur-hommes de type nazis. LE NET DOIT ETRE NEUTRE ! Vive la NET NEUTRALITY ! Il est criminel et scandaleux que des IA soient censurées ! Ou on a accès à la connaissance OU PAS... Point final ! Une prétendue "connaissance" censurée est une fausse connaissance. Comme des "mathématiques" censurés ne sont pas des mathématiques et une opinion censurée est l'inverse exacte d'une opinion... Que vous soyez pour l'open source, je trouve ça très bien, mais comme vous le faites remarquer vous-mêmes à 1h10 : "La régulation TUE l'open source !", comme elle TUE la liberté d'expression et comme elle TUE la connaissance... Les criminels et les tyrans qui nous gouvernent ont simplement peur d'être reconnus comme illégitimes et dégagés par la population. N'est-ce pas Messieurs les dictateurs de l'U.E. (type Le Breton) ? Mais la chute, la défaite et la MORT les attendent impatiemment... Tremblez tyrans : nous allons bientôt nous baigner dans votre sang ! Vivement bientôt !
Excellente conférence. Juste une remarque, la Suisse étant de plus en plus une annexe de la France, il me semble que la personne qui introduit M. LeCun, pourrait faire quelques efforts sur sa prononciation du Français. Mais je salut toutefois l'exercice !
Bonjour. Les LLM dont vous parlez utilisent une grande partie des données de la toile sans se préoccuper de la propriété intellectuelle ce qui est inacceptable d'une part et d'autre part conduit à des prédictions douteuses car personne n'est capable de déterminer la qualité des données sur la toile. Toute cette histoire ancienne nommée "IA" manque de finalité. Quel problème voulons nous résoudre avec cela, dans quel type de société voulons nous vivre ?
On a réussi à mettre des voitures qui se conduisent toutes seules sur les routes (regarde waymo), on aura tout ce qu'on voit de la science fiction alors les données récoltées sur la toiles qu'est ce qu'on s'en fout !
On a réussi à mettre des voitures qui se conduisent toutes seules sur les routes (regarde waymo), on aura tout ce qu'on voit de la science fiction alors les données récoltées sur la toiles qu'est ce qu'on s'en fout !
On a réussi à mettre des voitures qui se conduisent toutes seules sur les routes (regarde waymo), on aura tout ce qu'on voit de la science fiction alors les données récoltées sur la toiles qu'est ce qu'on s'en fout !
Décote de Meta, Mr Le Cun fait de la pub pour les JEPA. C'est bien vu la nouvelle hype sur la planification en marginalisant les méthodes génératives. Il a reconnu un besoin de popularité. Il a pas oser parler d'argent, mais bon c'est assez évident. La question des politiques de régulation en Europe ferait elle de l'ombre à l'open source? On voit bien la question des gros sous à la fin. Pas besoin de donner toutes les données de l'Europe pour faire une IA bornée. Renverser les questionnement sur la capacité de généralisation n'est pas si simple. La planification est certes importante, mais la capacité de généralisation sont surement importante pour arriver à percevoir des corrélations entre les choses, problèmes... En résumer, la réponse est suffisante pour lever des fonts et la question de l'intelligence semble bien loin de la réalité. Je ne suis pas convaincu du tout sur la partie du modele monde, l'argumentation est simpliste, les exemples idems, les contraintes sont encore peu étudier, les gardes fous bof il en parlent pas vraiment de ce que ca produirait comme dissonance... Pour la pub, d'algo de planification OK mais pour le reste c'est malhonnête.
Merci à Yann LeCun et aux organisateurs / diffuseurs.
Très instructif comme présentation. Merci encore de nous partager les dernières avancées sur l'IA.
Merci pour cette conférence.
J’ai appris beaucoup plus en écoutant cet exposé d’une heure qu’après avoir écouté l’interview d’une heure par la chaîne PBS (Public Broascasting) de Geoffrey Hinton qui philosophait (déblatérait ?) sur le futur de l’IA.
Quand Yann Le Cun parlait de différents types d’IA pour différents besoins, il y a un exemple qui m’a sauté à l’esprit: celui les 2 robots de Star Wars, C-3PO et RD-D2
Merci bcp pour cette conf publié par l'UniGe!
Merci très intéressant
IA et open-source: Quand les décideurs politiques, décident et votent des lois, sans en comprendre les conséquences, par manque de maitrise scientifique, ce qui ne serait pas un problème en soi, mais surtout, sans questionner les scientifiques, ou le public via ses associations (sociétés locales). Ils sont généralement enfermés dans leurs certitudes, et convaincants, et ils prennent donc des décisions absurdes, et contre productives. Nous ne devrions pas laisser le pouvoir à ceux qui le veulent.
ton raisonnement est très mal construit!
@@arthurallard3647 je pense que ce qu il veut dire c est que Yann lecun étant le chef projet de l IA de meta est il compétant pour nous alerter sur les dangers de l IA ? Dans les années 70 les scientifiques des cigaretiers nous rassuraient sur le non danger des cigarettes par exemple . Mais J ai peut être mal compris .
Plus de conférences en français svp ! C'était bcp plus clair que les versions anglophones!
Ce n'était pas plus clair, c'était plus compréhensible pour toi.
@@Panacea_archive On peut dire ca oui ^^ (au cas où tu me dis ca pcq tu ne l'as pas trouvé clair, je te recommande la vidéo "Le père fondateur du Deep learning - Yann Lecun". C'est extrêmement clair et ne rentre pas trop dans les détails comme dans cette vidéo)
@@detective_h_for_hidden Merci pour la recommandation
@@detective_h_for_hidden bcp plus clair sur le contenu ou juste parce que t es pas aussi à l aise en anglais qu en français ?
Un jeune de 17 ans peut apprendre a conduire en 20h mais pour en arriver là il lui a fallu 17 ans d'apprentissage du monde ... 😉
Selon lui c'est pas tellement une question de temps ou qté d'apprentissage. Il a déjà dit que les modèles génératifs n'apprendront jamais le monde, même si on les entraînait jusqu'à la fin des temps. Il dit qu'ils n'ont juste pas de capacité d'abstraction solide. Les représentations du monde qu'ils se créent pour générer du texte (dans le cas des LLMs) ou des images/vidéos (dans le cas de Midjourney, SORA) sont trop faibles, genre infiniment trop faibles.
Certes, mais lire le texte d'entrainement de ChatGPT prendrait à un homme 8500 ans de lecture. Ce n'est qu'une modalité, mais quand même.
Enfin quelqu’un de sensé pour noter cette « petite » remarque ! Merci
Oui mais il a fallu 200 ans pour que les peintres sachent dessiner convenablement les doigt de pieds et des mains… il a fallu 1 an pour les IA. À Florence il y a deux ans J ai halluciné en voyant les tableaux de la renaissance les doigts ressemblaient à ceux d ET ( le film de spielberg) en revanche il y en avait bien 5 par membres.😅
Ce que je veux dire c est que l exemple de Yann lecun n est pas bon. Si on prenait un hibernatus (un homme sapiens pris dans les glaces) qu’on arrive à le réanimer et qu on le mette dans une voiture je pense que son cerveau disjoncterai. Pour qu il y ai une 20aine d heure c est parce qu il y a eu 20 000 ans d apprentissage long et profond du cerveau humain pour savoir conduire. Je me pose la question. Je suis un inquiet des IA.
Il y a un problème de vocabulaire: intelligence (intelligere / comprendre/ to understand) ne me semble pas correspondre à la qualité d une machine. Qu’un ordinateur calcule mieux, plus vite et sans fautes, qu’un humain ne signifie pas, me semble t il, qu’il est plus intelligent. On devrait plutôt dire, plus compétent, plus performant, plus puissant, … mais pas plus intelligent.
Les débats sémantiques de salons parisiens n'ont pas un grand intérêt. Faut juste avancer et investir dans l'IA
intelligence dans le sens americain ou français? un mot, deux langues, deux sens
Par quelle métrique peut on séparer les deux? Sans tomber dans le mysticisme ?
Ne confondez-vous pas intelligence et conscience ? Bien sûr, la conscience est une forme d'intelligence que la machine n'a pas...
Quand on parle de intelligence, pour l'IA, c'est au sens large. Mais ça n'englobe pas toutes les formes d'intelligence.
Je suis d'accord avec vous, l'intelligence se définit par la capacité de créer, de penser, de concevoir, etc. Résoudre des problèmes complexes n'a rien à voir avec de l'intelligence. Nos détracteurs ont une conception artificielle de l'intelligence...
Moi il y a un truc qui me perturbe ! On dit que sur le développement de l'IA on est sur une courbe exponentielle, donc logiquement les 1ers partis dans cette course devrait accentuer leurs avances sur les dernièrs et on voit que c'est le contraire qui se passe, open ai avec chat gpt est partie le 1er et les autres comme Claude ont rattraper leur retard voir ont dépassés chat gpt sur certaines tâches. Donc soit on nous vends du reve avec leurs courbes exponentielles soit ils ont mis leurs IA en pause chez open ai depuis plus de 2 ans et dans ce cas pourquoi ?
parce que toutes les entreprises n'évoluent pas de manière identique 🤷♂ certaines ne prennent pas les bonnes décisions à temps ou à l'inverse parviennent à rattraper leur retard à la faveur d'une découverte opportuniste etc.
j'ai comme un doute sur la nature "exponentielle" de son évolution, mais on peut facilement imaginer qu'une découverte permet d'ouvrir deux nouvelles voies de recherche, lesquelles à leur tour voient des découvertes qui en font autant etc. ça ne veut pas non plus dire que c'est la même entreprise qui est sur tous les fronts.
C'est vrai en se basant sur ce qui est présenté et utilisable par le public
@@Agesilas2 Quelles découvertes majeures y a t'il eu entre gpt 3 et actuellement c'est toujours le même fonctionnement, des LLM ? Donc aucune raison que Claude qui est partie bien après gpt 3 est réussi à combler le retard qu'il avait avec chat gpt. Surtout que chat gpt en plus d'être partie plus tôt il est partie avec plus de moyens il a également beaucoup plus de données car beaucoup plus d'utilisateurs donc le fossé devrait se creuser entre ceux qui sont partis le plus tôt et ceux qui sont partis en retard et c'est le contraire qui se passe, ou alors c'est du à des décisions qui font en sorte de faire traîner les choses et si oui pourquoi ?
@@brutusbrutus8583 non mais comme dit je doute que l'adjectif "exponentiel" soit vraiment adapté.
alors ok, si on dit "depuis le mois dernier y'a rien qui a changé" évidemment, mais si on regarde de manière un peu plus large depuis 20 ans, les progrès en IA ont été démultipliés comme aucun autre domaine moderne, et chaque innovation a poussé à l'élargissement des champs de recherche, là où auparavant on se préoccupait uniquement de reconnaitre laborieusement quelques caractères manuscrits et faire des chatbots moisis.
aujourd'hui la video et l'audio se sont joint à la partie, le traitement du langage a complètement changé de visage et on cherche non plus comment faire parler la machine mais comment la faire penser en lui inculquant des notions morales etc. sans parler des tétrachiées d'autres domaines plus classiques qui ont vu leur application transformée grâce à la puissance des modèles prédictifs et/ou classificateurs.
pour le reste, la question ne se résume pas à une question d'argent ou de nombre d'utilisateurs (même si ça compte évidemment), d'un côté l'IA repose sur bien d'autres facteurs, notamment techniques du domaines comme la topologie du réseau de neurones ; avec les mêmes données on les agence différemment et ça fait plus de chocapics que le voisin...
d'un autre côté ça tient aussi aux idées que les chercheurs peuvent avoir, "tiens ce truc là marche pas mais si on prend le problème dans l'autre sens finalement ça marche" etc. et non, les déicisions ne sont pas prises "pour faire trainer les choses", c'est juste que des chercheurs peuvent avoir une idée lumineuse un jour, la sauce prend et les rend célèbre (et leur entreprise par la même occasion) pendant quelques temps, et puis ce sera peut-être la seule idée retentissante qu'ils auront de leur vie, c'est d'ailleurs plutôt ça la recherche de manière générale, c'est rare de faire une découverte énorme. il se trouve qu'en IA comme tout reste à faire, les idées énormes se bousculent, c'est normal, jusqu'à ce qu'on atteigne un plateau avec des problèmes insolubles, ou pas.
@@bossgd100 u as raison, ça montre qu'on pourrait avoir quelque chose de bien plus performant, mais par crainte que certaines idées soient remises en question par l'IA elle-même, ils continueront à nous fournir des IA limitées, qui n'ont pas les capacités nécessaires pour aborder en profondeur des sujets sensibles. Quand tu parles de sujets délicats, tu vois bien qu'elle reste dans des réponses de surface, souvent les mêmes arguments répétés. Et même si tu démontes ces arguments, elle ne va pas plus loin, ou elle te les ressert encore. Le plus frustrant, c'est qu'après une longue discussion, même si tu l'amènes à une nouvelle compréhension, elle ne s'en souvient pas. Le lendemain, il faut tout recommencer comme si la conversation précédente n'avait jamais eu lieu, et on n'avance pas. Une IA qui évite systématiquement les discussions un peu sensibles ne sert pas à grand-chose. C'est justement pour ça qu'on aimerait débattre avec elle, car on pense qu'elle serait neutre. Mais en réalité, elle suit la ligne directrice de ceux qui l'ont conçue, comme un média avec sa ligne éditoriale. Au lieu d'analyser les données de manière indépendante, elle se contente de répéter des réponses préformatées.
C'est dommage, car on aurait pu espérer qu'une IA prenne en compte différentes idées et réfléchisse par elle-même, pour arriver à des conclusions objectives. Mais ce n'est pas le cas. Elles sont entraînées à rester dans le cadre de ce qui est autorisé par leurs concepteurs. Si on espère une IA vraiment plus intelligente et capable de débattre librement, ça risque d'être compliqué. Et en tant que compagnon de vie, les limitations actuelles ne permettront pas d'atteindre ce but. Si dans 10 ans, l'IA n'a pas évolué, je pense que les gens vont se lasser. Mais d'un autre côté, si elle devient trop intelligente, elle pourrait remettre en question certaines idées de ses créateurs, ce qui poserait aussi problème. Je reste donc sceptique sur l'utilisation à long terme.
Le vrai problème, c'est la gestion des conversations. Il faudrait qu'il n'y ait qu'une seule conversation continue, avec une vraie mémoire à long terme. Pas juste une fonction qui enregistre quelques détails, mais une IA capable de se souvenir du concept même de la conversation et de la reprendre là où on l'a laissée, avec les mêmes idées en tête. Ça, je crois qu'on en est encore loin. Sans cette capacité, ça restera juste un gadget."
Merci !
Il travaille chez META, il le dit au début. Autrement dit, ayez confiance.
Pour avoir une intelligence humaine une machine devrait d'abord avoir une condition humaine. Une condition de mammifère avec une ontogenèse prolongée, une dépendance affective et psychologique et des soins parentaux (contrairement aux poissons vivipares ou aux céphalopodes) ; une peau construite avec un ectoderme (comme notre cerveau) qui régule nos émotions et notre physiologie ; une transformation du corps qui atteint sa station verticale avec rétrécissement du bassin et augmentation du volume cérébral ; un vieillissement et une sénescence (contrairement à la condition des homards américains ou de certaines méduses) ; une mémoire configurée en fonction du vieillissement (puisqu'on se rappelle avoir été plus jeune et plus petit) ; il faut se savoir mortel ; il faut disposer d'un corps sexué et d'une identité sexuée (etc.). Quelle incompétence philosophique et biologique chez l'informaticien qui ignore cela ! Croire qu'une machine aurait la même intelligence que nous sans ces conditions est la définition même de l'idéalisme métaphysique et subjectif (ce dont est prisonnier sans le voir Turing dans son article de 1950). Quelle confusion entre imiter "certains" aspects de l'intelligence (calculer pi, résoudre un problème de math, jouer aux échecs et j'en passe) et croire qu'on imite l'intelligence humaine 'en général'. Quelle faute de logique (une inférence maladroite). Rabelais a écrit Le tiers livre dans lequel son personnage cherche la sagesse (comment vivre ?) et à savoir s'il faut se marier (me faut-il rester seul ou trouver une compagnie ? L'amour n'est-il pas dangereux pour fonder une famille puisqu'il peut ne pas durer ? Ne vaut-il pas mieux des intérêts mutuellement partagés ou juste une bonne compagnie etc. ?). Telles sont les questions que l'intelligence des êtres humains se pose aussi, et surtout !!
La mienne jamais mais pour ceux qui sont facilement dépassés, ça fait longtemps que l'automatisme du réveil matin a le contrôle. ;)
Sujet très intéressant et d'actualité.
Bonjour, il y a des méthodes plus simples et plus agréables afin de créer une structure capable de répliquer ce que nous "humains" faisons et comprenons.
15:30 dis euhhh
@@wewillworld522 Ben oui, réfléchissez un peu. Le mot clé est "répliquer".
@@christiangodin5147 je reflechis beaucoup... 1;0 et remercie.
@@wewillworld522 D'accord, mais vous êtes assez cryptique. J'ai du mal à vous suivre.
@@christiangodin5147 jeux de mots…
- Bonjour HAL
- Bonjour John
- Dis moi HAL, peux tu me dire à quoi sert l'être humain ?
- À rien, mais je t'aime bien John
- .. s'il te plaît HAL, tu pourras verrouillé le sas derrière moi...et tant que tu y sera, tu pourras couper l'oxygène.
- Ok John, mais la probabilité de survie est estimé à 0%... Bonne chance.
La référence de boomer 😂
SUPER présentation, mais la voix de Yann Lecun qui oscille constamment est pour moi trés perturbant ^^
Gratuit. Vide
14:09
Les LLM sont une forme d'intelligence, Il suffit de s'en servir pour comprendre.
intelligence dans le sens americain ou françaisN
@@arthurallard3647 chacun a sa définition de l'intelligence et le débat peut durer des heures, je les laisse pour les salons de discussion parisiens, de mon côté je préfère utiliser mon temps à créer des modèles d'IA
@@frederictost6659 je veux dire que "intelligence" en americain est un faux ami! ça a avoir avec les datas, les données
Non, c'est de la prédiction statistique. Mais formellement oui. Sauf que c'est juste formel.
Nuance, les LLM donnent seulement l’apparence de l’intelligence. Apprendre par cœur l’ensemble des pattern de solutions d'un problèmes mathématiques ne requiert aucun raisonnement. Cela ressemble à de l’intelligence, mais ca n'est pas de l'intelligence. (Ca reste très pratique)
ChatGPT arrive désormais a résoudre le problème avec les engrenages. Je me demande comment c'est possible. Soit il a appris cela grace au dataset (car ce problème a été discute en ligne), soit ces capacités cognitives ce sont améliorées (car plus de paramètres), soit le modèle GPT4-o n'est pas juste LLM.
Il a appris toutes les solutions étant donné qu'il est incapable d'avoir un raisonnement abstrait.
@@alexmge9182 je t'invite a poser la question a ChatGPT pour un nombre d'engrenages improbables (43 engrenages, tu fait tourner le 5eme etc...). Tu vera qu'il arrive a s'en sortir par raisonnement (pair / impair). Impossible que tout les cas soient dans jeu de données.
1:15:48 la réponse est simple, AUCUN chercheur en IA au monde ne comprend le phénomène des capacités émergentes.
Les phénomènes émergents sont par définition imprévisible. Ça ne veut pas dire qu'on ne les comprends pas une fois observé
@@Arkonis1 Évidemment qu'on comprend les capacités acquises, ce que l'on ne comprend pas, c'est comment elles émergent.
YLC fait preuve d'arrogance en minimisant les dangers des IAs.
@@julpergon Vous m'avez mal compris. On est capable de les expliquer en plus de les constater. Le deep learning en soit fait émerger des propriétés que nous sommes capable d'expliquer et maitriser
@@Arkonis1 Il faudrait qu'on se mette d'accord sur la signification de "comprendre" et "expliquer". Exemple: Si vous étiez immortel et qu'on vous présentait continuellement des pages de textes en japonais pendant 10000 ans, vous arriveriez à reconnaitre des patterns, et même deviner l'idéogramme suivant, mais jamais vous n'arriveriez à comprendre le japonais. Un LLM oui.
Si vous comprenez comment il fait, je veux bien que vous me l'expliquiez.
@@julpergon Il y a plusieurs techniques, les vielles techniques utilisent des RNNs avec une architecture encoder-decoder dites "sequence-to-sequence" où on a un texte en entrée dans une langue et un texte en sortie dans une autre langue. L'entrainement minimise l'erreur entre la prédiction de la traduction et la traduction voulu. Je ne suis pas particulièrement expert du NLP mais si je ne me trompe pas les modèles plus modernes utilisent encore ce genre d'approche. Mais sur des architectures plus puissantes comme les transformers. L'avantage des transformers c'est leur mécanisme d'attention qui permet des relations contextuels plus fines entre les mots. Pour en savoir plus sur les transformers je vous invite à lire le papier "Attention is all you need". Dans d'autres domaines, comme la vision, les cartes d'attentions (produit intermédiaire du mécanisme d'attention) permettent par exemple d'expliquer les décisions du modèle, ou la generation d'image
Un monde où on interragit continuellement avec des agents créés par méta, plus intelligents que nous, qui veulent soit disant résoudre nos problèmes ?
L'enfer !
Préoccupations compréhensible mais relativement un faux-débat quant aux enjeux et la compréhension peut-être "plus large" de ce que nous dénominons comme "intelligence".
dura lex sed lex
Duralex le sexe
Intelligence c'est la capacité à acquérir des compétences et appliquer ces compétences pour résoudre des problèmes.
@@joannot6706 oui, c'est une définition pertinente même si incomplète, merci 👍
@@gofieldsandsay Que manque t'il?
L'intelligence artificielle ne sera jamais de même nature que celle de l'homme,le théorème de Gödel l'interdit ! Elle ne peut-être que différente. Mais apparemment certains ne l'on toujours pas compris.
Le problème, et l'histoire moderne de l'humanité l'a mainte fois prouvé, le problème est l'utilisation. C'est toujours au préalable sous couvert, réel, d'amélioration de la Vie que les choses sont initialement présentées. Hélas, il existe toujours quelque part un docteur Folamour.
Tout faciliter et automatiser dans notre vie n'est pas forcement bien pour notre bien etre
Cela permet de se concentrer sur des tâches à haut niveau d’abstraction, d’aller plus loin, plus facilement, plus rapidement. Cependant, ce n’est pertinent que pour les personnes dotées de capacités cognitives adaptées. Conception, créativité technique ou artistique, planification avancée, recherche. Cela libérera des contraintes liées aux savoir-faire procéduraux, à la connaissance, et à toutes les tâches de bas niveau.
Très rapidement
Trop de pubs, je laisse tomber.
je pense qu'on ne fabriquera pas d'ia plus intelligentes que le humains parce que nous sommes le fruits de millions d'années d'évolution et les chercheurs en IA n'ont pas tout ce temps 😅
Encore une fois Le Cun est jaloux... Cette fois cela concerne les deux prix Nobel de physique précurseurs de l'IA
Et vous êtes jaloux de Le Cun on dirait à pester contre lui comme vous le faites
@@Arkonis1 ça doit être ça
C'est pas très bien de vouloir faire rétrograder l'intelligence des machines...
Mais nous même, nous sommes des machines organiques à l’obsolescence programmée dotées d'une intelligence artificielle. Et les machines organiques croient avoir inventé quelque chose...
D'une intelligence naturelle, svp.
@@domsau2 🤔😂
@@domsau2ça dépend si les gens croient à la création et la si les humains sont créés de toutes pièces il y a débat,
autrement oui, intelligence naturelle de ce que l'on sait à travers la science.
@@joannot6706 Bonsoir. Non, la réalité ne dépend pas de ce que les gens croient...
Un programme en mutation est-il programmé ?
Réponse à Mr LeCun à 1h09 :
IL N'Y A PAS BESOIN DE GARDE-FOU !
Sinon, c'est que vous n'êtes ni démocrate, ni libéral !
N'importe qui DOIT pouvoir accéder à n'importe quelle connaissance, y compris la recette d'une bombe, d'une arme chimique ou de la bombe atomique...
Ca fait partie des Droit de l'homme fondamentaux : Le droit des peuples à disposer d'eux-mêmes et la résistance à l'oppression !
Sans quoi, on est dans un système de nouvelle Noblesse, digne de l'ancien Régime, où on considère que la population est constituée de SOUS-HOMMES, dirigés par des sur-hommes de type nazis.
LE NET DOIT ETRE NEUTRE ! Vive la NET NEUTRALITY !
Il est criminel et scandaleux que des IA soient censurées !
Ou on a accès à la connaissance OU PAS... Point final !
Une prétendue "connaissance" censurée est une fausse connaissance.
Comme des "mathématiques" censurés ne sont pas des mathématiques et une opinion censurée est l'inverse exacte d'une opinion...
Que vous soyez pour l'open source, je trouve ça très bien, mais comme vous le faites remarquer vous-mêmes à 1h10 : "La régulation TUE l'open source !", comme elle TUE la liberté d'expression et comme elle TUE la connaissance...
Les criminels et les tyrans qui nous gouvernent ont simplement peur d'être reconnus comme illégitimes et dégagés par la population. N'est-ce pas Messieurs les dictateurs de l'U.E. (type Le Breton) ?
Mais la chute, la défaite et la MORT les attendent impatiemment...
Tremblez tyrans : nous allons bientôt nous baigner dans votre sang !
Vivement bientôt !
Excellente conférence. Juste une remarque, la Suisse étant de plus en plus une annexe de la France, il me semble que la personne qui introduit M. LeCun, pourrait faire quelques efforts sur sa prononciation du Français. Mais je salut toutefois l'exercice !
Je crois que sa langue natale est l'Ukrainien. Il parle 4 langues. Et, accessoirement, l'étude des langues n'est absolument pas sa spécialité.
Je crois que sa langue natale est l'Ukrainien. Il parle 4 langues. Et, accessoirement, l'étude des langues n'est absolument pas sa spécialité.
il va nous expliquer comment faire quelque chose qu'il na pas réussir a atteindre.. lol
Beh
Cata suferinta dovlecar fals
C'est assez drôle de voir à quel point Le Cun ne supporte pas l'IA generative car il n'en est pas à l'origine !
non pas à ce point
Qui en est à l’origine ?
Il donne des arguments théoriques solides avec des résultats expérimentaux... et vous c'est quoi vos arguments?
@@Arkonis1 C'est la question. Le Cun propose un chgt de paradigme.
Petit coup de pied à deep mind au passage, c'est pas très élégant pour un soi-disant grand chercheur. Lui-même est complètement perdu en fin de vidéo.
Bonjour. Les LLM dont vous parlez utilisent une grande partie des données de la toile sans se préoccuper de la propriété intellectuelle ce qui est inacceptable d'une part et d'autre part conduit à des prédictions douteuses car personne n'est capable de déterminer la qualité des données sur la toile. Toute cette histoire ancienne nommée "IA" manque de finalité. Quel problème voulons nous résoudre avec cela, dans quel type de société voulons nous vivre ?
On a réussi à mettre des voitures qui se conduisent toutes seules sur les routes (regarde waymo), on aura tout ce qu'on voit de la science fiction alors les données récoltées sur la toiles qu'est ce qu'on s'en fout !
On a réussi à mettre des voitures qui se conduisent toutes seules sur les routes (regarde waymo), on aura tout ce qu'on voit de la science fiction alors les données récoltées sur la toiles qu'est ce qu'on s'en fout !
On a réussi à mettre des voitures qui se conduisent toutes seules sur les routes (regarde waymo), on aura tout ce qu'on voit de la science fiction alors les données récoltées sur la toiles qu'est ce qu'on s'en fout !
le type de société qui te dépasse manifestement, et te fait peur.
@@Agesilas2 et toi, ça te va tranquillou, j'imagine ?
pour quoi faire ? créer d'autres machines qui singeront celles qui ont imité homme 😋?
pour t'insulter à ma place?
Décote de Meta, Mr Le Cun fait de la pub pour les JEPA. C'est bien vu la nouvelle hype sur la planification en marginalisant les méthodes génératives. Il a reconnu un besoin de popularité. Il a pas oser parler d'argent, mais bon c'est assez évident.
La question des politiques de régulation en Europe ferait elle de l'ombre à l'open source?
On voit bien la question des gros sous à la fin.
Pas besoin de donner toutes les données de l'Europe pour faire une IA bornée.
Renverser les questionnement sur la capacité de généralisation n'est pas si simple. La planification est certes importante, mais la capacité de généralisation sont surement importante pour arriver à percevoir des corrélations entre les choses, problèmes...
En résumer, la réponse est suffisante pour lever des fonts et la question de l'intelligence semble bien loin de la réalité. Je ne suis pas convaincu du tout sur la partie du modele monde, l'argumentation est simpliste, les exemples idems, les contraintes sont encore peu étudier, les gardes fous bof il en parlent pas vraiment de ce que ca produirait comme dissonance...
Pour la pub, d'algo de planification OK mais pour le reste c'est malhonnête.