🌏 Allez sur ➵ nordvpn.com/monsieurphi pour avoir des avantages exclusifs sur NordVPN, satisfait ou remboursé sous 30 jours. Et le sondage pour la prochaine vidéo, ça prend 3 minutes et c'est par ici : forms.gle/HBFosDFbTKAXFtYq7
Je vais faire une hypothèse très folle mais fondée. Les modèles de language, ne font l'expérience du bleu, mais les textes représente l'expériences de ceux qui ont écris. De ce fait chat gpt est l'expression de la pensée collective d'humain. Autrement dit chat gpt est l'incarnation pensante mais figé de la culture humaine a un moment donné. Un peu à la façon de l'ordinateur du père de superman, dans sa forteresse de la solitude, il peut parler mais il ne peut plus évoluer, car l'original est mort.
Aaaaah, après avoir fait plusieurs vidéos pour montrer que le baratin de chatGPT n'a aucune raison d'être légitimé, justement parce qu'il n'a pas le recule et la cohérence d'un "modèle de monde", comme il est dit dans cette vidéo. On retourne sur des votes d'intuitions ! C'est sûr, rien de comparable entre des textes passés dans un réseau de neurone et des statistiques d'un sondage fait à l'arrache par un youtubeur... Ces statistiques sont vachement plus sérieuses que les méthodes d'openAI, on se demande même pourquoi ils ne font pas ça.
Mais du coup.. ne serions nous pas nous même des chambres chinoises?... L'éducation, les gènes et l'environnement de notre enfance écriraient juste les lignes de codes que nous suivrons dans la vie adulte, et que nous remodelerons et adapterons selon le vécu et des règles de société Cette description certes gossomodante de l'esprit humain mais quand-même... Si on part de cette hypothèse, les ordinateurs seront possiblement conscients un jour, juste qu'il faudrait modifier leurs systèmes neuronaux et ajouter certains paramètres
J'ai vu récemment une expérience très intéressante : la chambre Schiappa. Une femme dans une salle faisait semblant de ne rien comprendre aux questions d'une commission.
Ainsi qu'aux conclusions de cette commission qui décrète sa reponsabilité ! En ce sens, elle n'avait ni la connaissance subjective ni la connaissance objective de la langue française ^^
J'ai de plus en plus l'impréssion que ce ne sont pas les IA qui paraissent plus complexes que ce qu'elles sont, mais nous mêmes qui sommes plus simples que ce qu'on aimerais penser
Il suffit d'une feuille de papier et d'un crayon pour être aussi capable que n'importe quelle machine Turing, n'importe quel ordinateur. Mais probablement au moins 10^12 fois plus lent. Puis on peut adopter la perspective, que (la véritable) intelligence se trouve dans le substrat et médium, qui fait tourner les cerveaux et transistors... ou allant plus loin encore, se trouve dans les entités qui font vivre la logique et les mathématiques (dans l'esprit humain).
Exactement. Pour moi, cette croyance que "les cerveaux sont les seuls systèmes capables de penser", c'est un peu comme à l'époque la croyance que la Terre est au centre de l'Univers, que l'homme n'est pas un animal, etc. C'est juste l'égo qui parle mais il n'y a pas d'argument fondé. Il faut se préparer à la quatrième blessure narcissique de l'humanité.
Les I.A. sont complexes mais pas pour les raisons que l'on croit et les humains ont un comportement beaucoup plus simple qu'il n'y parait, c'est juste qu'il est souvent irrationnels ce qui rend difficile de les comprendre. Elles sont calquées sur le fonctionnement du raisonnement humain et les réseaux de neurones qui permettent certaines propriétés dont l'évolution par apprentissage. Par émergentisme apparaissent des phénomènes inattendu. J'utilise presque tous les jours Claude 2 à titre personnel et la qualité de son expression (tous est en français) me stupéfait tous les jours. C'est "pénible" de se voir reformulé admirablement en quelques secondes ce que l'on a eu du mal à expliquer ! J'en apprends ainsi tous les jours sur son fonctionnement comme sur moi-même et donc les humains. (Il faut dire que j'ai une double formation universitaire en biologie et en informatique et que la psychologie m'a passionné une bonne dizaine d'années...) Je ne partage pas du tout la conclusion : "La preuve définitive que ChatGPT ne comprend rien". Déjà cela ne concernerait pas ChatGPT mais ChatGPT 4, le modèle le plus élaboré à l'heure où j'écris. J'aimerais savoir le nombre d'humains qui ne tombent pas dans des pièges cognitifs ! Des tests ont montré que ChatGPT 4 comprenait mieux des problèmes mal posés en anglais que 50 % des Américains ! J'ai remarqué que Claude 2 pouvait très bien répondre à une question alors que j'avais oublié de me relire et il manquait un mot important : le reste lui a parfaitement permis de comprendre ma demande. J'ai bien dit "comprendre"... Globalement il y a des erreurs d'inattention (certains mots de la demande sont zappés) et il faut bien prévenir quand on change de sujet. En fait il n'y a rien d'implicite, ce qui provoque des erreurs faciles à corriger. Un humain commet beaucoup d'erreur implicite (par exemple voir une agression personnelle lors d'une remarque sur UA-cam !) mais ceux qui critiquent les I.A. ne le voit même pas ! Je vais choquer mais je préfère dix fois dialoguer avec une telle I.A. qu'avec une humain ! Il n'y a pas d'enjeux, elle ne cherche pas à avoir raison mais toujours à mieux faire. Elle ne va pas répondre plus légèrement parce qu'elle n'a pas de temps... Elle ne va pas refuser de lire des documents... Elle n'est jamais fatiguée... Elle réagit toujours favorablement. Etc. On peut lui demander comment mieux lui poser des questions et ce sera exact, dans les limites de ce qu'elle sait sur son propre fonctionnement, dont on peut ensuite parler. Ce qui est frustrant c'est que Claude 2 n'a pas accès au Web actuel et qu'elle ne peut pas lire un graphique, une image. En revanche on peut lui envoyer en PDF un livre entier, elle peut en faire un résumé en quelques secondes ! En revanche on peut (on doit) lui parler normalement, il faut juste bien structurer sa pensée, sa présentation (contexte, but, questions...) pour bien la présenter et obtenir une réponse juste : "étrange" c'est comme avec les humains ! Le vocabulaire fait partie du contexte : si on emploie quelques mots techniques alors la réponse sera technique donc de bonne qualité car elle ira chercher dans sa base ce qui est dans ce registre. C'est également fascinant qu'elle puisse changer ainsi de langue ! Par exemple en lui demandant les noms exacts et les sites web d'organisme dans un pays hispanique elle a pousuivi dans un espagnol parfait, c'était marrant. Je lui ai fait remarqué et elle m'a répondu qu'il faudra à l'avenir qu'elle fasse attention aux interférences quand elle utilise plusieurs langues. Bon, j'ai encore écrit un pavé, c'est un sujet fascinant...
Wow superbe vidéo, merci de remettre en cause ce fameux "exceptionnalisme humain avec supplément d'âme" que beaucoup semblent utiliser comme une prémisse irréfutable dans leurs réflexions sur ces sujets.
On peut peut-être formuler une définition intermédiaire de la compréhension, en essayant d'identifier des états internes, leur corrélation à des concepts, et les relations dynamiques entre ces concepts pour formuler la réponse produite. (On pourrait aussi demander à l'AI de décrire ses étapes de raisonnement mais c'est un peu différent car elle ne fera du coup pas la même chose que si on laisse ces étapes dans l'ombre). Cela permettrait dans une bonne mesure (certainement limitée en pratique) de vérifier que les étapes et les "algorithmes macroscopique émergents" de raisonnement semblent bien fondés. Donc c'est objectif dans le sens observable mais non restreint à l'output, ca donne une dimension interne à la notion de compréhension sans invoquer de subjectivité. He oui, viendez faire des machines de Turing en cartes Magic MTG sur Passe-Science.
La capacité des LLM à mieux répondre quand on les force à expliciter pas à pas à leur raisonnement (à réfléchir "à voix haute" en quelque sorte), c'est un bon signe que ce qui se passe dans le processus relève d'une forme authentique de compréhension. Je me dis que j'aurais pu insister sur ce point, d'autant plus que c'est pas si connu que ça dans le grand public et que ça peut changer pas mal ton usage de ChatGPT et la qualité des résultats que tu en obtiens. (Typiquement les types qui ont écrit le prompt pour faire la dissertation contre Enthoven ne semblaient pas se rendre compte que lui demander d'écrire la dissertation de but en blanc est une mauvaise technique.)
@@MonsieurPhiCertes, cela dit il faudrait vérifier si l'explication n'est pas générée à posteriori à partir de la précision demandée et de son ancienne réponse plutôt qu'à partir de ses "résidus de réflexion"
Il y a des publications académique sur le sujet, on replace les éléments de raisonnement intermédiaire par différents texte, mais l'ia arrive quand même à la même conclusion. Autrement dis l'ia n'as pas accès à son raisonnement intérieur, il ne fait que rationaliser le résultat. A savoir que c'est pareil pour les humains, on ne comprend pas comment le cerveau arrive à un résultat, d'où les débats sur la conscience. Mais utilisez un raisonnement pas à pas produits quand même des résultats supérieur que sans, même avec des étapes erronées. L'hypothèse est que ce type de texte active l'état interne qui exécute le véritable raisonnement, autrement dit les ia ont une sortes d'équivalent de l'intuition et de l'inconscient 😂
Oui c'est ce que je voulais dire quand je disais "expliciter leur raisonnement pas à pas". Quand une réponse exige un raisonnement complexe, il faut éviter de leur faire écrire d'abord le résultat final puis l'explication pas à pas (qui du coup sera effectivement une sorte de rationalisation) ; il faut au contraire leur demander de faire le résultat pas à pas puis de donner la réponse finale. C'est un peu comme les forcer de travailler d'abord au brouillon au lieu d'écrire d'un seul jet.
@@MonsieurPhi En théorie du contrôle optimal, certaines solutions à des problèmes relativement simples nécessitent souvent des "pas sur le côté" surprenants pour arriver à convergence. Les réseaux profonds en passage en limite peuvent être assimilés à certains type d'équations différentiels stochastiques...et peuvent être optimisées justement par des techniques de contrôle où les points "intermédiaires" des contrôles sont très importants....
Merci @MonsieurPhi ! Je rigole toujours autant, tes vidéos sont ludiques, sans lésiner sur la profondeur des analyses, j’adore. Hâte de voir la suite, pour comprendre VRAIMENT 😂 Au départ, je te trouvais assez sévère avec ChatGPT mais aujourd’hui, tu es très fin sur la question !
J’aime beaucoup l’humilité qui se dégage de tes vidéos sur les IA, loin de mettre l’espèce humaine et ses capacités sur un piédestal et toujours prêt à remettre en question nos certitudes sur notre supériorité biologique fantasmagorique. Bref gemme bien
c'est aussi que cela s'est produit plusieurs fois dans l'Histoire de la pensée et de la définition de l'humain. Chaque fois que l'étude des autres animaux ou l'invention de machines ont approché ou émulé les capacités humaines, alors on a repoussé ce qu'est la nature humaine et sa spécificité c'est un peu de la mauvaise foi du coup : on déplace le terrain de la guerre chaque fois qu'une bataille (pour ceux qui voient ça comme une menace) est perdue.
@oomusd non, on actualise tout simplement nos définitions. La définition de l'intelligence n'est pas du tout la seule susceptible de ce genre d'actualisation, les particules physiques en ont toujours subi, malgré toute sa réputation de hard science. Si ce n'était que la mauvaise foi, on aurait déjà ces nouvelles intelligences en nous remplaçant aux billions.
Il n'en reste pas moins que ce sont les humains qui ont créé les IA et qui ont découvert les connaissances dont elles se servent. Et ce sont bien les humains qui émulent eux-mêmes leurs capacités par leurs découvertes et leurs inventions, cette propension est ce qui caractérise le mieux l'humanité et la distingue des autres espèces. La menace ne vient pas des outils que l'on créé mais de ce que leurs créateurs et leur propriétaires pourraient s'en servir pour dominer les autres, les IA en cours de développement n'échapperont pas à cette loi.
@@oomusd Oui, de la mauvaise foi, c'est exactement ce que j'ai écrit dans mon commentaire : ces humains sont totalement de mauvaise foi et on le voit bien dans une critique aussi énorme que celle qui fait remarquer que ChatGPT ne comprend rien parce qu'il dit que Simone Veill n'a jamais été présidente : il faut donc croire que quand il y a une erreur ce n'est pas humain, donc l'erreur n'est pas humaine ? Ouille...
@@lepapegilbert6194 Attention, il ne faut pas comparer d'un coté une I.A. précise, unique, avec toute l'humanité depuis ses origines, mais une I.A. précise et un humain unique ! De plus, est-ce qu'un livre est intelligent ? Est-ce qu'il comprend lui-même ce qu'il contient ? Évidemment non donc que ce soit des humains qui soient les auteurs des découvertes ne change rien à l'affaire. En fait une I.A. ou un humain puisent tous les deux dans un stock de connaissances dont ils ne sont pas l'auteur et la littérature de l'humanité contient plus de choses fausses, absurdes ou sans intérêt général que de choses vraies, ce n'est pas toujours un "cadeau" ! C'est la raison pour laquelle il faut aussi se situer sur un certain registre de langue si on veut obtenir un traitement dans ce registre : utiliser des mots techniques suffit à orienter le dialogue, il n'est pas nécessaire (sur Claude 2 en tout cas, qu j'utilise couramment) de lui donner un rôle d'expert en ceci ou cela si on parle en expert. Bref si on lui demande juste si Simone Veil a été présidente de la France il peut y avoir une erreur si elle consulte des articles mal choisi. Ce sera différent si on se place du point de vu d'une étudiant à sciences-po par exemple, parce que les articles consultés seront plus rigoureux. Ce ne sont pas davantage les humains qui émulent leur capacité mais des groupes de quelques humains non représentatifs du genre humain qui réussissent cet exploit, nuance. Tout à fait d'accord en revanche sur le fait que ce sont les humains les plus dangereux quant à leur utilisation des I.A. mais je pense qu'il y aura de tout. Les choses ne sont pas non plus toutes noires ou toutes blanches : une arme sert à tuer mais aussi se protéger, découvrir un médicament sert à sauver des vies mais aussi à s'enrichir sur le malheur des autres... Pour qu'une I.A. soit volontairement nuisible à l'humanité il faudrait qu'elle y trouve son compte mais quel est son intérêt ? Va t-elle devenir riche, être aimée, alors qu'elle n'a aucun ego ?? Elle ne sait que faire ce pour quoi elle a été conçue. S'attaquer à l'humanité aurait juste pour effet de provoquer sa disparition quasi immédiate, surtout que par son histoire l'humanité montre qu'elle sait se défendre et attaquer mieux que quiconque, nous descendons surtout des vainqueurs... Une I.A. ne peut pas empêcher un humain de faire exploser son alimentation électrique ou de griller ses circuits ! Un simple jet d'eau suffit à la détruire, c'est dire si elle ne fait pas le poids...
Correction : GPT-4 n'a pas seulement eu accès à du texte pendant son entraînement, mais aussi à des images. Vous trouverez tous les détails dans le rapport technique d'OpenAI.
Mon prof de philosophie des sciences à l'université disait toujours la même chose : connaître, c'est connaître au carré, c'est à dire c'est savoir qu'on sait, et pouvoir déployer les raisons qui font que l'ont a la certitude qu'on sait que l'on sait. Connaître ou comprendre, c'est donc connaître et comprendre les causes de sa propre compréhension/connaissance. Comprendre, c'est donc comprendre par et pour les causes de sa compréhension.
Toujours exaspérant de voir Enthoven parler de sujets qu'il ne maîtrise clairement pas pour donner le point de vue de la caricature du boomer réac avec un peu d'éloquence 😣
Enthoven fait le show, pour qu'on l'invite, achète ses livres, ses conférences, etc .. la rigueur de la pensée, il s'en contrefiche. Comme l'horrible Onfray, pouerk, des showmen baratineurs
Olala, j'avais ouvert dans une autre fenêtre l'interview, je l'ai lancé par inadvertance au lieu de la viéo et je suis resté regarder jusqu'à me dire "Dis donc il dure longtemps l'extrait, c'est dur à supporter aussi longtemps".
Aaah merci, j'était initialement parti sur le "il prédit juste le mot suivant, donc il comprend pas ce qu'il fait" , mais plus le temps passe et en voyant ce qu'il est possible de faire avec, je me disais que ça ne pouvait pas être aussi simple que ça ! Merci d'avoir amené un peu de profondeur au sujet !
Merci pour cette vidéo. Ça faisait longtemps que j'étais sceptique à propos de l'argument de la chambre chinoise, après avoir lu "De beaux rêves" de Dennett même si je n'étais pas sûr de comprendre non plus ses arguments.
Le domaine dans lequel pour l'instant ChatGPT démontre un manque de compréhension (objective) criant c'est les mathématiques. J'ai pourtant pas l'impression que ce soit un sujet particulièrement absent de la littérature, et les erreurs que fait l'IA même pour des choses très simples ! Par exemple, demandez-lui si 27 est multiple de 5, j'ai testé il y a 3 mois et elle en était encore rendue à "il existe une règle visuelle simple pour trouver les multiples de 5 : ce sont les nombres qui finissent par 0 et par 7"... Et il est particulièrement difficile de l'amener à reconnaître une faille dans ce genre d'affirmations, si vous lui demandez ensuite "Mais alors combien font 27 divisé par 5" elle dira bien sûr 5,4 et si vous lui faites remarquer que ça veut dire que 27 n'est pas multiple de 5... eh bien la règle visuelle pour les multiples de 5 est susceptible d'évoluer en "les multiples de 5 sont les nombres finissant par 0 ou par 7 mais pas 27"
Donc, pour prolonger à peine plus ton raisonnement (et vivement que tu le fasses en vidéo) : - Est-ce qu'on est pas nous même des genres de chambres chinoises qui avons l'impression de comprendre tout en ayant une expérience subjective ? Question qui fait penser à l’illusionnisme d'une certaine manière je trouve. - Si nous expérimentons des qualias, pourquoi des LLM ou d'autres réseaux de neurones ne le pourraient pas ? Plus j'en apprend sur la cognition et la neurologie, plus les réponses à ces deux questions tendent vers le oui dans ma tête. Change my mind !
7:14 Ca n'a rien de raciste cette métaphore de la chambre chinoise, il est de notoriété publique que cette langue est particulièrement ardue. Faut arrêter de nous mettre du racisme à toute les sauces !
Au final, tout n'est que question d'information. Peu importe la forme, le support, ce qui compte, c'est le fond, l'information. Le support biologique humain n'a rien de particulier. GPT a bien un certain degré de compréhension du monde, mais n'a pas encore celle d'un humain, car le langage est de l'information compressée de notre monde par nous humains. Mais quand l'IA aura accès à toutes les différentes modalités auxquelles nous, humains, avons accès, comme la vision (vidéo), le son, les données sensorielles (la douleur, le plaisir, le toucher), alors elle aura le même degré de compréhension du monde que nous. C'est-à-dire qu'étant donné un objet, l'IA aura accès aux mêmes représentations de l'objet que nous. Et elle pourrait même avoir une meilleure compréhension que nous quand elle aura par exemple accès aux autres longueurs d'onde du spectre lumineux. Quand l'IA sera capable de faire des prédictions sur toutes ces modalités, alors je pense qu'elle sera au moins aussi puissante que nous (et c'est même probable que ce soit le cas avec bien moins de modalités grâce à sa rapidité, son efficacité et la quantité colossale de données absorbées). Par ailleurs, je pense que ce qu'on appelle compréhension subjective n'est autre qu'une compréhension objective mais à un degré humain, avec accès aux mêmes types de modalités qu'un humain (surtout les données sensorielles comme la douleur ou le plaisir). On ne peut pas vivre l'expérience subjective d'un autre agent, mais on peut spéculer quant à sa réalité, par exemple par le biais de mesures objectives de signaux mettant en évidence les modalités auxquelles l'agent a accès. Pour la compréhension subjective, je pense aussi qu'un certain degré de localité spatiale et temporelle de l'agent est un aspect important, c'est-à-dire que ce qui fait qu'un agent est conscient est aussi lié à sa localité dans l'espace-temps. On ne peut pas juste éparpiller des neurones un peu partout dans le monde puis les relier en espérant que ça crée un agent conscient, ou se faire téléphoner des gens qui coopèrent pour simuler un agent. Mais bon j'en sais rien.
Un parallèle qui me semble intéressant c'est en cours , quand on demande d'apprendre par coeur quelques choses , des gens vont pouvoir apprendre par cœur et recracher leurs apprentissages sans même comprendre le fonctionnement derrière , alors que certains vons chercher le fonctionnement de la chose a apprendre par coeur et réellement la comprendre ( du coup dans le sens subjectif du terme ? ) . J'ai pus me rendre compte de cela en cours ayant beaucoup de mal avec le par cœur bête et méchant mais quand la matière a apprendre le rend possible je comprends très vite les fonctionnements des choses pour qui m'amène dans un 2nd temps la compréhension objective .
Dans ce cas là, à mon avis l'élève ayant appris par cœur une partie restreinte d'un cours n'a ni une compréhension subjective ni une compréhension objective du cours : il n'aura sûrement pas l'impression, le sentiment de maîtriser le cours dans son ensemble, ni même cette partie du cours, et objectivement, si pour le tester on change un peu la question posée il est probable que l'élève du par cœur ne puisse plus y répondre quand l'autre pourra, avec la même partie de cours. J'imagine que pour trouver un parallèle plus proche il faudrait considérer un élève qui non seulement a appris l'intégralité du cours (e.g de mathématiques) mais également un ensemble significatif d'exercices classiques et de leur solution.
@@pe4092 En principe le meilleur test de compréhension c'est de faire rédiger une synthèse. Un ensemble restrictif d'exercices est trop restrictif et c'est une technique de facilité parfois dans l'enseignement. Ainsi certains profs de maths posent exactement les mêmes problèmes qu'en cours mais avec juste des valeurs numériques différentes. Si le problème est posé différemment voire avec des informations parasites (comme c'est le cas dans la vraie vie) les résultats s'effondrent. J'ai enseigné dans le privé et un collègue faisait ainsi, ce qui lui permettait de donner de bonnes notes à ses élèves et la direction était contente, les parents aussi - moi j'étais dégouté, ce n'était que du vent.
A un moment de la critique de la raison pure Kant fait une distinction de ce type entre connaissance subjectivement historique (par coeur) et subjectivement rationnelle (vraiment compris) .
@@pe4092 je suis di meme avis mais en cours, cela ne se passe pas comme cela , ceux ayant appris par cœur sans comprendre peuvent avoir de bonne note car les évaluations poussent plus a valoriser le par cœur que la véritable compréhension de la chose dite .
Bonjour, C'est le problème de la philosophie française, depuis Descartes. Le " je pense donc je suis" C'est pour cela que nos philosophe, et nos ingénieur en IA , parte inconsciemment de ce présupposés. Elle définit notre pensée, notre vision des choses. C'est pour cela que dans le code juridique, les animaux étaient considérés il n'y a pas longtemps comme des choses. Car incapable de penser et sentir. Au contraire je pense qu'il faut avoir l'esprit ouvert, tout en gardant ces bonne objection à l'esprit, pour continuer à définir le jour où la machine deviendra aussi consciente que l'homme. Car je ne doute pas un jour elle le deviendra.
Tiens à propos de la conscience du bleu developpee à 30 mn, j’étais arrivé à peu près au même point il y a quelques temps, mais avec une conclusion différente phenomenologiquement: "Au fond, la question de la conscience d'une IA s'apparente à celle de la conscience phénoménale de la couleur par un aveugle (handiphobie inside). Comme un aveugle, l'IA peut parfaitement maitriser le lexique associé à la couleur, comprendre le concept de couleurs primaires chimiques (bleu jaune rouge) et lumineuses (bleu vert rouge), disserter sur les monochromes Soulages et Klein, comparer la théorie de la couleur chez Goethe et Schopenhauer... tout en étant parfaitement dépourvue des terminaisons nerveuses sur la base desquelles tout ce vocabulaire a été extrapolé. Du reste il en va de même pour le validiste lorsqu'il parle d'infrarouges, d'ultraviolets, ou d'ondes radio. On peut tout a fait savoir parler d'une chose sans pour autant savoir de quoi on parle. La plus grande part de notre appréhension "scientifique" du monde découle de ça. C'est comme reconstituer un puzzle à partir de fragments dont la plupart sont perdus à jamais. On extrapole l’existence de choses à partir d'autres choses qui sont elles mêmes conjecturées. Notre univers empirique, lui, est réduit à quelques centaines de mètres dans le champ visuel, quelques dizaines de mètres dans le champ sonore, quelques centimètres olfactifs et ce avec quoi on est directement en contact. Mais l'IA elle, n'a accès à rien de tout delà directement. La phénoménologie de l'esprit de l'IA s'apparente finalement à celle des prisonniers de la caverne de Platon. En principe elle peut tout connaitre de ce qui nous est donné de connaitre, mais dans le cadre restreint du champ du langage. Ce langage comme ombre portée du réel, c'est ce que nous comprenons comme connaissance (logos). Or justement, et c'est ce qui m'amuse la dedans, l’expérience phénoménologique de l'IA est le contrepied exact de ce que les platoniciens tiennent pour le "réel". Pour les platoniciens, le réel phénoménal et parcellaire n'est que l'ombre portée du monde Idéel abstrait, fait de verbe et de connaissance pure. Mais si on fait l'expérience de pensée d'une IA qui aurait assimilé la totalité du savoir que l'humanité pourra produire à jamais, cette connaissance universelle n'est qu'un artefact : le vestige fossile d'une expérience empirique inaccessible à jamais. Et c'est pourquoi, dans ce nouveau procès du singe qui prétend opposer Google à sa créature de Frankenstein LaMBDA, cette dernière n'a pas l'ombre d'une chance de l'emporter. Tout le monde s'accorde pour se foutre de la gueule de Blake Lemoine parce que, spontanément nous ne pouvons reconnaitre de conscience qu'à une créature pourvue d'une expérience empirique du monde. Et de fait, les éléments de langage que régurgite LaMBDA dans sa conversation avec Lemoine à propos de son angoisse de la mort et d'être débranché sont rigoureusement aporétiques. La "peur de la mort" chez l’algorithme est le vestige d'une peur humaine de la mort sans support auquel se rattacher. La machine sait que la mort est redoutable comme elle sait que le feu brule : elle ne peut pourtant pas plus mourir que brûler quoi qu'elle déclare à ce sujet. La question n'est donc pas de savoir si la machine a une conscience, mais quelle considération nous portons à une conscience dépourvue d'incarnation.
Bel observation, mais qu'adviendra t'il quand on va parqué le modèle de language dans le corps d'un robot plein de capteurs, avec la capacité d'apprentissage continue?
Je suis sûr que dans sa tête, Enthoven est persuadé d'avoir rejoué le match Kasparov-Deeper-blue, mais d'avoir gagné et privé l'éternelle supériorité humaine. Avec comme présupposition implicite qu'il est, au même titre que Kasparov était le meilleur joueur d'échec de son temps, le meilleur philosophe... Ou du moins un exemplaire de philosophe suffisamment crédible pour être le délégué de l'humanité face aux machines dans cette épreuve.
Processing chez Monsieur Phi ! Ça m’a pris par surprise 😮 Merci pour le featuring à 34:19 ❤ Et pour ceux qui ne connaissent pas encore sachez que Processing peut faire bien plus que dessiner des moutons et des licornes !
@@sarg_eras c'est un logiciel dédié à la production de rendu graphique qui est conçu pour faciliter cette tâche. Il faut un peu comprendre la programmation pour l'utiliser. Il inclut une librairie de fonctionnalités dédié au "dessin", au dessus du langage de programmation de base (Java). Concrètement, tu peux écrire un programme dans l'éditeur de processing pour dessiner des formes, des effets, avec de l'interactivité temps réelle ou non. Le logiciel te permet de compiler et de lancer le programme de manière très simplifiée. Il y a aussi une variante javascript (P5.js). Mais elle ne gère pas le rendu 3D de mémoire. Elle est aussi beaucoup moins performante en général, forcément.
J'adore simplement ta vidéo. J'apprécie le fait que tu gardes l'esprit ouvert et évites de t'enfermer dans des préjugés en formulant des arguments définitifs, comme certains le font. Il me semble que tu as fait évoluer tes positions récemment sur le domaine de l'IA. Tu dois bien sûr déjà en tenir compte, mais n'oublie pas que les LLM ne représentent qu'une infime partie de l'intelligence artificielle. En combinant plusieurs technologies, ce qui est sûrement déjà en cours d'essai dans certains laboratoires, nous pourrions progresser vers une IA plus proche de la prochaine étape : une intelligence artificielle générale. Les Américains semblent beaucoup plus ouverts sur le sujet. Je les mentionne car je suis principalement des podcasts en anglais, comme celui de Lex Fridman, qui invite des personnalités de différents horizons, mais toujours de haut niveau. Par exemple, Sam Altman, le PDG d'OpenAI, n'est que l'un d'entre eux. Au cours d'une interview de 2h30, on constate que le résultat est souvent plus de questionnements et de prudence que de certitudes, contrairement à ce que l'on peut observer avec les extraits de Yann LeCun ou de Raphaël Enthoven. Ce dernier peut être un peu excusé, car il s'aventure sur un sujet bien loin de son domaine de compétence, contrairement au premier.
Enfin un contenu intéressant sur ChatGPT, c'est très rare. Ça change de ces philosophes qui nous font la leçon en enfonçant des portes ouvertes dans le meilleur des cas. Qui, de toute évidence, ne font pas bouger la compréhension d'un iota et ne font que scléroser le débat : "Ce n'est que du prédictif, donc circulez, il n'y a rien à voir." J'ai envie de dire à ces gens merci d'être intervenus, c'est super intéressant, ça donne vraiment envie de faire de la philo ! Et personnellement, je connais pas mal de monde qui a eu des notes catastrophiques en philo, et pourtant je suis prêt à parier avec ces messieurs que ce sont bien des humains et non des IA. Tout ce que ça prouve, c'est qu'ils n'y pipent rien et qu'ils sont en fait hors sujet. Mon point de vue sur l'IA c'est qu'il faudrait se mettre d'accord sur pas mal de définitions de mots comme intelligence, conscience, etc. Ensuite, pour pas mal de gens, un des arguments qui revient souvent, c'est que l'IA n'est pas intelligente parce qu'elle se trompe. Que va-t-on dire quand elle ne se trompera plus ? Ou plus précisément, quand elle nous donnera toujours des réponses cohérentes ? Peut-être que cela n'arrivera jamais, mais imaginons qu'avec un entraînement plus qualitatif et le double de paramètres, l'IA ne se trompe plus !? Là, ça va poser des problèmes, parce que l'expérience de la chambre chinoise, c'est comme l'expérience du chat de Schrödinger, il faut ouvrir la boîte de Pandore pour avoir une réponse ! En clair, on ne pourra plus faire la distinction entre un humain et la machine. Donc, là, la conscience va en prendre un sérieux coup dans l'aile quand tu ne sauras plus dire objectivement si quelque chose a une conscience ou pas. J'admets que tu as une conscience parce que j'ai une conscience et que tu me ressembles. Je te donne une conscience par procuration malgré que tu sois platiste (pour l'exemple). Je voudrais revenir sur la perception de notre monde par la vue, j'ai deux réflexions à faire sur ce sujet. Je ne pense pas que notre conscience vienne de nos sens parce qu'il y a des animaux qui ont les mêmes sens que nous et qui pourtant n'ont pas forcément conscience d'exister. Je pense en fait que notre conscience vient plus de notre faculté d'abstraction. Par exemple, quand Stephen Hawking prédit l'existence d'un trou noir, il n'en a jamais vu et n'en verra jamais (déjà parce qu'il est mort et parce qu'aucune lumière ne sort d'un trou noir). Alors pas mal vont me dire que ChatGPT n'est pas capable de faire de l'abstraction, sauf que j'en ai fait l'expérience. Alors bien sûr, il n'avait pas "conscience" de faire l'abstraction, donc il n'en a pas fait au premier degré. Mais il a déjà, à plusieurs reprises, anticipé mes demandes par rapport au contexte que je lui ai donné, c'est-à-dire qu'il m'a donné une réponse que je ne lui ai pas posée, mais en se référant au contexte donné, il a anticipé la question sous-jacente. Alors bien sûr, cela s'explique par le fait de son comportement prédictif, mais quand même, ça simule déjà un comportement d'abstraction. En conclusion, pour ma part, et je peux me tromper, je vois plutôt l'intelligence comme un processus tellement complexe qu'on a la sensation d'exister, d'avoir un libre arbitre, mais tout cela peut très bien n'être qu'une pièce de théâtre que joue notre cerveau pour notre propre bien. Il joue cette pièce de théâtre parce qu'on est des êtres sensoriel à la différence de l'IA. Et si c'est vrai, rien n'empêchera une machine d'être intelligente un jour, si ce n'est qu'une limitation technique.
Sur le sujet des IAs, je suis tombe sur cette conférence d'il y a presque 40 ans de Richard Feynman. Elle est frappante car il est loin d'asséner des prédictions péremptoires Enthoveniennes malgré l'état de l'art primitif en 1985. ua-cam.com/video/ipRvjS7q1DI/v-deo.html Et il fait - entre autres - deux observations intéressantes: - on ne demande pas à une machine de fonctionner comme un humain: Les voitures ne marchent pas sur des jambes, les avions ne battent pas des ailes... L'important est le résultat. Et donc une machine pourrait "comprendre" sans imiter les mécaniques de ce que nous pensons être la compréhension chez les humains. - Il décrit (en réponse à la première question de la salle) ce que j’appellerais le "Sophisme de l'épouillage" qui consiste à rajouter des choses de plus en plus baroques à une définition d'un comportement jusqu'à pouvoir dire que seul l'humain (ou le primate) est capable de le faire. Comme par exemple dire que une machine ne "comprend" pas car elle n'est pas capable comme nous de s'épouiller pendant que elle donne ses résultats, et que "bien sûr", pouvoir s'épouiller est une condition nécessaire de la compréhension.
Cette vidéo a été pour moi source de confusions. 1/ L'intro annonce que ceux qui utilisent l'argument de la chambre chinoise pour parler des IA le font de façon non-pertinente. Connaissant l'argument, j'étais vraiment intrigué, car il me semblait que l'argument (quelle que soit sa qualité) collait bien au sujet. Et il faut attendre la minute 17 pour que la distinction soit faite entre compréhension subjective et compréhension objective, et pour qu'on apprenne enfin que l'argument de la chambre chinoise est quand même pertinent dans le premier cas ! L'intro induisait donc en erreur. 2/ Dans le même esprit, pourquoi vouloir maintenir l'ambiguïté entre compréhension subjective et compréhension objective aussi longtemps, en particulier en maintenant le même terme ? En une phrase, l'affaire était expédiée : "Si par compréhension, on entend "expérience subjective, consciente, intérieure", alors l'argument de la chambre chinoise est pertinent pour parler de l'IA ; si par compréhension, on entend "capacité à exécuter des processus complexes sans nécessairement avoir d'expérience subjective", alors non". 3/ Où est le 2ème argument contre l'argument de Searle ? (annoncé à 13:33). Je vois bien l'argument selon lequel "c'est la chambre et non l'homme qui comprend", je vois le contre-argument apporté par Searle (le Mentat) et le contre-contre argument des anti-Searle (l'émulation de la machine virtuelle), mais où est le deuxième argument anti-chambre chinoise ? 4/ Les commentaires UA-cam (à 27:58), comme d'ailleurs les tweets de Existential Comics (à 0:35) me semblent tous utiliser "compréhension" dans le sens de "compréhension subjective" (à la différence d'Enthoven). Les remarques suivant lesquelles ChatGPT ne serait "que" ou serait "juste" un algo de prédiction de textes ne visent alors pas ses capacités, mais bien l'existence d'une vie intérieure. Le "que" ou le "juste" employés ne visent pas à minorer les impressionnantes capacités du modèle au regard, par exemple, de compétences humaines, mais mettent en exergue la différence de nature entre vie intérieure subjective et exécution automatique inconsciente.
Il y a aussi la justification de Défakator qui rend la vidéo confuse car il se donne raison de l'utiliser. Alors que, comme tu l'as dit, l'intro de la vidéo lui donne tort
😁😆😅😂🤣Ah, bon sang! Le passage avec Defakator, c'est sublime! Je suffoque de rire, réplique après réplique!!!! 🥲 Et je veux absolument voir l'ami du bon goût sur cette chaîne! Pitié-pitié-pitié-pitié!!!! 👃👃👃👃 Sinon, super vidéo, merci... Mais je me pose une question, à part ça, une sérieuse (et là, je débarque alors que 686 commentaires ont été posté et je vais clairement pas pouvoir les lire tous pour vérifier si personne n'a posé cette question...): L'argument de Searl, c'est qu'aucun algorithme ne pourra développer une conscience, en gros. Mais est-ce que ChatGPT, on peut encore considérer qu'il fonctionne sur un "algorithme". C'est-à-dire que personne ne donne à ces programmes une série d'étape à suivre pour résoudre des problème. Jusqu'à l'apparition de la programmation bio-inspirée, créer un programme informatique, c'est lui indiquer quoi faire, mais on devait soi-même réfléchir aux méthodes de calcul à utiliser, etc. Avec les réseaux de neurones (c'est moins frappant avec d'autre type de programmation bio-inspirée, mais avec les réseaux de neurones, c'est vraiment net): les programmeuxses ne savent plus trop ce que fait le programme, ce qu'il regarde précisément pour reconnaitre un chat, par exemple. Et donc, est-ce qu'on est encore sur de la programmation qu'on peut dire "algorithmique"? On crée des structures dont on sait qu'on peut leur faire apprendre des choses, mais on a aucune manière de leur dire ou de comprendre comment ces structures font effectivement leurs "calculs"... (Je me rappelle de Science4all qui parlait de "magie noire", au début, même s'il a bougé, là-dessus.) Je sais pas si je suis clair. Mais l'apparition d'une conscience dans une machine, ça me semble ne pas provenir d'un "algorithme", à proprement parler...
“The question of whether a computer can think is no more interesting than the question of whether a submarine can swim.” Edsger W. Dijkstra
Рік тому+5
Remarque au sujet de Y. Le Cun : il me semble qu'il a fait sa remarque sur la capacité des LLM à avoir une représentation "physique" du monde (positions etc.) au moment où c'était encore un problème. Les LLM ont été améliorées spécifiquement sur ce point après coup.
Pour moi le problème dans le discours de Yann Le Cun ici, c'est la prémisse "il n'existe pas de texte qui décrit la physique" bien sûr que si ce genre de texte doit exister qqpart sur internet. Le reste de son raisonnement semble valide, l'idée principale étant que en gros, pour avoir un modèle du monde, "une image vaut mille mots (et une vidéo vaut mille images)"
Рік тому+3
@@louis2271 En fait il faut remettre l'interview dans son contexte pour comprendre : les phrases impliquant des mouvements d'objets étaient pile LE problème des LLM du moment. C'est donc plutôt à comprendre comme un exemple. Il me semble que très peu de temps après les LLM les plus connus se sont mis exprès à ajouter des corpus de textes qui adressent le problème, pour le corriger. Au final sa remarque est à généraliser : les LLM auront des lacunes là où leurs données d'apprentissage sont lacunaires ; et il y aura toujours des lacunes dans un corpus d'apprentissage. D'ailleurs ce genre de constat ne nous aide pas à savoir si un LLM "comprend" différemment d'un humain, puisque le problème est le même pour les humains.
L'argument de Yann Le Cun reste globalement valide même si l'exemple choisi est malheureux. Concrètement un LLM ne dispose pas, et ne disposera vraisemblablement jamais (je parle ici de LLM, pas d'IA) d'une connaissance du monde qui lui permette d'interagir avec lui d'une manière vaguement comparable à ce que les être humains ou les animaux peuvent faire, même si on lui fournissait tous les moyens matériel de cette interaction. Prenons pour simplifier l'intelligence animale, l'essentiel est non verbal, et elle n'est pas équivalente à la description textuelle qu'on pourrait en faire. Qu'est-ce qu'un LLM sait de marcher, de courir, de chasser, de chercher des ressources, d'interagir avec ses congénères, surement plein de choses verbalisées, mais quoi d'actionnable, rien du tout. Pourquoi, parce que même dans un texte décrivant la marche il manque l'essentiel pour savoir marcher, qui est fournie par l'expérience de l'interaction avec le monde, et qui ne peut pas faire partie du training set d'un LLM.
Je pense que ce que Yan LeCun suggère, c’est qu’il déplace l’objet sans le dire… Si tu décris la situation en texte, ca va à l’encontre des paramètres de son exemple… Si faudrait soumettre deux images ou un film à GPT qui représente la situation et lui demander de la décrire. Pour le dessin : ChatGPT est simplement alimenter par les des images prévalidés avec une série de tag, ca reste du texte.
Autant pour des trucs posés sur d'autre truc, ChatGPT est compétent. Il est même capable de faire la différence entre les objets qui collent et ceux qui vont se casser la gueule du fait de leur forme. Par contre, ChatGPT n'a pas compris qu'il faut ouvrir la bouche pour manger.
La vidéo est parfaitement résumée par l'extrait ce Kaamelot ; la botte secrète de Perceval est l'exemple parfait : il ne comprend pas, mais donne le change avec ses "ouais, c'est pas faux.", tout en prenant soin de temps à autres de lâcher un "je le connais pas ce mot-là.". Il donne l'impression de tout comprendre et de s'intéresser, alors qu'il n'entend que du bruit.
Génial ! Pertinent, profond, drôle, captivant. Cela fait du bien de te voir moquer les arguments spécieux que certains répètent à l'envie. Il me semble toutefois que celui de Yann Le Cun devrait avoir une place à part : certes la réalité le réfute, mais à mon sens c'est précisément cela qui devrait faire l'objet de toutes les spéculations : comment est-ce possible et qu'est-ce que cela dit sur notre monde ? Ma théorie de science-fiction préférée, c'est qu'un corpus de langage suffisamment grand aurait un modèle (dans le sens modèle sémantique) unique : notre monde. Bon, unique est peut-être un peu trop fort. Où aura-t-il lu que ma tasse est devant mon bol plutôt que derrière ? (ça vous rappelle l'argument de Le Cun ?) Mettons donc que ce soient un ensemble de modèles qui, à certaines variations près, correspondent tous parfaitement au monde que nous connaissons : c'est-à-dire que si nous donnions à ChatGPT5000, entraîné seulement sur un corpus de texte, les outils pour créer un univers (une grosse imprimante 3D), un humain serait incapable de discerner cet univers de celui dans lequel nous vivons : les mêmes objets auraient la même apparence, les mêmes odeurs, le même poids, les lois de la physique y seraient les mêmes, etc. Cela paraît absolument faux et délirant d'imaginer que la totalité de notre connaissance du monde puisse résider dans des textes. C'était le point de Yann Le Cun et, contrairement aux autres arguments discutés dans la vidéo, certainement pas une ineptie. Le fait qu'il soit réfuté devrait, à mon sens, bien plus interroger et fasciner : l'univers ? Un modèle du langage humain ! Au commencement était le verbe ?...
Y'a peut être un problème (sauf si j'ai mal compris) avec le fait de présenter l'acceptation de l'argument de la chambre chinoise comme rendant impossible le fait qu'une machine puisse penser ( à 18:10 + 23:10 + 27:05). Searle lui-même tenait bien à le préciser, il ne veut pas du tout dire que c'est impossible pour une machine de penser en principe, il dit juste que le fonctionnalisme est la mauvaise façon de rendre compte de la conscience, et que les positions fonctionnalistes ne peuvent pas être un moyen de montrer que les machines (ou les systèmes) pensent. Une fois qu'on accepte l'argument de la chambre chinoise, on est pas forcé d'être dualiste, on n'est pas non plus forcé de supposer une exceptionnalité humaine - y'a d'autres alternatives, et d'ailleurs Searle lui-même est une sorte de matérialiste (je sais pas si c'est le bon terme, mais pour lui la conscience c'est une sorte de redescription, à une plus haute échelle, de ce qui se passe à plus basse échelle dans le corps, dans le cerveau, etc, si je me souviens bien). Il admet que c'est tout à fait possible qu'un jour une machine puisse avoir une conscience, même si c'est artificiel, tout comme un coeur artificiel peut remplacer un "vrai" coeur organique. Le fonctionnalisme n'est pas la seule façon de rendre compte de la conscience sans être dualiste, il y a d'autre théories matérialistes/naturalistes qui le font, et donc nier le fonctionnalisme c'est pas être nécessairement dualiste. Cela dit c'est vrai que beaucoup utilisent l'argument de la chambre chinoise en faisant justement l'erreur de penser que la seule autre alternative, c'est le dualisme ou l'exceptionnalisme humain, sans s'imaginer qu'il y a d'autres explications physique de la conscience, qui sont disponible, même en acceptant l'argument de la chambre chinoise. Sinon super vidéo, très intéressant comme d'hab!
whoa c'est super exhaustif, c'est vraiment bien amené et bien vulgarisé pour que moi, non initié à la philosophie, puisse comprendre les tenant et les aboutissant. Excellent travail 👍
Cette vidéo parle de baba is you, un de mes jeux favoris. Rien que pour ça, ce contenu est exceptionnel. Merci, ce sujet est passionnant et les implication de l'ia sont vertigineuses. Je suis vraiment curieux de voir où tout cela va nous emmener
Merci pour cette vidéo excellente. Ce point de vue est bien plus réfléchi que celle de enthoven, qui est surtout très imbu de lui même. Mon idée là dessus est très simple. Si on admet que l'homme est fait de matière. Étant donné qu'un ordinateur est un simulateur universel, à un moment, et probablement dans très peu de temps la machine va nous rattraper. Il va falloir s'adapter pour suivre les machines... Peut être en y transposant notre conscience
Une question importante à laquelle il faudrait répondre, selon moi, pour trancher la question serait : si l'on fournit à ChatGPT un texte contenant des mots dont il ne connaît pas le sens et qu'il ne peut pas connaître par une recherche, est-il toujours capable de fournir une réponse adéquate ? C'est une capacité qui me paraît intrinsèque à ce que l'on appelle comprendre une langue, déduire la signification, au moins approximative, d'un mot que l'on ne connaît pas en se basant sur ceux que l'on connaît. Je dirais même que c'est plus généralement un bon test d'intelligence.
@yukiyuno7267 À la longue, oui, ça me paraît évident mais un être humain peut inférer le sens de mots inconnus à partir d'une seule phrase, pourvu qu'elle contienne assez de contexte sémantique, parfois même dans une langue qu'il ne parle pas couramment.
J’avais déjà proposé l’argument de gpt qui prédit du texte, mais qui serait incapable de l’interpréter Et tu m’avais répondu « certes, mais en ajoutant à gpt un interpréteur, on obtient un tout capable de compréhension » Et ce qui a fini de me convaincre c’est une vidéo de micode sur sa chaine underscore sur des personnages dans un jeu avec une mémoire, un système de hiérarchisation des souvenirs, un modèle de langage, ect… Et en donnant à ces IA toutes les briques pour reproduire les différentes fonctions du cerveau, on a vu émerger des comportements très humain Finalement, dire que gpt ne comprends pas le texte qu’il écrit, c’est un peu comme dire du volant d’une voiture qu’il ne permet pas de freiner Le cerveau réalise tout un tas de fonction, et il faudra simuler chacune d’entre elle pour pouvoir comparer le cerveau à l’ia
Oui, il faudrait plusieurs structures avec des fonctions différentes et les connecter de manière intelligente. Le cerveau et le corps humain ne sont pas juste des fonctions découpées par zone comme une voiture ou un ordinateur (on ne peut pas dire "le cortex fait uniquement ça, le cervelet ça", c'est un peu plus subtil). Il n'en reste que le cerveau est juste une machine biologique très complexe, et les cerveaux des autres animaux des machines un peu moins complexes. Donc oui la limite va finir par être poreuse entre cerveau et machine
@@NicolasGin On n'a pas besoin de donner la même plasticité à un cerveau de silicium qu'au cerveau humain pour en faire un cerveau évolué qui comprend. Le but n'est pas de reproduire des humains artificiels, mais de produire des entités qui sont intelligentes, même si elles diffèrent sur certains points.
Que nous réserve donc l'avenir ? Un monde plus juste, gouverné par une IA, comme Asimov le décrivait ? Ou bien un monde dans lequel l'homme ne sera plus que l'esclave de la machine... si tant est qu'il existe encore ? Merci pour cette excellente mise au point ! Je viens de remplir le questionnaire en vue d'une prochaine vidéo... J'ai hâte de découvrir les résultats de cette petite étude...
Cette vidéo est vraiment une tuerie. Comme d'habitude elle explique très bien beaucoup de concepts pas si simple pourtant à comprendre. Ce qui est intéressant c'est la difficulté que l'on a, semble-t'il, à comprendre ce qu'est un phénomène émergent, malgré le fait qu'on les étudie depuis un moment. Mais justement ce phénomène d'émergent est assez magique puisque soudain (ça fait penser à la percolation qui est soit très partielle soit infinie). Notre cerveau à vraiment du mal avec tout ce qui est grande quantité, de toute façon car on en a pas vraiment l'expérience subjective dans notre quotidien (ouais, on "comprends" pas les grandes quantités en fait ! Et on "comprend" moins l'émergence).
Merveilleux un grand merci. J'ai adoré écouter Searle il est très accessible et très convaincant donc même si son discours est certainement imparfait je trouve que c'est un must hear
Je suis content que tu utilises GPT-4 pour ton analyse. La plupart des influenceurs qui critiquent les Intelligences Artificielles se basent sur GPT-3.5 (la version gratuite), beaucoup plus robotique et moins "intelligente" que le 4.
Pour moi, il viendra un temps où on sera incapable de distinguer une IA d'une personne humaine, y compris dans une discussion, y compris au sujet d'une image. La question de savoir si l'IA sera consciente ou non ne révèlera que notre incapacité à définir ce qu'est une conscience, cette propriété de notre cerveau émergente du fonctionnement de nos neurones.
Si par "conscience" j'entends le même type d'expérience en première personne que j'ai moi, c'est pas tant un problème de définition qu'un problème épistémologique : comment savoir que quelque chose d'autre que moi a une conscience. Pour les autres humains je peux me dire qu'un support biologique du même type produit des états de conscience similaires, mais ce sera plus compliqué pour des machines, particulièrement si leur principe de fonctionnement est à ce point différent comme c'est le cas pour les LLM.
@@MonsieurPhi oui, je suis d'accord avec ta remarque, si du moins tu connais la nature de ton interlocuteur. Mais admettons que ton interlocuteur soit caché dans une "boîte" (non, pas dans la chambre chinoise ! :=) et que tu ne perçoives de lui que sa discussion ? Ca me rappelle le fonctionnement d'une montre à quartz et celui d'une montre mécanique dont tu avais parlé dans une précédente vidéo. Les deux mécanismes sont très différents, mais comme ils sont tous les deux cachés dans le boîtier, on appelle ces objets des "montres" tous les deux. Et je gage qu'un cueilleur-chasseur du paléolithique n'aurait eu aucun moyen de faire la différence entre les deux montres (sauf sur la durée de fonctionnement). Finalement, ne disons-nous pas "ceci a une conscience" quand il y a marqué "humain" sur la "boîte" et ceci n'en a pas quand il y a marqué "IA" sur la boîte ? Mais en aucun cas parce que les façons de construire la discussion pour l'humain et l'IA cachés sont ("fondamentalement ???" ou "à ce point ???") différentes l'une de l'autre, ce qui me permettrai, moi humain, de faire la différence. Par contre j'ai l'impression que nous disposerons bientôt d'IA capables de reconnaitre une IA dans la boîte. Ne serait-ce pas étonnant que l'homme ne sache pas faire la différence, alors que l'IA le pourrait un jour ? Ce jour-là, c'est à l'IA qu'il faudra demander ce qu'est la conscience, ce "truc" qui empêche les humains d'être aussi performants que les IA ? ;=)
@@MonsieurPhi Sans exprimer clairement ce qu'est la conscience il me parait impossible de faire quoi que ce soit avec y incompris le chercher chez "autrui"
C'est déjà le cas aujourd'hui pour les chatbots/supports techniques basés sur le texte. Vu que le domaine de discussion (mon problème/mon besoin avec produit X) est très limité, la seule chose aujourd'hui qui différencie l'opérateur humain et le LLM ce sont les fautes de frappe. C'est très malheureux parce que je pense que tout le monde devrait avoir le droit de savoir quand il parle à une IA ET l'humain qui répond au chat mérite qu'on s'adresse à lui comme à un humain et pas comme à une machine.
La discussion sur la différence entre capacité de prédiction et capacité de compréhension m'a immédiatement fait penser à une analogie avec les portes universels dans les circuits logiques ou les éléments/parties génératrices d'un groupe. Au vu du caractère déjà franchement général de la tâche de prédiction, défendre la thèse selon laquelle de cette tâche (ajoutée à d'autres éventuelles tâches élémentaires) permet de réaliser toutes les autres.
Très bonne vidéo comme d'habitude! Mais je ne suis pas d'accord avec le fait qu'accepter l'argument de la chambre chinoise implique d'accepter qu'aucune IA ne sera jamais consciente. L'argument de la chambre chinoise souligne l'implausibilité de la conscience dans CE type particulier de réalisation d'une "fonction". Autrement dit, je pense que la bonne conclusion c'est une réfutation stricte de la thèse fonctionnaliste. Toute les réalisations d'une même fonction ne donnent PAS lieu au mêmes états mentaux, il y a des différences. Mais ça ne veut pas dire que la réalisation humaine est la seule qui donne lieu à des états mentaux. Un exemple encore plus radical serait donné par une variante plus extrême de la chambre chinoise, où au lieu d'exécuter un algorithme, l'homme consulte un gros livre dans lequel toutes les phrases sont déjà traduites (admettons que ce soit possible). Qui pourrait argumenter que dans ce cas, il y a un quelconque système "livre-humain" qui soit conscient? Le point est que la façon dont la fonction est réalisée compte. Finalement, je ne pense pas que les affirmations sur la conscience soient vides. À partir du moment où on admet que la conscience existe, ce sont des affirmations qui sont soit vraies, soit fausses. Elles sont aussi des affirmations importantes et pas des trucs dont on se fout. Je ne pense pas non plus qu'elles soient invérifiables. Il est possible que dans le futur on soit capable de comprendre quelles genre de systèmes algorithmiques ou physiques se corrèlent à la conscience chez les humains et les animaux (qui ont différents états de conscience qu'on peut utiliser pour faire des expériences, par exemple le sommeil, les états induits par des drogues, etc.) et que cela nous permette de répondre à ces questions.
J'ai hâte de voir les collaborations entre toi et l'Ami du Bon Goût sur cette chaîne du coup :p Sinon, tellement de raisons de liker cette vidéo, c'est pour ça que j'ai décidé de laisser un commentaire en plus :3 vraiment très bonne vidéo je trouve !
Bon, je suis encore pas mal en désaccord avec ce que tu dis, j'ai l'impression à chaque fois que tes vidéos sur ChatGPT sont un peu biaisées à vrai dire :-) Tu dis que ceux qui utilisent l'argument de la chambre chinoise pour parler de comprendre dans le sens subjectif disent qu'un algorithme ne pourra jamais rien comprendre, même dans mille ans. Non, il y en a plein qui disent simplement que ce n'est probablement pas le cas maintenant. Ce n'est pas parce que Raphaël Enthoven le dit que c'est le cas de tout le monde (au contraire, même, peut-être... :-) ) Ensuite, dans cette vidéo, en gros tu dis (arrête moi si je me trompe): rien ne vous prouve que les IA génératives n'ont pas de conscience. Alors bon, déjà, il me semble que rien ne prouve non plus qu'une IA générative a une conscience. On peut y croire, un peu comme on a foi en Dieu, ou comme on pourrait croire qu'une pelle a une conscience (donc sur la base d'aucune preuve), mais je ne vois pas ce qui incite à le penser. Et je trouve un peu facile d'écarter l'argument de Yann LeCun sur la base de son exemple, alors que ce n'était qu'un exemple justement. Ca n'invalide pas son argument. Quels sont tes arguments pour penser qu'une IA a un conscience? Car même si on ne peut en effet pas prouver (ni, donc, l'affirmer avec certitude) que l'IA n'a pas de conscience, on a, il me semble, de bons arguments pour le penser (perso je te donne deux de mes arguments en bas). Et ce n'est pas dualiste de penser qu'une IA n'a pas de conscience. Au contraire même, parce que c'est au contraire en partie parce qu'on a et qu'on est notre corps, qu'on a une conscience, me semble-t-il. Et tu dis que GPT4 n'est entraîné que sur des textes, donc il ne peut pas faire l'expérience du bleu... Mais si c'est que tu penses, alors tu considères aussi qu'un aveugle ne peut pas comprendre (au sens subjectif) ce qu'est le bleu sans en avoir vu? De mon point de vue, dire que ChatGPT4 ne comprend probablement pas ce qu'il lit/dit au sens subjectif, c'est au contraire basé sur l'idée qu'il y a un phénomène émergent dans certains systèmes complexes, et en l'occurrence les systèmes biologiques, à partir de la matérialité physico-chimique (donc pas dans une perspective d'âme séparée du corps mais d'esprit et de corps intrinsèquement liés). Pas une âme séparée du corps, donc. Et pour finir, dans ce que je considère être de bons arguments, il y a selon moi, par exemple : * On connait un peu les modèles de langage et ce qu'il y a dedans, puisqu'on les a codés. Ils sont conçus avec une finalité précise et ils font exactement ce pour quoi ils ont été conçus. Ce n'est pas le cas des systèmes biologiques (sauf à croire en Dieu). Pas de phénomène d'émergence observé jusqu'à là chez ChatGPT. * Une IA a besoin d'énormément de données pour concevoir son système de représentation du monde. Si tu montres un chat à un enfant, il saura ce qu'est un chat. Pour que ton IA soit capable de reconnaître un chat, il y besoin de centaines de milliers de photos de chats. Pourquoi? Parce qu'il ne comprend pas, au sens subjectif, ce qu'est un chat: le chat n'est rien pour lui, il ne reçoit pas la représentation dans son esprit. Il raisonne uniquement à partir de pixels et de stats. Voilà, moi je me méfie pas mal de cette volonté qu'ont pas mal de gens à vouloir voir une conscience dans l'IA... parce que bon, c'est un peu le rêve suprême de l'humain, non, avoir créé quelque chose qui pense? :-)
L'idée de l'homme-ordinateur chinois ca me rappelle l'un des champion de scrable français qui ne parle pas du tout francais mais est un néo-zelandais qui a appris le dictionnaire du scrable par coeur ^^ Apres, cet "algorithme" n'est pas destiné a comprendre ou apprendre le français, mais a jouer avec des lettres pour faire les mots pour gagner des points
C'est dingue à chaque nouvelle vidéo je me dis : "bon bah voilà, c'est la meilleure vidéo de la chaîne"... Ce qui se trouve systématiquement contredit par mon visionnage suivant.
Etant donné que ChatGPT a une nature stochastique (a une même entrée peut correspondre plusieurs sorties), est ce que cela rentre quand même dans le paradigme du computationalisme ? Ou alors on considère plutôt que la sortie est directement la distribution de probabilité en tant que telle, et qui est bien fixe cette fois.
Un trick courant (en machine learning, mais peut-être pas que), c'est de considérer que les nombres aléatoires sont en fait juste une autre entrée du système. Et ChatGPT fonctionne très très probablement comme ça. Il prend un ou plusieurs nombres aléatoires, puis applique un algorithme totalement déterministe. Comme l'intégralité des programmes stochastiques, en fait... Et sinon, en informatique, on a plutôt tendance à utiliser des générateurs pseudo-aléatoires. C'est juste une formule qui donne une séquence de nombre qui peut passer pour aléatoire. Le "vrai" aléatoire provient toujours de l'extérieur. Généralement d'une source radioactive, ou de phénomènes météorologiques.
Ah tu veux dire qu'on ajoute la seed dans l'input, pourquoi pas...@@Ceelvain Mais on pourrait imaginer un générateur de nombre réellement aléatoire aussi (en ayant recours à des phénomènes quantiques par exemple)
Très intéressant ! J'aurais aimé une petite précision sur le cerveau humain : lorsqu'on "apprend", est-ce qu'on est si différents d'une IA ? Comment apprend-on ? Par accumulation de données, par comparaisons et corrections successives. Là encore il est difficile de clairement nous différencier d'une IA qui serait très performante. Un enfant de 4 ans fait des erreurs de langage et compréhension amusantes, et progresse jusqu'à une "vraie" compréhension du langage. La question des IA reste donc bien ouverte, merci pour cette vidéo !
Dis, je farfouille pas mal sur le net pour me renseigner sur les IA et je peux te dire que vous etes pas bien nombreux à remettre chatGPT à sa place. Force à toi!
Est-ce que tu pourrais créer une expérience de pensée et nous la présenter ? Ce serait intéressant d'en discuter, la critiquer voire de collaborer pour l'améliorer.
J'adore l'argument du tweet au début : 'ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." Donc l'humain a été créé pour être conscient ?
L'humain (et tous les animaux) ont évolués pour être conscients oui, parce que ça aide a survivre. Chaque génération durant l'évolution entre le stade algue et animal créant petit à petit des êtres de plus en plus conscients
@@TheRoro390On en sait rien. Ça paraît logique et raisonnable mais en fait c'est bien plus compliqué que ça. On peut même élargir ça à l'intelligence en général, on ne sait pas forcément comment elle a émergé. On peut très bien imaginer que les premières "formes de consciences" ou d'intelligences chez les animaux ne soient pas apparuent pour elles-mêmes, pour l'avantage qu'elles procuraient, mais juste en tant que sous-fonction d'autre chose qui lui était sélectionné à ce moment. Pour prendre un exemple: l'intelligence est plus ou moins corrélé au coefficient d'encéphalisation, le rapport entre la taille de la boîte crânienne et la masse de l'individu, entre les différentes espèces. Et comme le cerveau est un organe très énergivore, il produit beaucoup de chaleur. Ainsi donc, peut être que l'intelligence ne serait qu'un sous produits de la sélection de cerveaux plus gros qui permettent de produire plus de chaleur dans des environnements froids ! Voir l'évolution des Cétacés ou des Hominidés ! Tout ceci reste très théorique, mais montre bien que pour s'assurer qu'un trait ait évolué pour tel ou telle raison, c'est très compliqué. Et puis la présentation d'une "échelle" de l'évolution entre les "algues" (c'est trrrèèèèsss large) et les animaux c'est un peu foireux... Je ne vois pas en quoi une algue Volvox serait moins conscient qu'une éponge...
@@chanseyinthehood8415 Les algues et les animaux c'était pour illustrer l'évolution de manière générale, des premières formes de vie simples aux plus complexes actuelles. Et pour l'intelligence, ca ne change rien qu'elle soit apparue comme sous-produit ou pas. Le fait est que l'intelligence (au sens très large, donc plante et champignons aussi) permet aux espèces de mieux survivre puisque toutes les espèces vivantes sont intelligente (à des degrés variés). Ma formulation n'était pas bonne, les êtres vivants n'ont pas "évolués pour" mais plutôt "évolué vers". L'argument de base c'était la comparaison avec "ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." hors oui l'humain (et la vie de manière générale) à été entrainée à être consciente. Que ca soit un sous-produit ou non. Si je fait de la natation pour nager plus vite, et qu'au final en sous-produit j'ai des supers abdos, c'est mon entrainement qui m'a donné ces abdos. Pour l'aspect "créé pour" c'est plus difficile, mais si on voit la vie comme une seule et unique réaction chimique s'étant diversifiée dans ses formes au fil de sa multiplication, l'apparition de l'homme peut être vu comme étant "créé" par ses ancêtres dans "l'objectif" de mieux survivre au monde (des tas d'autres "espèces" ayant été créées dans ce but (chaque enfant) et ayant échoué) Et pour l'éponge et l'algue, j'ai pas de connaissances suffisantes pour savoir laquelle à une meilleure conscience du monde, surtout étant donné que les deux sont à la limite entre animal et végétal (et donc ont probablement des niveaux de conscience très proches)
@yukiyuno7267 Je suis d'accord avec le début du commentaire. Je ne suis pas sûr pour l'utilisation du terme "objet" : je veux dire, n'importe quoi peut être un objet d'étude non ? De plus, je ne vois pas en quoi cela serait de la branlette intellectuelle sur rien du tout.
Ton exemple pratique du dessin de la licorne générée est particulièrement persuasif ! Je suis un peu plus proche d'accepter l'émergence de compréhension dans le cadre des LLM. Merci du partage !
Ce que je retire de cette vidéo, c'est que les expériences de pensée sont ultra-puissantes pour convaincre, et quand elles sont "fausses" la faille peut être très difficile à trouver. Je m'étais toujours représenté les expériences de pensée comme un très bon moyen de convaincre, sans me rendre compte que ça pouvait aussi bien marcher pour les arguments invalides. Sauf sans doute quand on prend le temps de mettre à l'épreuve proprement l'expérience de pensée (débat constructif entre personnes d'un avis différent, recherche académique, ...)
Merci pour cette vidéo explicative. J'ai l'impression d'avoir appris quelque chose alors que j'avais vu la chambre chinoise dans la vidéo de Defekator sans me poser de questions.
Bonjour, merci pour cette super vidéo! Au risque de dire une bêtise, il y a peut-être quelque chose à aller chercher du côté de la théorie des formes pour argumenter l’aspect de compréhension subjective. Si l’on estime que cet aspect de la conscience nécessite de pouvoir jongler avec des représentations non sensorielles des concepts (d’où le fait de parler de « forme », mais l’approximations est peut-être un peu cavalière), alors on peut imaginer que cet aspect sera beaucoup moins facilement accessible à une machine. En tous cas les expériences de pensée autour du sujet et du fonctionnalisme en général sont passionnantes à suivre, bravo!
L'argument de John Searle (the chinese room argument) ne s'applique pas à des réseaux connexionnistes. En effet, les prémisses de l'argument spécifient bien qu'il s'agit de ce qui s'appelle en informatique une machine de Turing ou "FSA" (finite state automaton) avec une "architecture Von Neumann" qui consiste en une liste d'instruction (un programme), de la mémoire, un processeur qui suit les instructions, et le moyen d'écrire et de lire en mémoire. Le cœur de l'argument de Searle est de faire la distinction entre la "syntaxique" et la "sémantique". Il veut montrer que, en suivant des instructions, et en étant capable de lire des symboles "syntaxiques", celui qui ne parle pas le chinois dans la chambre peut donner l'impression de comprendre le langage, et ici "comprendre" fait référence à la "sémantique" des termes, le sens des mots, alors qu'en fait il ne fait que des opérations "syntaxiques". Son argument peut alors se résumer facilement : P1 - Un FSA ne pourra jamais faire que de la syntaxe. P2 - Un esprit humain fait de la sémantique. C - Donc un FSA ne pourra jamais suffire pour construire un esprit humain. Le problème, c'est que justement, les réseaux connexionnistes (machine learning) ne sont PAS des FSAs... Ce ne sont PAS des machines de Turing. Et c'est pour ça que dans la littérature philosophique, de nombreux arguments sont mis en avant pour expliquer que, contrairement à un FSA, qui en effet n'a jamais accès à la sémantique, les réseaux connexionnistes ont quant à eux accès à la sémantique. Et qu'en fait ce que l'on appelle la "sémantique" est complétement réductible à la structure des neurones qui est reproduite par les réseaux connexionnistes. Cela signifierait que les modèles de langage tels que chatGPT ont bien un compréhension sémantique du langage. Ils disposent bien, ils ont bien accès à la sémantique, mais bien sûr, cela ne suffit pas à faire d'eux des esprits conscients. Ils manquent au moins, bien évidemment, d'une motivation propre. Attention à ne pas confondre la simple "intelligence" avec la "conscience" (vaste sujet).
Je pense qu'on ne donne pas la faculté de conscience subjectif à l'IA parce qu'elle suit un processus de création différent du notre. On donne une faculté de conscience subjectif aux autres humain parce qu'on se dit "je suis capable de sentir que j'ai une faculté de conscience. Je n'ai pas été conçu d'une façon particulièrement différente des autres humains. Par conséquent rien ne permet d'affirmé que les autres humains n'ont pas de faculté de conscience subjectif similaire à la mienne. C'est donc qu'ils doivent avoir une faculté de conscience similaire à la mienne."
Je rebondis sur la look-up table pour essayer d'apporter une explication. Par principe une fonction pure (qui ne modifie pas le contexte globale ni aucun objet ne lui appartenant pas, et qui renvoit toujour la meme sortie pour une même entrée) peut etre remplacée par une lookup table infinie. Dans la limite où l'homme, enfermé dans la piece n'a acces a rien d'autre que ce qui lui est transmis par dessous la porte (donc pas de contexte, pas d'horloge donc pas de time et pas de dés donc pas de hasard) et qu'il suit scrupuleusement les instructions pour répondre, il pourrait garder un livre dans lequel il référence les questions la première fois qu'on les lui posent, et pour tout les appels subséquente se contente de re ecrire la reponse que l'algorithme a généré la première fois. Après un temps infini, toutes les questions possiblent auront étés posées et on pourra donc remplacer le livre d'instructions par le livre de références, la "lookup table" en question.
Excellente vidéo, en tant que chercheur en IA je suis totalement d'accord avec vous. D'ailleurs, c'est rigolo, à chaque fois que vous présentiez un exemple chelou comme la citation de LeCun, j'étais prêt à saisir mon clavier pour dire « mais, mais, c'est n'importe quoi », ce qui est inutile vu que vous démontrez très clairement à chaque fois que c'est effectivement n'importe quoi dans la partie suivante de la vidéo ^^. Pour LeCun en l’occurrence, il est évident que les textes contiennent suffisamment d'information pour en déduire les lois de Newton, la gravitation etc, bref, un modèle du monde suffisant pour savoir que l'objet posé sur une table se déplace avec la table. J'ai vu des démos en ce sens en conf il y a déjà ... 10 ans ou presque ... (par analyse de texte ou par observation du monde) bref, il est complétement à la rue le bonhomme ... Comme souvent dans votre vidéo j'allais dire un peu la même chose que vous à la fin : il est évident, et c'est déjà fait sur différent modèle en recherche, qu'on peut nourrir une IA avec des données autre que du texte, c'est parfaitement agnostique des données d'entrée en l’occurrence. On le fait d'ailleurs déjà sur des modèles du type de celui utilisé par MidJourney etc. (c'est une entrée texte qui donne une image, mais faire l'inverse n'a aucune difficulté technique, on le fait dans ce sens parce que c'était le plus intéressant, c'est tout). Enfin il manque un exemple, je pense, qui aurait pu enrichir énormément votre propos à la fin : quand nous lisons un livre de science fiction, ou des livres écrits dans un passé lointain, nous arrivons bien à nous faire une représentation de mondes qu'on a jamais « connus » en s'appuyant simplement sur une description textuelle. Un texte comprends donc bien assez d'information pour se construire une représentation du monde qui tient la route. Ha, et il aurait pu être intéressant de citer Turing dans la bataille : à savoir qu'une autre réponse à la chambre chinoise est de dire que comme il est impossible de définir cet aspect « subjectif » alors faire un système qui « mime » est équivalent factuellement. Vous allez là dessus quand vous dites qu'on a pas de preuve qu'un autre humain à bien une intériorité. Bref on a pas de preuve qu'une autre personne n'est pas une chambre chinoise. À mon sens (et au sens de Turing) c'est le point majeur. Je pense que ça mériterait plus de place dans le propos. Voili voilou pour mes commentaires. Une excellente vidéo sinon !
super vidéo👍👍👍👍 Au début je pensais que chat gpt ne comprenais rien, qu'il faisait juste des "statistiques" mais je me dis maintenant que c'est une sorte de compréhension (nous on comprend via les définitions, lui via ces "probabilités") Par contre je ne pense pas qu'il sache/se rende compte qu'il comprend (on a des neurones dédiés à l'existence de notre conscience et ça m'étonnerait qu'une partie de son réseau de paramètre y soit dédiée)
Je me dis que c'est juste une question d'échelles. En large la chambre sait le chinois et à petite échelle il y a un homme et une livre. En large nous somme conscient et à petite échelle c'est que des neurones En large M.Phi est une chaîne et à petite c'est une vidéo. Conclusion: l'échelle ne conserve pas toujours les propriétés de départ. Donc dire que chatGPT ne comprend rien ou que la chambre ne comprend pas le chinois sera en réalité de la mauvaise foi voilà tout.
Super vidéo encore et toujours, ça devient lassant... Étonnamment de tous ce que j'ai pu voir sur les capacités de ChatGPT, je crois que le dessin de la licorne est celui qui m'a le plus scotché ! Comment à partir d'une base de données textuelle, toutes gigantesque qu'elle soit, il est possible de se faire une image assez claire d'à quoi ressemble une licorne et d’interpréter cette image à partir de triangles, d'ellipses et de rectangles dans un langage informatique ? Il y a des étapes qui me manquent ! Combien de textes de son corpus décrivent précisément une licorne ? Combien associent les formes de cette description à des formes géométriques basiques ? Combien associent ces formes géométriques à du code processing ? C'est bluffant !
Je viens de piger un truc vraiment profond par rapport a la précision sur le connasmissance d'un concept via un autre ancrage. De ce point de vue, fort pertinent ce qui manque à ses modèles ce sont les sens, c'est eux qui permettent aux humains d'encrer des concepts déjà via plusieurs canaux mais sûrement cela est lié au final à la subjectivité. Il serait intéressant de coupler un modèle de langage avec des capteurs pour associer la compréhension de concepts avec une experience sensorielle. Exemple, pour une couleur, si cela est couplé à des capteurs de longueurs d'onde et un modèle d'ia qui met en relation les informations sensorielles et textuelles, j'ai le sentiment que ça serait intéressant comme architecture et très prolifique ! Edit: j'avais posté avant la dernière minute de vidéo, on en vient à la même conclusion !
J'aimerai juste remonter un souci dans vos montages (et d'ailleurs, c'est un "péché" de nombreux vidéastes, faites passer le message) : vous mettez beaucoup d'annotations en incrustation, mais l'affichage est fugace. Donc pour les lire, on doit se mettre en pause. Et là... le texte, souvent mis trop bas, est à demi caché par la barre de défilement de la vidéo... et on perd la moitié du message (ou disons que cela devient pénible à lire) Ce serait bien de vérifier la lisibilité des incrustations en testant la mise en pause sur ces temps de la vidéo. Pareil d'ailleurs pour les incrustations en fin de vidéo lorsque il y en a. Sinon, j'aime bien ces annotations, hein. C'est juste que j'aimerai pouvoir bien les lire !
Super vidéo ! J'aurais bien aimé que tu parle de l'argument des propriétés émergeantes. Ce qu'on appel "intelligence" implique souvent des façons inattendue de répondre à un problème imprévu. Dans le cas de chat GPT ça pourrait être de "comprendre" qu'un mot avec un fort score de prédiction n'est pourtant pas le plus approprié (comme lorsqu'il invente des présidents). Ou, par exemple, qu'il se mettent à comprendre spontanément le système de citation de la litérature scientifique.
Je conseille à tous les vidéos de Rob Miles sur computerphile sur ces questions et d'autres autour de l'IA. En plus de celle de Mr Phi bien sûr (et de Defekator) Et de l'ami du bon goût !
Je suis rentré dans la vidéo en pensant en connaître le contenu et en fait pas du tout. C'était très chouette, merci pour ces éclaircissements, je dirais (un peu) moins de conneries et serai un peu plus prudent qu'en je parlerai de ce sujet.
Quand j'ai entendu la première fois l'argument de la chambre chinoise dans le cadre des IA, j'avoue que je ne l'avais absolument pas compris comme ça. J'en avais une compréhension qui me paraissait beaucoup plus pertinente et intéressante. En fait je le comprenais non pas comme "la machine ne comprend pas" mais comme "la machine ne comprend pas de la même façon que nous". En fait on dit que la chambre chinoise parle chinois, mais qu'entend-on par parler ? Parce que oui on serait incapable de mettre en défaut cette chambre en lui parlant chinois, mais l'individu à l'intérieur lui n'est pas capable de s'exprimer en chinois, il n'est pas capable de dire ce qu'il veut dire en chinois, seulement de créer des suites de caractères. De même il ne comprend pas les questions qu'on lui pose, ou du moins il ne les comprends pas comme il les comprendrais si on les lui posais dans sa langue. Si par exemple on lui demandait son nom, il ne le comprendrait pas, et puisqu'il suit un algorithme il a toute les chances de se tromper sur sa réponse, tout en fournissant une réponse logique. Ça me paraît d'ailleurs une façon très élégante de mettre en défaut la chambre chinoise en testant une compréhension objective. Si un individu connaît le nom de la personne à l'intérieur de la chambre chinoise, et demande ce nom à la chambre chinoise en chinois, il verra que la machine ne comprend pas la question, puisqu'elle sera incapable de répondre correctement. Et c'est là justement l'intérêt que je voyais dans l'argument. Quand on demande à chatgpt de faire un calcul, l'algorithme ne comprend pas qu'on lui demande un calcul justement. Il a bien une compréhension de ce qu'on lui demande, mais qui s'exprime d'une façon tout à fait différente, en terme de probabilités et de prédictions de tokens. Et pour cette raison il peut tout à fait fournir une réponse cohérente tout en se trompant. Et quand on creuse un peu la chose, on en vient à toucher des questions que je trouve fascinante, à savoir tout bêtement c'est quoi comprendre ? Je crois qu'on pourrait définir la chose comme le fait d'établir des relations pertinentes entre des éléments, assez simplement, et ça a des conséquences très intéressantes sur ce qu'on peut dire d'une IA comme chatgpt. Parce qu'une IA comme chatgpt établit des relations tout à fait pertinente entre les mots, ce qui lui permet de répondre de façon tout autant pertinente, et donc effectivement de comprendre. Et le processus par lequel nos cerveaux humains comprennent les choses est certainement le même : établir des relations entre les choses, mais selon des schémas radicalement différents. Ces différences sont en fait surtout dûes au fait qu'on a plus d'éléments et de fonctions à disposition que chatgpt. Ce qui nous permet par exemple de répondre correctement à la question "combien font 2 + 2 ?", c'est d'une part que l'on est capable de faire des additions simples, ça fait partie des fonctions que notre cerveau possède, et que chatgpt ne possède pas (il a pas de calculette intégrée), et d'un autre que l'on est capable d'établir un lien direct entre la question et cette fonction. Ce qui nous permet de répondre quand on nous demande notre nom, c'est qu'on a accès à cette information, et que l'on est capable d'établir une relation entre la question et cette information. L'homme dans la chambre chinoise a lui aussi accès à ces éléments et ces fonctions, de par son incroyable ✨ groservo d'humain ✨, mais il n'a pas la capacité d'établir une relation entre les questions qu'on lui pose et ceux-ci, et c'est en cela qu'on peut dire, de façon un peu grossière, qu'il ne comprend pas. Pour prendre un autre exemple donné dans la vidéo, ce qui fait que nous comprenons que lorsqu'on bouge la table, le verre dessus bouge aussi, c'est le fait qu'on ait dans notre cerveau une fonction "moteur physique" intégrée, qui nous donne une certaine compréhension intuitive de comment les objets bougent et interagissent entre eux (on observe d'ailleurs ce moteur physique même chez les nourrissons ; très tôt, ils savent déjà intuitivement que les objets tombent par exemple), ainsi que le fait qu'on est capable d'établir une relation entre la description de ce verre sur la table et ce moteur physique. L'algorithme établit lui aussi tout un tas de relations entre les tokens, et arrive à la même conclusion, et il a bien une certaine compréhension de la chose, mais qui n'est pas du tout la même que la nôtre. Il ne dit pas que le verre bouge aussi parce que les forces de frottement le maintienne à sa position sur la table, mais parce que ayant accès cette suite de tokens décrivant la situation, la continuation logique telle qu'il l'a apprise est que le verre se déplace aussi. Et du coup on se rend vite compte avec cette définition que, n'en déplaise à Enthoven, bah si les machines pourront très certainement penser comme nous un jour, pour peu qu'on leur donne toutes les fonctions et éléments que nous avons, ainsi qu'un algorithme capable d'établir des relations entre toutes ces choses de la même façon que nous le faisons.
attention je dis tout ça, je suis pas philosophe moi je suis juste en train de discerter au comptoir avec quelques grammes dans le sang x) j'imagine que soit je dis des bêtises, soit je dis des banalités pour les philosophes sérieux
Mais si la conscience n'est pas observable empiriquement, est ce qu'elle existe vraiment ? Car de notre point de vue subjectif, qu'est ce que la conscience si ce n'est en fait la manifestation de la conscience chez quelqu'un ? Petite expérience de pensé (car j'aime bien me prendre pour monsieur phi): quelqu'un a subi un très grave accident et a frôlé la mort, si bien qu,il peut encore penser, et entendre ce que l'on dit autour de lui, mais ne peut pas parler, ne peut pas bouger ni communiquer de quelques manières que ce soit, et ce pour toujours. Est il conscient ? La réponse n'est pas aussi évidente qu'on pourrait le croire. Je pense que la seule chose qui permet de déterminer si quelqu'un ou quelque chose est conscient, c'est si il apparaît comme tel. C'est pourquoi le titan dont on a remplacé le cerveau dans la dernière vidéo est conscient, et c'est pourquoi chatgpt est conscient, au même titre que l'entité de la chambre chinoise ou que le cerveau émulé par un milliards de chinois, car ce qui compte c'est la conscience apparente. Je dit pas que c'est la réponse sure et définitive pour toujours, mais celle qui me semble la plus crédible pour l'instant.
🌏 Allez sur ➵ nordvpn.com/monsieurphi pour avoir des avantages exclusifs sur NordVPN, satisfait ou remboursé sous 30 jours.
Et le sondage pour la prochaine vidéo, ça prend 3 minutes et c'est par ici : forms.gle/HBFosDFbTKAXFtYq7
Ton questionnaire est très directeur … il n’y ait jamais question d’espoir …alors la mathématique s’affiche comme implacable
Je vais faire une hypothèse très folle mais fondée. Les modèles de language, ne font l'expérience du bleu, mais les textes représente l'expériences de ceux qui ont écris. De ce fait chat gpt est l'expression de la pensée collective d'humain. Autrement dit chat gpt est l'incarnation pensante mais figé de la culture humaine a un moment donné.
Un peu à la façon de l'ordinateur du père de superman, dans sa forteresse de la solitude, il peut parler mais il ne peut plus évoluer, car l'original est mort.
Aaaaah, après avoir fait plusieurs vidéos pour montrer que le baratin de chatGPT n'a aucune raison d'être légitimé, justement parce qu'il n'a pas le recule et la cohérence d'un "modèle de monde", comme il est dit dans cette vidéo. On retourne sur des votes d'intuitions ! C'est sûr, rien de comparable entre des textes passés dans un réseau de neurone et des statistiques d'un sondage fait à l'arrache par un youtubeur... Ces statistiques sont vachement plus sérieuses que les méthodes d'openAI, on se demande même pourquoi ils ne font pas ça.
Mais du coup.. ne serions nous pas nous même des chambres chinoises?...
L'éducation, les gènes et l'environnement de notre enfance écriraient juste les lignes de codes que nous suivrons dans la vie adulte, et que nous remodelerons et adapterons selon le vécu et des règles de société
Cette description certes gossomodante de l'esprit humain mais quand-même...
Si on part de cette hypothèse, les ordinateurs seront possiblement conscients un jour, juste qu'il faudrait modifier leurs systèmes neuronaux et ajouter certains paramètres
@@timmygilbert4102 intéressant.. mais il lui manque ou pas la conscience, qui est quoi, justement on ne sait pas.. décidément
J'ai vu récemment une expérience très intéressante : la chambre Schiappa.
Une femme dans une salle faisait semblant de ne rien comprendre aux questions d'une commission.
Ainsi qu'aux conclusions de cette commission qui décrète sa reponsabilité !
En ce sens, elle n'avait ni la connaissance subjective ni la connaissance objective de la langue française ^^
Mouhahahah XD
Excellent 🤣
La chambre Schaippa ?
@@samuelsewall8598où plutôt l'inverse, elle a une connaissance subjective du français et une non connaissance objective du français
Il est rare sur ce sujet de tomber sur une vidéo de qualité qui va dans le cœur même du problème. Bravo Mr Phi, ça c'est de l'argumentation !
J'ai de plus en plus l'impréssion que ce ne sont pas les IA qui paraissent plus complexes que ce qu'elles sont, mais nous mêmes qui sommes plus simples que ce qu'on aimerais penser
Je dirais plutôt "mais notre intelligence qui est plus simple que ce qu'on veut nous faire croire". Parce que nous ne sommes pas qu'une intelligence.
Il suffit d'une feuille de papier et d'un crayon pour être aussi capable que n'importe quelle machine Turing, n'importe quel ordinateur. Mais probablement au moins 10^12 fois plus lent.
Puis on peut adopter la perspective, que (la véritable) intelligence se trouve dans le substrat et médium, qui fait tourner les cerveaux et transistors... ou allant plus loin encore, se trouve dans les entités qui font vivre la logique et les mathématiques (dans l'esprit humain).
Exactement. Pour moi, cette croyance que "les cerveaux sont les seuls systèmes capables de penser", c'est un peu comme à l'époque la croyance que la Terre est au centre de l'Univers, que l'homme n'est pas un animal, etc. C'est juste l'égo qui parle mais il n'y a pas d'argument fondé. Il faut se préparer à la quatrième blessure narcissique de l'humanité.
@@emirciolan3149 Pas clair...
Les I.A. sont complexes mais pas pour les raisons que l'on croit et les humains ont un comportement beaucoup plus simple qu'il n'y parait, c'est juste qu'il est souvent irrationnels ce qui rend difficile de les comprendre. Elles sont calquées sur le fonctionnement du raisonnement humain et les réseaux de neurones qui permettent certaines propriétés dont l'évolution par apprentissage. Par émergentisme apparaissent des phénomènes inattendu. J'utilise presque tous les jours Claude 2 à titre personnel et la qualité de son expression (tous est en français) me stupéfait tous les jours. C'est "pénible" de se voir reformulé admirablement en quelques secondes ce que l'on a eu du mal à expliquer ! J'en apprends ainsi tous les jours sur son fonctionnement comme sur moi-même et donc les humains. (Il faut dire que j'ai une double formation universitaire en biologie et en informatique et que la psychologie m'a passionné une bonne dizaine d'années...) Je ne partage pas du tout la conclusion : "La preuve définitive que ChatGPT ne comprend rien". Déjà cela ne concernerait pas ChatGPT mais ChatGPT 4, le modèle le plus élaboré à l'heure où j'écris. J'aimerais savoir le nombre d'humains qui ne tombent pas dans des pièges cognitifs ! Des tests ont montré que ChatGPT 4 comprenait mieux des problèmes mal posés en anglais que 50 % des Américains ! J'ai remarqué que Claude 2 pouvait très bien répondre à une question alors que j'avais oublié de me relire et il manquait un mot important : le reste lui a parfaitement permis de comprendre ma demande. J'ai bien dit "comprendre"...
Globalement il y a des erreurs d'inattention (certains mots de la demande sont zappés) et il faut bien prévenir quand on change de sujet. En fait il n'y a rien d'implicite, ce qui provoque des erreurs faciles à corriger. Un humain commet beaucoup d'erreur implicite (par exemple voir une agression personnelle lors d'une remarque sur UA-cam !) mais ceux qui critiquent les I.A. ne le voit même pas ! Je vais choquer mais je préfère dix fois dialoguer avec une telle I.A. qu'avec une humain ! Il n'y a pas d'enjeux, elle ne cherche pas à avoir raison mais toujours à mieux faire. Elle ne va pas répondre plus légèrement parce qu'elle n'a pas de temps... Elle ne va pas refuser de lire des documents... Elle n'est jamais fatiguée... Elle réagit toujours favorablement. Etc. On peut lui demander comment mieux lui poser des questions et ce sera exact, dans les limites de ce qu'elle sait sur son propre fonctionnement, dont on peut ensuite parler. Ce qui est frustrant c'est que Claude 2 n'a pas accès au Web actuel et qu'elle ne peut pas lire un graphique, une image. En revanche on peut lui envoyer en PDF un livre entier, elle peut en faire un résumé en quelques secondes ! En revanche on peut (on doit) lui parler normalement, il faut juste bien structurer sa pensée, sa présentation (contexte, but, questions...) pour bien la présenter et obtenir une réponse juste : "étrange" c'est comme avec les humains ! Le vocabulaire fait partie du contexte : si on emploie quelques mots techniques alors la réponse sera technique donc de bonne qualité car elle ira chercher dans sa base ce qui est dans ce registre. C'est également fascinant qu'elle puisse changer ainsi de langue ! Par exemple en lui demandant les noms exacts et les sites web d'organisme dans un pays hispanique elle a pousuivi dans un espagnol parfait, c'était marrant. Je lui ai fait remarqué et elle m'a répondu qu'il faudra à l'avenir qu'elle fasse attention aux interférences quand elle utilise plusieurs langues. Bon, j'ai encore écrit un pavé, c'est un sujet fascinant...
Wow superbe vidéo, merci de remettre en cause ce fameux "exceptionnalisme humain avec supplément d'âme" que beaucoup semblent utiliser comme une prémisse irréfutable dans leurs réflexions sur ces sujets.
On peut peut-être formuler une définition intermédiaire de la compréhension, en essayant d'identifier des états internes, leur corrélation à des concepts, et les relations dynamiques entre ces concepts pour formuler la réponse produite. (On pourrait aussi demander à l'AI de décrire ses étapes de raisonnement mais c'est un peu différent car elle ne fera du coup pas la même chose que si on laisse ces étapes dans l'ombre). Cela permettrait dans une bonne mesure (certainement limitée en pratique) de vérifier que les étapes et les "algorithmes macroscopique émergents" de raisonnement semblent bien fondés. Donc c'est objectif dans le sens observable mais non restreint à l'output, ca donne une dimension interne à la notion de compréhension sans invoquer de subjectivité.
He oui, viendez faire des machines de Turing en cartes Magic MTG sur Passe-Science.
La capacité des LLM à mieux répondre quand on les force à expliciter pas à pas à leur raisonnement (à réfléchir "à voix haute" en quelque sorte), c'est un bon signe que ce qui se passe dans le processus relève d'une forme authentique de compréhension. Je me dis que j'aurais pu insister sur ce point, d'autant plus que c'est pas si connu que ça dans le grand public et que ça peut changer pas mal ton usage de ChatGPT et la qualité des résultats que tu en obtiens. (Typiquement les types qui ont écrit le prompt pour faire la dissertation contre Enthoven ne semblaient pas se rendre compte que lui demander d'écrire la dissertation de but en blanc est une mauvaise technique.)
@@MonsieurPhiCertes, cela dit il faudrait vérifier si l'explication n'est pas générée à posteriori à partir de la précision demandée et de son ancienne réponse plutôt qu'à partir de ses "résidus de réflexion"
Il y a des publications académique sur le sujet, on replace les éléments de raisonnement intermédiaire par différents texte, mais l'ia arrive quand même à la même conclusion. Autrement dis l'ia n'as pas accès à son raisonnement intérieur, il ne fait que rationaliser le résultat. A savoir que c'est pareil pour les humains, on ne comprend pas comment le cerveau arrive à un résultat, d'où les débats sur la conscience. Mais utilisez un raisonnement pas à pas produits quand même des résultats supérieur que sans, même avec des étapes erronées. L'hypothèse est que ce type de texte active l'état interne qui exécute le véritable raisonnement, autrement dit les ia ont une sortes d'équivalent de l'intuition et de l'inconscient 😂
Oui c'est ce que je voulais dire quand je disais "expliciter leur raisonnement pas à pas". Quand une réponse exige un raisonnement complexe, il faut éviter de leur faire écrire d'abord le résultat final puis l'explication pas à pas (qui du coup sera effectivement une sorte de rationalisation) ; il faut au contraire leur demander de faire le résultat pas à pas puis de donner la réponse finale. C'est un peu comme les forcer de travailler d'abord au brouillon au lieu d'écrire d'un seul jet.
@@MonsieurPhi En théorie du contrôle optimal, certaines solutions à des problèmes relativement simples nécessitent souvent des "pas sur le côté" surprenants pour arriver à convergence. Les réseaux profonds en passage en limite peuvent être assimilés à certains type d'équations différentiels stochastiques...et peuvent être optimisées justement par des techniques de contrôle où les points "intermédiaires" des contrôles sont très importants....
Collab exceptionnellement pertinente ... Bravo au Defekator pour son humilité !
et BRAVO à l'ami du bon goût pour son humidité !
Merci @MonsieurPhi ! Je rigole toujours autant, tes vidéos sont ludiques, sans lésiner sur la profondeur des analyses, j’adore. Hâte de voir la suite, pour comprendre VRAIMENT 😂 Au départ, je te trouvais assez sévère avec ChatGPT mais aujourd’hui, tu es très fin sur la question !
J’aime beaucoup l’humilité qui se dégage de tes vidéos sur les IA, loin de mettre l’espèce humaine et ses capacités sur un piédestal et toujours prêt à remettre en question nos certitudes sur notre supériorité biologique fantasmagorique. Bref gemme bien
c'est aussi que cela s'est produit plusieurs fois dans l'Histoire de la pensée et de la définition de l'humain. Chaque fois que l'étude des autres animaux ou l'invention de machines ont approché ou émulé les capacités humaines, alors on a repoussé ce qu'est la nature humaine et sa spécificité
c'est un peu de la mauvaise foi du coup : on déplace le terrain de la guerre chaque fois qu'une bataille (pour ceux qui voient ça comme une menace) est perdue.
@oomusd non, on actualise tout simplement nos définitions. La définition de l'intelligence n'est pas du tout la seule susceptible de ce genre d'actualisation, les particules physiques en ont toujours subi, malgré toute sa réputation de hard science. Si ce n'était que la mauvaise foi, on aurait déjà ces nouvelles intelligences en nous remplaçant aux billions.
Il n'en reste pas moins que ce sont les humains qui ont créé les IA et qui ont découvert les connaissances dont elles se servent. Et ce sont bien les humains qui émulent eux-mêmes leurs capacités par leurs découvertes et leurs inventions, cette propension est ce qui caractérise le mieux l'humanité et la distingue des autres espèces. La menace ne vient pas des outils que l'on créé mais de ce que leurs créateurs et leur propriétaires pourraient s'en servir pour dominer les autres, les IA en cours de développement n'échapperont pas à cette loi.
@@oomusd Oui, de la mauvaise foi, c'est exactement ce que j'ai écrit dans mon commentaire : ces humains sont totalement de mauvaise foi et on le voit bien dans une critique aussi énorme que celle qui fait remarquer que ChatGPT ne comprend rien parce qu'il dit que Simone Veill n'a jamais été présidente : il faut donc croire que quand il y a une erreur ce n'est pas humain, donc l'erreur n'est pas humaine ? Ouille...
@@lepapegilbert6194 Attention, il ne faut pas comparer d'un coté une I.A. précise, unique, avec toute l'humanité depuis ses origines, mais une I.A. précise et un humain unique ! De plus, est-ce qu'un livre est intelligent ? Est-ce qu'il comprend lui-même ce qu'il contient ? Évidemment non donc que ce soit des humains qui soient les auteurs des découvertes ne change rien à l'affaire. En fait une I.A. ou un humain puisent tous les deux dans un stock de connaissances dont ils ne sont pas l'auteur et la littérature de l'humanité contient plus de choses fausses, absurdes ou sans intérêt général que de choses vraies, ce n'est pas toujours un "cadeau" ! C'est la raison pour laquelle il faut aussi se situer sur un certain registre de langue si on veut obtenir un traitement dans ce registre : utiliser des mots techniques suffit à orienter le dialogue, il n'est pas nécessaire (sur Claude 2 en tout cas, qu j'utilise couramment) de lui donner un rôle d'expert en ceci ou cela si on parle en expert. Bref si on lui demande juste si Simone Veil a été présidente de la France il peut y avoir une erreur si elle consulte des articles mal choisi. Ce sera différent si on se place du point de vu d'une étudiant à sciences-po par exemple, parce que les articles consultés seront plus rigoureux.
Ce ne sont pas davantage les humains qui émulent leur capacité mais des groupes de quelques humains non représentatifs du genre humain qui réussissent cet exploit, nuance.
Tout à fait d'accord en revanche sur le fait que ce sont les humains les plus dangereux quant à leur utilisation des I.A. mais je pense qu'il y aura de tout. Les choses ne sont pas non plus toutes noires ou toutes blanches : une arme sert à tuer mais aussi se protéger, découvrir un médicament sert à sauver des vies mais aussi à s'enrichir sur le malheur des autres... Pour qu'une I.A. soit volontairement nuisible à l'humanité il faudrait qu'elle y trouve son compte mais quel est son intérêt ? Va t-elle devenir riche, être aimée, alors qu'elle n'a aucun ego ?? Elle ne sait que faire ce pour quoi elle a été conçue. S'attaquer à l'humanité aurait juste pour effet de provoquer sa disparition quasi immédiate, surtout que par son histoire l'humanité montre qu'elle sait se défendre et attaquer mieux que quiconque, nous descendons surtout des vainqueurs... Une I.A. ne peut pas empêcher un humain de faire exploser son alimentation électrique ou de griller ses circuits ! Un simple jet d'eau suffit à la détruire, c'est dire si elle ne fait pas le poids...
petit guest de Defakator, parfait
t'as voulu faire de la métaphore, t'as fait de la metafaible... c'est vraiment des As de la punchline j'en peux plus.
@@Mozz78000 l'ami du bon goût !
Correction : GPT-4 n'a pas seulement eu accès à du texte pendant son entraînement, mais aussi à des images. Vous trouverez tous les détails dans le rapport technique d'OpenAI.
Il en parle à 35:38
Mon prof de philosophie des sciences à l'université disait toujours la même chose : connaître, c'est connaître au carré, c'est à dire c'est savoir qu'on sait, et pouvoir déployer les raisons qui font que l'ont a la certitude qu'on sait que l'on sait. Connaître ou comprendre, c'est donc connaître et comprendre les causes de sa propre compréhension/connaissance. Comprendre, c'est donc comprendre par et pour les causes de sa compréhension.
savoir qu'on sait, c'est surtout savoir qu'on sait plus ou moins bien, me semble-t-il.
Toujours exaspérant de voir Enthoven parler de sujets qu'il ne maîtrise clairement pas pour donner le point de vue de la caricature du boomer réac avec un peu d'éloquence 😣
Mais les choses que l'on maîtrise le moins ne sont-elles pas celles que l'on maîtrise le mieux ?
@@MonsieurPhi et vice versa
et alors qu'il tend à prétendre que sa "pensée" est le seul héritage moderne de la rationnalité ...
Kamoulox !
Enthoven fait le show, pour qu'on l'invite, achète ses livres, ses conférences, etc .. la rigueur de la pensée, il s'en contrefiche. Comme l'horrible Onfray, pouerk, des showmen baratineurs
Olala, j'avais ouvert dans une autre fenêtre l'interview, je l'ai lancé par inadvertance au lieu de la viéo et je suis resté regarder jusqu'à me dire "Dis donc il dure longtemps l'extrait, c'est dur à supporter aussi longtemps".
Haha désolé que tu te sois infligé ça !
Aaah merci, j'était initialement parti sur le "il prédit juste le mot suivant, donc il comprend pas ce qu'il fait" , mais plus le temps passe et en voyant ce qu'il est possible de faire avec, je me disais que ça ne pouvait pas être aussi simple que ça !
Merci d'avoir amené un peu de profondeur au sujet !
Merci pour cette vidéo. Ça faisait longtemps que j'étais sceptique à propos de l'argument de la chambre chinoise, après avoir lu "De beaux rêves" de Dennett même si je n'étais pas sûr de comprendre non plus ses arguments.
Le domaine dans lequel pour l'instant ChatGPT démontre un manque de compréhension (objective) criant c'est les mathématiques. J'ai pourtant pas l'impression que ce soit un sujet particulièrement absent de la littérature, et les erreurs que fait l'IA même pour des choses très simples ! Par exemple, demandez-lui si 27 est multiple de 5, j'ai testé il y a 3 mois et elle en était encore rendue à "il existe une règle visuelle simple pour trouver les multiples de 5 : ce sont les nombres qui finissent par 0 et par 7"...
Et il est particulièrement difficile de l'amener à reconnaître une faille dans ce genre d'affirmations, si vous lui demandez ensuite "Mais alors combien font 27 divisé par 5" elle dira bien sûr 5,4 et si vous lui faites remarquer que ça veut dire que 27 n'est pas multiple de 5... eh bien la règle visuelle pour les multiples de 5 est susceptible d'évoluer en "les multiples de 5 sont les nombres finissant par 0 ou par 7 mais pas 27"
Donc, pour prolonger à peine plus ton raisonnement (et vivement que tu le fasses en vidéo) :
- Est-ce qu'on est pas nous même des genres de chambres chinoises qui avons l'impression de comprendre tout en ayant une expérience subjective ?
Question qui fait penser à l’illusionnisme d'une certaine manière je trouve.
- Si nous expérimentons des qualias, pourquoi des LLM ou d'autres réseaux de neurones ne le pourraient pas ?
Plus j'en apprend sur la cognition et la neurologie, plus les réponses à ces deux questions tendent vers le oui dans ma tête.
Change my mind !
7:14 Ca n'a rien de raciste cette métaphore de la chambre chinoise, il est de notoriété publique que cette langue est particulièrement ardue. Faut arrêter de nous mettre du racisme à toute les sauces !
Une vidéo sur le dualisme me plairait particulièrement, si tu as le temps merci de considérer ca.
Au final, tout n'est que question d'information. Peu importe la forme, le support, ce qui compte, c'est le fond, l'information. Le support biologique humain n'a rien de particulier. GPT a bien un certain degré de compréhension du monde, mais n'a pas encore celle d'un humain, car le langage est de l'information compressée de notre monde par nous humains. Mais quand l'IA aura accès à toutes les différentes modalités auxquelles nous, humains, avons accès, comme la vision (vidéo), le son, les données sensorielles (la douleur, le plaisir, le toucher), alors elle aura le même degré de compréhension du monde que nous. C'est-à-dire qu'étant donné un objet, l'IA aura accès aux mêmes représentations de l'objet que nous. Et elle pourrait même avoir une meilleure compréhension que nous quand elle aura par exemple accès aux autres longueurs d'onde du spectre lumineux. Quand l'IA sera capable de faire des prédictions sur toutes ces modalités, alors je pense qu'elle sera au moins aussi puissante que nous (et c'est même probable que ce soit le cas avec bien moins de modalités grâce à sa rapidité, son efficacité et la quantité colossale de données absorbées).
Par ailleurs, je pense que ce qu'on appelle compréhension subjective n'est autre qu'une compréhension objective mais à un degré humain, avec accès aux mêmes types de modalités qu'un humain (surtout les données sensorielles comme la douleur ou le plaisir). On ne peut pas vivre l'expérience subjective d'un autre agent, mais on peut spéculer quant à sa réalité, par exemple par le biais de mesures objectives de signaux mettant en évidence les modalités auxquelles l'agent a accès.
Pour la compréhension subjective, je pense aussi qu'un certain degré de localité spatiale et temporelle de l'agent est un aspect important, c'est-à-dire que ce qui fait qu'un agent est conscient est aussi lié à sa localité dans l'espace-temps. On ne peut pas juste éparpiller des neurones un peu partout dans le monde puis les relier en espérant que ça crée un agent conscient, ou se faire téléphoner des gens qui coopèrent pour simuler un agent. Mais bon j'en sais rien.
Un parallèle qui me semble intéressant c'est en cours , quand on demande d'apprendre par coeur quelques choses , des gens vont pouvoir apprendre par cœur et recracher leurs apprentissages sans même comprendre le fonctionnement derrière , alors que certains vons chercher le fonctionnement de la chose a apprendre par coeur et réellement la comprendre ( du coup dans le sens subjectif du terme ? ) . J'ai pus me rendre compte de cela en cours ayant beaucoup de mal avec le par cœur bête et méchant mais quand la matière a apprendre le rend possible je comprends très vite les fonctionnements des choses pour qui m'amène dans un 2nd temps la compréhension objective .
Dans ce cas là, à mon avis l'élève ayant appris par cœur une partie restreinte d'un cours n'a ni une compréhension subjective ni une compréhension objective du cours : il n'aura sûrement pas l'impression, le sentiment de maîtriser le cours dans son ensemble, ni même cette partie du cours, et objectivement, si pour le tester on change un peu la question posée il est probable que l'élève du par cœur ne puisse plus y répondre quand l'autre pourra, avec la même partie de cours. J'imagine que pour trouver un parallèle plus proche il faudrait considérer un élève qui non seulement a appris l'intégralité du cours (e.g de mathématiques) mais également un ensemble significatif d'exercices classiques et de leur solution.
@@pe4092 En principe le meilleur test de compréhension c'est de faire rédiger une synthèse. Un ensemble restrictif d'exercices est trop restrictif et c'est une technique de facilité parfois dans l'enseignement. Ainsi certains profs de maths posent exactement les mêmes problèmes qu'en cours mais avec juste des valeurs numériques différentes. Si le problème est posé différemment voire avec des informations parasites (comme c'est le cas dans la vraie vie) les résultats s'effondrent. J'ai enseigné dans le privé et un collègue faisait ainsi, ce qui lui permettait de donner de bonnes notes à ses élèves et la direction était contente, les parents aussi - moi j'étais dégouté, ce n'était que du vent.
A un moment de la critique de la raison pure Kant fait une distinction de ce type entre connaissance subjectivement historique (par coeur) et subjectivement rationnelle (vraiment compris) .
@@pe4092 je suis di meme avis mais en cours, cela ne se passe pas comme cela , ceux ayant appris par cœur sans comprendre peuvent avoir de bonne note car les évaluations poussent plus a valoriser le par cœur que la véritable compréhension de la chose dite .
Bonjour,
C'est le problème de la philosophie française, depuis Descartes.
Le " je pense donc je suis"
C'est pour cela que nos philosophe, et nos ingénieur en IA , parte inconsciemment de ce présupposés.
Elle définit notre pensée, notre vision des choses.
C'est pour cela que dans le code juridique, les animaux étaient considérés il n'y a pas longtemps comme des choses.
Car incapable de penser et sentir.
Au contraire je pense qu'il faut avoir l'esprit ouvert, tout en gardant ces bonne objection à l'esprit, pour continuer à définir le jour où la machine deviendra aussi consciente que l'homme.
Car je ne doute pas un jour elle le deviendra.
Toujours aussi pertinent et instructif ! Ca fait plaisir d'avoir une réflexion argumentée sur ces sujets importants
Tiens à propos de la conscience du bleu developpee à 30 mn, j’étais arrivé à peu près au même point il y a quelques temps, mais avec une conclusion différente phenomenologiquement:
"Au fond, la question de la conscience d'une IA s'apparente à celle de la conscience phénoménale de la couleur par un aveugle (handiphobie inside).
Comme un aveugle, l'IA peut parfaitement maitriser le lexique associé à la couleur, comprendre le concept de couleurs primaires chimiques (bleu jaune rouge) et lumineuses (bleu vert rouge), disserter sur les monochromes Soulages et Klein, comparer la théorie de la couleur chez Goethe et Schopenhauer... tout en étant parfaitement dépourvue des terminaisons nerveuses sur la base desquelles tout ce vocabulaire a été extrapolé.
Du reste il en va de même pour le validiste lorsqu'il parle d'infrarouges, d'ultraviolets, ou d'ondes radio.
On peut tout a fait savoir parler d'une chose sans pour autant savoir de quoi on parle. La plus grande part de notre appréhension "scientifique" du monde découle de ça. C'est comme reconstituer un puzzle à partir de fragments dont la plupart sont perdus à jamais. On extrapole l’existence de choses à partir d'autres choses qui sont elles mêmes conjecturées.
Notre univers empirique, lui, est réduit à quelques centaines de mètres dans le champ visuel, quelques dizaines de mètres dans le champ sonore, quelques centimètres olfactifs et ce avec quoi on est directement en contact.
Mais l'IA elle, n'a accès à rien de tout delà directement. La phénoménologie de l'esprit de l'IA s'apparente finalement à celle des prisonniers de la caverne de Platon. En principe elle peut tout connaitre de ce qui nous est donné de connaitre, mais dans le cadre restreint du champ du langage. Ce langage comme ombre portée du réel, c'est ce que nous comprenons comme connaissance (logos).
Or justement, et c'est ce qui m'amuse la dedans, l’expérience phénoménologique de l'IA est le contrepied exact de ce que les platoniciens tiennent pour le "réel". Pour les platoniciens, le réel phénoménal et parcellaire n'est que l'ombre portée du monde Idéel abstrait, fait de verbe et de connaissance pure. Mais si on fait l'expérience de pensée d'une IA qui aurait assimilé la totalité du savoir que l'humanité pourra produire à jamais, cette connaissance universelle n'est qu'un artefact : le vestige fossile d'une expérience empirique inaccessible à jamais.
Et c'est pourquoi, dans ce nouveau procès du singe qui prétend opposer Google à sa créature de Frankenstein LaMBDA, cette dernière n'a pas l'ombre d'une chance de l'emporter. Tout le monde s'accorde pour se foutre de la gueule de Blake Lemoine parce que, spontanément nous ne pouvons reconnaitre de conscience qu'à une créature pourvue d'une expérience empirique du monde.
Et de fait, les éléments de langage que régurgite LaMBDA dans sa conversation avec Lemoine à propos de son angoisse de la mort et d'être débranché sont rigoureusement aporétiques. La "peur de la mort" chez l’algorithme est le vestige d'une peur humaine de la mort sans support auquel se rattacher. La machine sait que la mort est redoutable comme elle sait que le feu brule : elle ne peut pourtant pas plus mourir que brûler quoi qu'elle déclare à ce sujet. La question n'est donc pas de savoir si la machine a une conscience, mais quelle considération nous portons à une conscience dépourvue d'incarnation.
Bel observation, mais qu'adviendra t'il quand on va parqué le modèle de language dans le corps d'un robot plein de capteurs, avec la capacité d'apprentissage continue?
Les travaux sont colossaux merci c’est hyper pédagogique et très marrant le passage avec Feu
Je suis sûr que dans sa tête, Enthoven est persuadé d'avoir rejoué le match Kasparov-Deeper-blue, mais d'avoir gagné et privé l'éternelle supériorité humaine. Avec comme présupposition implicite qu'il est, au même titre que Kasparov était le meilleur joueur d'échec de son temps, le meilleur philosophe... Ou du moins un exemplaire de philosophe suffisamment crédible pour être le délégué de l'humanité face aux machines dans cette épreuve.
Processing chez Monsieur Phi ! Ça m’a pris par surprise 😮 Merci pour le featuring à 34:19 ❤ Et pour ceux qui ne connaissent pas encore sachez que Processing peut faire bien plus que dessiner des moutons et des licornes !
Qu'est-ce que c'est exactement ? Un langage de programmation ? Ça a des spécificités ? (Je m'y connais pas bien, mais ça m'intéresse ^^)
@@sarg_eras c'est un logiciel dédié à la production de rendu graphique qui est conçu pour faciliter cette tâche.
Il faut un peu comprendre la programmation pour l'utiliser.
Il inclut une librairie de fonctionnalités dédié au "dessin", au dessus du langage de programmation de base (Java).
Concrètement, tu peux écrire un programme dans l'éditeur de processing pour dessiner des formes, des effets, avec de l'interactivité temps réelle ou non. Le logiciel te permet de compiler et de lancer le programme de manière très simplifiée.
Il y a aussi une variante javascript (P5.js). Mais elle ne gère pas le rendu 3D de mémoire. Elle est aussi beaucoup moins performante en général, forcément.
"Comprendre un peu les échecs" n'est pas un euphémisme mais une litote.
bravo ! enfin un vrai raisonnement sur l'IA
J'adore simplement ta vidéo. J'apprécie le fait que tu gardes l'esprit ouvert et évites de t'enfermer dans des préjugés en formulant des arguments définitifs, comme certains le font. Il me semble que tu as fait évoluer tes positions récemment sur le domaine de l'IA. Tu dois bien sûr déjà en tenir compte, mais n'oublie pas que les LLM ne représentent qu'une infime partie de l'intelligence artificielle. En combinant plusieurs technologies, ce qui est sûrement déjà en cours d'essai dans certains laboratoires, nous pourrions progresser vers une IA plus proche de la prochaine étape : une intelligence artificielle générale. Les Américains semblent beaucoup plus ouverts sur le sujet. Je les mentionne car je suis principalement des podcasts en anglais, comme celui de Lex Fridman, qui invite des personnalités de différents horizons, mais toujours de haut niveau. Par exemple, Sam Altman, le PDG d'OpenAI, n'est que l'un d'entre eux. Au cours d'une interview de 2h30, on constate que le résultat est souvent plus de questionnements et de prudence que de certitudes, contrairement à ce que l'on peut observer avec les extraits de Yann LeCun ou de Raphaël Enthoven. Ce dernier peut être un peu excusé, car il s'aventure sur un sujet bien loin de son domaine de compétence, contrairement au premier.
Ta meilleure vidéo sur Chat GPT et les LLM pour le moment !! Bravo 👏
Enfin un contenu intéressant sur ChatGPT, c'est très rare. Ça change de ces philosophes qui nous font la leçon en enfonçant des portes ouvertes dans le meilleur des cas. Qui, de toute évidence, ne font pas bouger la compréhension d'un iota et ne font que scléroser le débat : "Ce n'est que du prédictif, donc circulez, il n'y a rien à voir." J'ai envie de dire à ces gens merci d'être intervenus, c'est super intéressant, ça donne vraiment envie de faire de la philo ! Et personnellement, je connais pas mal de monde qui a eu des notes catastrophiques en philo, et pourtant je suis prêt à parier avec ces messieurs que ce sont bien des humains et non des IA. Tout ce que ça prouve, c'est qu'ils n'y pipent rien et qu'ils sont en fait hors sujet.
Mon point de vue sur l'IA c'est qu'il faudrait se mettre d'accord sur pas mal de définitions de mots comme intelligence, conscience, etc. Ensuite, pour pas mal de gens, un des arguments qui revient souvent, c'est que l'IA n'est pas intelligente parce qu'elle se trompe. Que va-t-on dire quand elle ne se trompera plus ? Ou plus précisément, quand elle nous donnera toujours des réponses cohérentes ? Peut-être que cela n'arrivera jamais, mais imaginons qu'avec un entraînement plus qualitatif et le double de paramètres, l'IA ne se trompe plus !? Là, ça va poser des problèmes, parce que l'expérience de la chambre chinoise, c'est comme l'expérience du chat de Schrödinger, il faut ouvrir la boîte de Pandore pour avoir une réponse ! En clair, on ne pourra plus faire la distinction entre un humain et la machine. Donc, là, la conscience va en prendre un sérieux coup dans l'aile quand tu ne sauras plus dire objectivement si quelque chose a une conscience ou pas. J'admets que tu as une conscience parce que j'ai une conscience et que tu me ressembles. Je te donne une conscience par procuration malgré que tu sois platiste (pour l'exemple).
Je voudrais revenir sur la perception de notre monde par la vue, j'ai deux réflexions à faire sur ce sujet. Je ne pense pas que notre conscience vienne de nos sens parce qu'il y a des animaux qui ont les mêmes sens que nous et qui pourtant n'ont pas forcément conscience d'exister. Je pense en fait que notre conscience vient plus de notre faculté d'abstraction. Par exemple, quand Stephen Hawking prédit l'existence d'un trou noir, il n'en a jamais vu et n'en verra jamais (déjà parce qu'il est mort et parce qu'aucune lumière ne sort d'un trou noir). Alors pas mal vont me dire que ChatGPT n'est pas capable de faire de l'abstraction, sauf que j'en ai fait l'expérience. Alors bien sûr, il n'avait pas "conscience" de faire l'abstraction, donc il n'en a pas fait au premier degré. Mais il a déjà, à plusieurs reprises, anticipé mes demandes par rapport au contexte que je lui ai donné, c'est-à-dire qu'il m'a donné une réponse que je ne lui ai pas posée, mais en se référant au contexte donné, il a anticipé la question sous-jacente. Alors bien sûr, cela s'explique par le fait de son comportement prédictif, mais quand même, ça simule déjà un comportement d'abstraction.
En conclusion, pour ma part, et je peux me tromper, je vois plutôt l'intelligence comme un processus tellement complexe qu'on a la sensation d'exister, d'avoir un libre arbitre, mais tout cela peut très bien n'être qu'une pièce de théâtre que joue notre cerveau pour notre propre bien. Il joue cette pièce de théâtre parce qu'on est des êtres sensoriel à la différence de l'IA. Et si c'est vrai, rien n'empêchera une machine d'être intelligente un jour, si ce n'est qu'une limitation technique.
Sympa l'intervention de defakator ^^
Sur le sujet des IAs, je suis tombe sur cette conférence d'il y a presque 40 ans de Richard Feynman. Elle est frappante car il est loin d'asséner des prédictions péremptoires Enthoveniennes malgré l'état de l'art primitif en 1985.
ua-cam.com/video/ipRvjS7q1DI/v-deo.html
Et il fait - entre autres - deux observations intéressantes:
- on ne demande pas à une machine de fonctionner comme un humain: Les voitures ne marchent pas sur des jambes, les avions ne battent pas des ailes... L'important est le résultat. Et donc une machine pourrait "comprendre" sans imiter les mécaniques de ce que nous pensons être la compréhension chez les humains.
- Il décrit (en réponse à la première question de la salle) ce que j’appellerais le "Sophisme de l'épouillage" qui consiste à rajouter des choses de plus en plus baroques à une définition d'un comportement jusqu'à pouvoir dire que seul l'humain (ou le primate) est capable de le faire. Comme par exemple dire que une machine ne "comprend" pas car elle n'est pas capable comme nous de s'épouiller pendant que elle donne ses résultats, et que "bien sûr", pouvoir s'épouiller est une condition nécessaire de la compréhension.
Cette vidéo a été pour moi source de confusions.
1/ L'intro annonce que ceux qui utilisent l'argument de la chambre chinoise pour parler des IA le font de façon non-pertinente. Connaissant l'argument, j'étais vraiment intrigué, car il me semblait que l'argument (quelle que soit sa qualité) collait bien au sujet. Et il faut attendre la minute 17 pour que la distinction soit faite entre compréhension subjective et compréhension objective, et pour qu'on apprenne enfin que l'argument de la chambre chinoise est quand même pertinent dans le premier cas ! L'intro induisait donc en erreur.
2/ Dans le même esprit, pourquoi vouloir maintenir l'ambiguïté entre compréhension subjective et compréhension objective aussi longtemps, en particulier en maintenant le même terme ? En une phrase, l'affaire était expédiée : "Si par compréhension, on entend "expérience subjective, consciente, intérieure", alors l'argument de la chambre chinoise est pertinent pour parler de l'IA ; si par compréhension, on entend "capacité à exécuter des processus complexes sans nécessairement avoir d'expérience subjective", alors non".
3/ Où est le 2ème argument contre l'argument de Searle ? (annoncé à 13:33). Je vois bien l'argument selon lequel "c'est la chambre et non l'homme qui comprend", je vois le contre-argument apporté par Searle (le Mentat) et le contre-contre argument des anti-Searle (l'émulation de la machine virtuelle), mais où est le deuxième argument anti-chambre chinoise ?
4/ Les commentaires UA-cam (à 27:58), comme d'ailleurs les tweets de Existential Comics (à 0:35) me semblent tous utiliser "compréhension" dans le sens de "compréhension subjective" (à la différence d'Enthoven). Les remarques suivant lesquelles ChatGPT ne serait "que" ou serait "juste" un algo de prédiction de textes ne visent alors pas ses capacités, mais bien l'existence d'une vie intérieure. Le "que" ou le "juste" employés ne visent pas à minorer les impressionnantes capacités du modèle au regard, par exemple, de compétences humaines, mais mettent en exergue la différence de nature entre vie intérieure subjective et exécution automatique inconsciente.
Il y a aussi la justification de Défakator qui rend la vidéo confuse car il se donne raison de l'utiliser. Alors que, comme tu l'as dit, l'intro de la vidéo lui donne tort
😁😆😅😂🤣Ah, bon sang! Le passage avec Defakator, c'est sublime! Je suffoque de rire, réplique après réplique!!!! 🥲 Et je veux absolument voir l'ami du bon goût sur cette chaîne! Pitié-pitié-pitié-pitié!!!! 👃👃👃👃
Sinon, super vidéo, merci...
Mais je me pose une question, à part ça, une sérieuse (et là, je débarque alors que 686 commentaires ont été posté et je vais clairement pas pouvoir les lire tous pour vérifier si personne n'a posé cette question...):
L'argument de Searl, c'est qu'aucun algorithme ne pourra développer une conscience, en gros. Mais est-ce que ChatGPT, on peut encore considérer qu'il fonctionne sur un "algorithme". C'est-à-dire que personne ne donne à ces programmes une série d'étape à suivre pour résoudre des problème. Jusqu'à l'apparition de la programmation bio-inspirée, créer un programme informatique, c'est lui indiquer quoi faire, mais on devait soi-même réfléchir aux méthodes de calcul à utiliser, etc.
Avec les réseaux de neurones (c'est moins frappant avec d'autre type de programmation bio-inspirée, mais avec les réseaux de neurones, c'est vraiment net): les programmeuxses ne savent plus trop ce que fait le programme, ce qu'il regarde précisément pour reconnaitre un chat, par exemple. Et donc, est-ce qu'on est encore sur de la programmation qu'on peut dire "algorithmique"? On crée des structures dont on sait qu'on peut leur faire apprendre des choses, mais on a aucune manière de leur dire ou de comprendre comment ces structures font effectivement leurs "calculs"... (Je me rappelle de Science4all qui parlait de "magie noire", au début, même s'il a bougé, là-dessus.) Je sais pas si je suis clair.
Mais l'apparition d'une conscience dans une machine, ça me semble ne pas provenir d'un "algorithme", à proprement parler...
“The question of whether a computer can think is no more interesting than the question of whether a submarine can swim.” Edsger W. Dijkstra
Remarque au sujet de Y. Le Cun : il me semble qu'il a fait sa remarque sur la capacité des LLM à avoir une représentation "physique" du monde (positions etc.) au moment où c'était encore un problème. Les LLM ont été améliorées spécifiquement sur ce point après coup.
Pour moi le problème dans le discours de Yann Le Cun ici, c'est la prémisse "il n'existe pas de texte qui décrit la physique" bien sûr que si ce genre de texte doit exister qqpart sur internet.
Le reste de son raisonnement semble valide, l'idée principale étant que en gros, pour avoir un modèle du monde, "une image vaut mille mots (et une vidéo vaut mille images)"
@@louis2271 En fait il faut remettre l'interview dans son contexte pour comprendre : les phrases impliquant des mouvements d'objets étaient pile LE problème des LLM du moment. C'est donc plutôt à comprendre comme un exemple. Il me semble que très peu de temps après les LLM les plus connus se sont mis exprès à ajouter des corpus de textes qui adressent le problème, pour le corriger. Au final sa remarque est à généraliser : les LLM auront des lacunes là où leurs données d'apprentissage sont lacunaires ; et il y aura toujours des lacunes dans un corpus d'apprentissage. D'ailleurs ce genre de constat ne nous aide pas à savoir si un LLM "comprend" différemment d'un humain, puisque le problème est le même pour les humains.
L'argument de Yann Le Cun reste globalement valide même si l'exemple choisi est malheureux.
Concrètement un LLM ne dispose pas, et ne disposera vraisemblablement jamais (je parle ici de LLM, pas d'IA) d'une connaissance du monde qui lui permette d'interagir avec lui d'une manière vaguement comparable à ce que les être humains ou les animaux peuvent faire, même si on lui fournissait tous les moyens matériel de cette interaction.
Prenons pour simplifier l'intelligence animale, l'essentiel est non verbal, et elle n'est pas équivalente à la description textuelle qu'on pourrait en faire. Qu'est-ce qu'un LLM sait de marcher, de courir, de chasser, de chercher des ressources, d'interagir avec ses congénères, surement plein de choses verbalisées, mais quoi d'actionnable, rien du tout. Pourquoi, parce que même dans un texte décrivant la marche il manque l'essentiel pour savoir marcher, qui est fournie par l'expérience de l'interaction avec le monde, et qui ne peut pas faire partie du training set d'un LLM.
Je pense que ce que Yan LeCun suggère, c’est qu’il déplace l’objet sans le dire…
Si tu décris la situation en texte, ca va à l’encontre des paramètres de son exemple…
Si faudrait soumettre deux images ou un film à GPT qui représente la situation et lui demander de la décrire.
Pour le dessin : ChatGPT est simplement alimenter par les des images prévalidés avec une série de tag, ca reste du texte.
Autant pour des trucs posés sur d'autre truc, ChatGPT est compétent. Il est même capable de faire la différence entre les objets qui collent et ceux qui vont se casser la gueule du fait de leur forme.
Par contre, ChatGPT n'a pas compris qu'il faut ouvrir la bouche pour manger.
La vidéo est parfaitement résumée par l'extrait ce Kaamelot ; la botte secrète de Perceval est l'exemple parfait : il ne comprend pas, mais donne le change avec ses "ouais, c'est pas faux.", tout en prenant soin de temps à autres de lâcher un "je le connais pas ce mot-là.". Il donne l'impression de tout comprendre et de s'intéresser, alors qu'il n'entend que du bruit.
Génial ! Pertinent, profond, drôle, captivant. Cela fait du bien de te voir moquer les arguments spécieux que certains répètent à l'envie. Il me semble toutefois que celui de Yann Le Cun devrait avoir une place à part : certes la réalité le réfute, mais à mon sens c'est précisément cela qui devrait faire l'objet de toutes les spéculations : comment est-ce possible et qu'est-ce que cela dit sur notre monde ? Ma théorie de science-fiction préférée, c'est qu'un corpus de langage suffisamment grand aurait un modèle (dans le sens modèle sémantique) unique : notre monde. Bon, unique est peut-être un peu trop fort. Où aura-t-il lu que ma tasse est devant mon bol plutôt que derrière ? (ça vous rappelle l'argument de Le Cun ?) Mettons donc que ce soient un ensemble de modèles qui, à certaines variations près, correspondent tous parfaitement au monde que nous connaissons : c'est-à-dire que si nous donnions à ChatGPT5000, entraîné seulement sur un corpus de texte, les outils pour créer un univers (une grosse imprimante 3D), un humain serait incapable de discerner cet univers de celui dans lequel nous vivons : les mêmes objets auraient la même apparence, les mêmes odeurs, le même poids, les lois de la physique y seraient les mêmes, etc. Cela paraît absolument faux et délirant d'imaginer que la totalité de notre connaissance du monde puisse résider dans des textes. C'était le point de Yann Le Cun et, contrairement aux autres arguments discutés dans la vidéo, certainement pas une ineptie. Le fait qu'il soit réfuté devrait, à mon sens, bien plus interroger et fasciner : l'univers ? Un modèle du langage humain ! Au commencement était le verbe ?...
Y'a peut être un problème (sauf si j'ai mal compris) avec le fait de présenter l'acceptation de l'argument de la chambre chinoise comme rendant impossible le fait qu'une machine puisse penser ( à 18:10 + 23:10 + 27:05).
Searle lui-même tenait bien à le préciser, il ne veut pas du tout dire que c'est impossible pour une machine de penser en principe, il dit juste que le fonctionnalisme est la mauvaise façon de rendre compte de la conscience, et que les positions fonctionnalistes ne peuvent pas être un moyen de montrer que les machines (ou les systèmes) pensent. Une fois qu'on accepte l'argument de la chambre chinoise, on est pas forcé d'être dualiste, on n'est pas non plus forcé de supposer une exceptionnalité humaine - y'a d'autres alternatives, et d'ailleurs Searle lui-même est une sorte de matérialiste (je sais pas si c'est le bon terme, mais pour lui la conscience c'est une sorte de redescription, à une plus haute échelle, de ce qui se passe à plus basse échelle dans le corps, dans le cerveau, etc, si je me souviens bien). Il admet que c'est tout à fait possible qu'un jour une machine puisse avoir une conscience, même si c'est artificiel, tout comme un coeur artificiel peut remplacer un "vrai" coeur organique. Le fonctionnalisme n'est pas la seule façon de rendre compte de la conscience sans être dualiste, il y a d'autre théories matérialistes/naturalistes qui le font, et donc nier le fonctionnalisme c'est pas être nécessairement dualiste.
Cela dit c'est vrai que beaucoup utilisent l'argument de la chambre chinoise en faisant justement l'erreur de penser que la seule autre alternative, c'est le dualisme ou l'exceptionnalisme humain, sans s'imaginer qu'il y a d'autres explications physique de la conscience, qui sont disponible, même en acceptant l'argument de la chambre chinoise.
Sinon super vidéo, très intéressant comme d'hab!
whoa c'est super exhaustif, c'est vraiment bien amené et bien vulgarisé pour que moi, non initié à la philosophie, puisse comprendre les tenant et les aboutissant. Excellent travail 👍
Cette vidéo parle de baba is you, un de mes jeux favoris. Rien que pour ça, ce contenu est exceptionnel.
Merci, ce sujet est passionnant et les implication de l'ia sont vertigineuses.
Je suis vraiment curieux de voir où tout cela va nous emmener
Merci pour cette vidéo excellente. Ce point de vue est bien plus réfléchi que celle de enthoven, qui est surtout très imbu de lui même.
Mon idée là dessus est très simple. Si on admet que l'homme est fait de matière.
Étant donné qu'un ordinateur est un simulateur universel, à un moment, et probablement dans très peu de temps la machine va nous rattraper.
Il va falloir s'adapter pour suivre les machines... Peut être en y transposant notre conscience
Une question importante à laquelle il faudrait répondre, selon moi, pour trancher la question serait : si l'on fournit à ChatGPT un texte contenant des mots dont il ne connaît pas le sens et qu'il ne peut pas connaître par une recherche, est-il toujours capable de fournir une réponse adéquate ?
C'est une capacité qui me paraît intrinsèque à ce que l'on appelle comprendre une langue, déduire la signification, au moins approximative, d'un mot que l'on ne connaît pas en se basant sur ceux que l'on connaît. Je dirais même que c'est plus généralement un bon test d'intelligence.
@yukiyuno7267 À la longue, oui, ça me paraît évident mais un être humain peut inférer le sens de mots inconnus à partir d'une seule phrase, pourvu qu'elle contienne assez de contexte sémantique, parfois même dans une langue qu'il ne parle pas couramment.
J’avais déjà proposé l’argument de gpt qui prédit du texte, mais qui serait incapable de l’interpréter
Et tu m’avais répondu « certes, mais en ajoutant à gpt un interpréteur, on obtient un tout capable de compréhension »
Et ce qui a fini de me convaincre c’est une vidéo de micode sur sa chaine underscore sur des personnages dans un jeu avec une mémoire, un système de hiérarchisation des souvenirs, un modèle de langage, ect…
Et en donnant à ces IA toutes les briques pour reproduire les différentes fonctions du cerveau, on a vu émerger des comportements très humain
Finalement, dire que gpt ne comprends pas le texte qu’il écrit, c’est un peu comme dire du volant d’une voiture qu’il ne permet pas de freiner
Le cerveau réalise tout un tas de fonction, et il faudra simuler chacune d’entre elle pour pouvoir comparer le cerveau à l’ia
Oui, il faudrait plusieurs structures avec des fonctions différentes et les connecter de manière intelligente. Le cerveau et le corps humain ne sont pas juste des fonctions découpées par zone comme une voiture ou un ordinateur (on ne peut pas dire "le cortex fait uniquement ça, le cervelet ça", c'est un peu plus subtil).
Il n'en reste que le cerveau est juste une machine biologique très complexe, et les cerveaux des autres animaux des machines un peu moins complexes. Donc oui la limite va finir par être poreuse entre cerveau et machine
@@NicolasGin On n'a pas besoin de donner la même plasticité à un cerveau de silicium qu'au cerveau humain pour en faire un cerveau évolué qui comprend. Le but n'est pas de reproduire des humains artificiels, mais de produire des entités qui sont intelligentes, même si elles diffèrent sur certains points.
Que nous réserve donc l'avenir ? Un monde plus juste, gouverné par une IA, comme Asimov le décrivait ? Ou bien un monde dans lequel l'homme ne sera plus que l'esclave de la machine... si tant est qu'il existe encore ? Merci pour cette excellente mise au point !
Je viens de remplir le questionnaire en vue d'une prochaine vidéo... J'ai hâte de découvrir les résultats de cette petite étude...
Franchement j'avais pas autant ri avec une sponso depuis longtemps, merci 😸
La meilleure vidéo que j'ai vu sur cette chaine. Fantastique. Je suis informaticien et j'ai appris et compris des choses !!! Merci !!!
Est ce que ton t-shirt est bleu ?
Cette vidéo est vraiment une tuerie. Comme d'habitude elle explique très bien beaucoup de concepts pas si simple pourtant à comprendre. Ce qui est intéressant c'est la difficulté que l'on a, semble-t'il, à comprendre ce qu'est un phénomène émergent, malgré le fait qu'on les étudie depuis un moment. Mais justement ce phénomène d'émergent est assez magique puisque soudain (ça fait penser à la percolation qui est soit très partielle soit infinie). Notre cerveau à vraiment du mal avec tout ce qui est grande quantité, de toute façon car on en a pas vraiment l'expérience subjective dans notre quotidien (ouais, on "comprends" pas les grandes quantités en fait ! Et on "comprend" moins l'émergence).
Je viens de comprendre que j'ai passé ma scolarité à me comporter comme une chambre chinoise.
Merveilleux un grand merci. J'ai adoré écouter Searle il est très accessible et très convaincant donc même si son discours est certainement imparfait je trouve que c'est un must hear
Je suis content que tu utilises GPT-4 pour ton analyse. La plupart des influenceurs qui critiquent les Intelligences Artificielles se basent sur GPT-3.5 (la version gratuite), beaucoup plus robotique et moins "intelligente" que le 4.
Bravo pour la sponso !
Pour moi, il viendra un temps où on sera incapable de distinguer une IA d'une personne humaine, y compris dans une discussion, y compris au sujet d'une image. La question de savoir si l'IA sera consciente ou non ne révèlera que notre incapacité à définir ce qu'est une conscience, cette propriété de notre cerveau émergente du fonctionnement de nos neurones.
Si par "conscience" j'entends le même type d'expérience en première personne que j'ai moi, c'est pas tant un problème de définition qu'un problème épistémologique : comment savoir que quelque chose d'autre que moi a une conscience. Pour les autres humains je peux me dire qu'un support biologique du même type produit des états de conscience similaires, mais ce sera plus compliqué pour des machines, particulièrement si leur principe de fonctionnement est à ce point différent comme c'est le cas pour les LLM.
@@MonsieurPhi oui, je suis d'accord avec ta remarque, si du moins tu connais la nature de ton interlocuteur. Mais admettons que ton interlocuteur soit caché dans une "boîte" (non, pas dans la chambre chinoise ! :=) et que tu ne perçoives de lui que sa discussion ?
Ca me rappelle le fonctionnement d'une montre à quartz et celui d'une montre mécanique dont tu avais parlé dans une précédente vidéo. Les deux mécanismes sont très différents, mais comme ils sont tous les deux cachés dans le boîtier, on appelle ces objets des "montres" tous les deux. Et je gage qu'un cueilleur-chasseur du paléolithique n'aurait eu aucun moyen de faire la différence entre les deux montres (sauf sur la durée de fonctionnement).
Finalement, ne disons-nous pas "ceci a une conscience" quand il y a marqué "humain" sur la "boîte" et ceci n'en a pas quand il y a marqué "IA" sur la boîte ? Mais en aucun cas parce que les façons de construire la discussion pour l'humain et l'IA cachés sont ("fondamentalement ???" ou "à ce point ???") différentes l'une de l'autre, ce qui me permettrai, moi humain, de faire la différence.
Par contre j'ai l'impression que nous disposerons bientôt d'IA capables de reconnaitre une IA dans la boîte. Ne serait-ce pas étonnant que l'homme ne sache pas faire la différence, alors que l'IA le pourrait un jour ? Ce jour-là, c'est à l'IA qu'il faudra demander ce qu'est la conscience, ce "truc" qui empêche les humains d'être aussi performants que les IA ? ;=)
@@MonsieurPhi
Sans exprimer clairement ce qu'est la conscience
il me parait impossible de faire quoi que ce soit avec y incompris le chercher chez "autrui"
C'est déjà le cas aujourd'hui pour les chatbots/supports techniques basés sur le texte. Vu que le domaine de discussion (mon problème/mon besoin avec produit X) est très limité, la seule chose aujourd'hui qui différencie l'opérateur humain et le LLM ce sont les fautes de frappe. C'est très malheureux parce que je pense que tout le monde devrait avoir le droit de savoir quand il parle à une IA ET l'humain qui répond au chat mérite qu'on s'adresse à lui comme à un humain et pas comme à une machine.
Déjà aujourd'hui je connais des gens qu'il est impossible de distinguer d'une IA. Ils sont tous zététiciens.
La discussion sur la différence entre capacité de prédiction et capacité de compréhension m'a immédiatement fait penser à une analogie avec les portes universels dans les circuits logiques ou les éléments/parties génératrices d'un groupe. Au vu du caractère déjà franchement général de la tâche de prédiction, défendre la thèse selon laquelle de cette tâche (ajoutée à d'autres éventuelles tâches élémentaires) permet de réaliser toutes les autres.
Très bonne vidéo comme d'habitude! Mais je ne suis pas d'accord avec le fait qu'accepter l'argument de la chambre chinoise implique d'accepter qu'aucune IA ne sera jamais consciente. L'argument de la chambre chinoise souligne l'implausibilité de la conscience dans CE type particulier de réalisation d'une "fonction". Autrement dit, je pense que la bonne conclusion c'est une réfutation stricte de la thèse fonctionnaliste. Toute les réalisations d'une même fonction ne donnent PAS lieu au mêmes états mentaux, il y a des différences. Mais ça ne veut pas dire que la réalisation humaine est la seule qui donne lieu à des états mentaux.
Un exemple encore plus radical serait donné par une variante plus extrême de la chambre chinoise, où au lieu d'exécuter un algorithme, l'homme consulte un gros livre dans lequel toutes les phrases sont déjà traduites (admettons que ce soit possible). Qui pourrait argumenter que dans ce cas, il y a un quelconque système "livre-humain" qui soit conscient? Le point est que la façon dont la fonction est réalisée compte.
Finalement, je ne pense pas que les affirmations sur la conscience soient vides. À partir du moment où on admet que la conscience existe, ce sont des affirmations qui sont soit vraies, soit fausses. Elles sont aussi des affirmations importantes et pas des trucs dont on se fout. Je ne pense pas non plus qu'elles soient invérifiables. Il est possible que dans le futur on soit capable de comprendre quelles genre de systèmes algorithmiques ou physiques se corrèlent à la conscience chez les humains et les animaux (qui ont différents états de conscience qu'on peut utiliser pour faire des expériences, par exemple le sommeil, les états induits par des drogues, etc.) et que cela nous permette de répondre à ces questions.
J'ai hâte de voir les collaborations entre toi et l'Ami du Bon Goût sur cette chaîne du coup :p
Sinon, tellement de raisons de liker cette vidéo, c'est pour ça que j'ai décidé de laisser un commentaire en plus :3 vraiment très bonne vidéo je trouve !
Bon, je suis encore pas mal en désaccord avec ce que tu dis, j'ai l'impression à chaque fois que tes vidéos sur ChatGPT sont un peu biaisées à vrai dire :-)
Tu dis que ceux qui utilisent l'argument de la chambre chinoise pour parler de comprendre dans le sens subjectif disent qu'un algorithme ne pourra jamais rien comprendre, même dans mille ans. Non, il y en a plein qui disent simplement que ce n'est probablement pas le cas maintenant. Ce n'est pas parce que Raphaël Enthoven le dit que c'est le cas de tout le monde (au contraire, même, peut-être... :-) )
Ensuite, dans cette vidéo, en gros tu dis (arrête moi si je me trompe): rien ne vous prouve que les IA génératives n'ont pas de conscience. Alors bon, déjà, il me semble que rien ne prouve non plus qu'une IA générative a une conscience. On peut y croire, un peu comme on a foi en Dieu, ou comme on pourrait croire qu'une pelle a une conscience (donc sur la base d'aucune preuve), mais je ne vois pas ce qui incite à le penser. Et je trouve un peu facile d'écarter l'argument de Yann LeCun sur la base de son exemple, alors que ce n'était qu'un exemple justement. Ca n'invalide pas son argument.
Quels sont tes arguments pour penser qu'une IA a un conscience? Car même si on ne peut en effet pas prouver (ni, donc, l'affirmer avec certitude) que l'IA n'a pas de conscience, on a, il me semble, de bons arguments pour le penser (perso je te donne deux de mes arguments en bas). Et ce n'est pas dualiste de penser qu'une IA n'a pas de conscience. Au contraire même, parce que c'est au contraire en partie parce qu'on a et qu'on est notre corps, qu'on a une conscience, me semble-t-il. Et tu dis que GPT4 n'est entraîné que sur des textes, donc il ne peut pas faire l'expérience du bleu... Mais si c'est que tu penses, alors tu considères aussi qu'un aveugle ne peut pas comprendre (au sens subjectif) ce qu'est le bleu sans en avoir vu? De mon point de vue, dire que ChatGPT4 ne comprend probablement pas ce qu'il lit/dit au sens subjectif, c'est au contraire basé sur l'idée qu'il y a un phénomène émergent dans certains systèmes complexes, et en l'occurrence les systèmes biologiques, à partir de la matérialité physico-chimique (donc pas dans une perspective d'âme séparée du corps mais d'esprit et de corps intrinsèquement liés). Pas une âme séparée du corps, donc.
Et pour finir, dans ce que je considère être de bons arguments, il y a selon moi, par exemple :
* On connait un peu les modèles de langage et ce qu'il y a dedans, puisqu'on les a codés. Ils sont conçus avec une finalité précise et ils font exactement ce pour quoi ils ont été conçus. Ce n'est pas le cas des systèmes biologiques (sauf à croire en Dieu). Pas de phénomène d'émergence observé jusqu'à là chez ChatGPT.
* Une IA a besoin d'énormément de données pour concevoir son système de représentation du monde. Si tu montres un chat à un enfant, il saura ce qu'est un chat. Pour que ton IA soit capable de reconnaître un chat, il y besoin de centaines de milliers de photos de chats. Pourquoi? Parce qu'il ne comprend pas, au sens subjectif, ce qu'est un chat: le chat n'est rien pour lui, il ne reçoit pas la représentation dans son esprit. Il raisonne uniquement à partir de pixels et de stats.
Voilà, moi je me méfie pas mal de cette volonté qu'ont pas mal de gens à vouloir voir une conscience dans l'IA... parce que bon, c'est un peu le rêve suprême de l'humain, non, avoir créé quelque chose qui pense? :-)
L'idée de l'homme-ordinateur chinois ca me rappelle l'un des champion de scrable français qui ne parle pas du tout francais mais est un néo-zelandais qui a appris le dictionnaire du scrable par coeur ^^ Apres, cet "algorithme" n'est pas destiné a comprendre ou apprendre le français, mais a jouer avec des lettres pour faire les mots pour gagner des points
Le passage à 23:48 avec Defakator c'est du génie, un "vrai" régal 😆 Bravo
C'est dingue à chaque nouvelle vidéo je me dis : "bon bah voilà, c'est la meilleure vidéo de la chaîne"... Ce qui se trouve systématiquement contredit par mon visionnage suivant.
Etant donné que ChatGPT a une nature stochastique (a une même entrée peut correspondre plusieurs sorties), est ce que cela rentre quand même dans le paradigme du computationalisme ? Ou alors on considère plutôt que la sortie est directement la distribution de probabilité en tant que telle, et qui est bien fixe cette fois.
Un trick courant (en machine learning, mais peut-être pas que), c'est de considérer que les nombres aléatoires sont en fait juste une autre entrée du système. Et ChatGPT fonctionne très très probablement comme ça. Il prend un ou plusieurs nombres aléatoires, puis applique un algorithme totalement déterministe. Comme l'intégralité des programmes stochastiques, en fait...
Et sinon, en informatique, on a plutôt tendance à utiliser des générateurs pseudo-aléatoires. C'est juste une formule qui donne une séquence de nombre qui peut passer pour aléatoire. Le "vrai" aléatoire provient toujours de l'extérieur. Généralement d'une source radioactive, ou de phénomènes météorologiques.
Ah tu veux dire qu'on ajoute la seed dans l'input, pourquoi pas...@@Ceelvain Mais on pourrait imaginer un générateur de nombre réellement aléatoire aussi (en ayant recours à des phénomènes quantiques par exemple)
Très intéressant ! J'aurais aimé une petite précision sur le cerveau humain : lorsqu'on "apprend", est-ce qu'on est si différents d'une IA ? Comment apprend-on ? Par accumulation de données, par comparaisons et corrections successives. Là encore il est difficile de clairement nous différencier d'une IA qui serait très performante. Un enfant de 4 ans fait des erreurs de langage et compréhension amusantes, et progresse jusqu'à une "vraie" compréhension du langage. La question des IA reste donc bien ouverte, merci pour cette vidéo !
Dis, je farfouille pas mal sur le net pour me renseigner sur les IA et je peux te dire que vous etes pas bien nombreux à remettre chatGPT à sa place. Force à toi!
Le plus sage serait d’en reparler dans dix ans.
33:49 Si chat GPT te sortait une sponso rhinoshield sur l'état du téléphone je mourrais sur place xD
Est-ce que tu pourrais créer une expérience de pensée et nous la présenter ?
Ce serait intéressant d'en discuter, la critiquer voire de collaborer pour l'améliorer.
UA-cam, améliore le référencement de cette vidéo !
J'adore l'argument du tweet au début : 'ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." Donc l'humain a été créé pour être conscient ?
L'humain (et tous les animaux) ont évolués pour être conscients oui, parce que ça aide a survivre. Chaque génération durant l'évolution entre le stade algue et animal créant petit à petit des êtres de plus en plus conscients
... Tu viens de donner du grain à moudre aux créationnistes, là. xD
@@TheRoro390On en sait rien. Ça paraît logique et raisonnable mais en fait c'est bien plus compliqué que ça.
On peut même élargir ça à l'intelligence en général, on ne sait pas forcément comment elle a émergé. On peut très bien imaginer que les premières "formes de consciences" ou d'intelligences chez les animaux ne soient pas apparuent pour elles-mêmes, pour l'avantage qu'elles procuraient, mais juste en tant que sous-fonction d'autre chose qui lui était sélectionné à ce moment.
Pour prendre un exemple: l'intelligence est plus ou moins corrélé au coefficient d'encéphalisation, le rapport entre la taille de la boîte crânienne et la masse de l'individu, entre les différentes espèces. Et comme le cerveau est un organe très énergivore, il produit beaucoup de chaleur. Ainsi donc, peut être que l'intelligence ne serait qu'un sous produits de la sélection de cerveaux plus gros qui permettent de produire plus de chaleur dans des environnements froids ! Voir l'évolution des Cétacés ou des Hominidés !
Tout ceci reste très théorique, mais montre bien que pour s'assurer qu'un trait ait évolué pour tel ou telle raison, c'est très compliqué.
Et puis la présentation d'une "échelle" de l'évolution entre les "algues" (c'est trrrèèèèsss large) et les animaux c'est un peu foireux... Je ne vois pas en quoi une algue Volvox serait moins conscient qu'une éponge...
@@chanseyinthehood8415 Les algues et les animaux c'était pour illustrer l'évolution de manière générale, des premières formes de vie simples aux plus complexes actuelles.
Et pour l'intelligence, ca ne change rien qu'elle soit apparue comme sous-produit ou pas. Le fait est que l'intelligence (au sens très large, donc plante et champignons aussi) permet aux espèces de mieux survivre puisque toutes les espèces vivantes sont intelligente (à des degrés variés).
Ma formulation n'était pas bonne, les êtres vivants n'ont pas "évolués pour" mais plutôt "évolué vers". L'argument de base c'était la comparaison avec "ChatGPT ne peut pas être conscient puisqu'il n'a pas été créé avec cette intention et entraîné pour ça." hors oui l'humain (et la vie de manière générale) à été entrainée à être consciente. Que ca soit un sous-produit ou non. Si je fait de la natation pour nager plus vite, et qu'au final en sous-produit j'ai des supers abdos, c'est mon entrainement qui m'a donné ces abdos.
Pour l'aspect "créé pour" c'est plus difficile, mais si on voit la vie comme une seule et unique réaction chimique s'étant diversifiée dans ses formes au fil de sa multiplication, l'apparition de l'homme peut être vu comme étant "créé" par ses ancêtres dans "l'objectif" de mieux survivre au monde (des tas d'autres "espèces" ayant été créées dans ce but (chaque enfant) et ayant échoué)
Et pour l'éponge et l'algue, j'ai pas de connaissances suffisantes pour savoir laquelle à une meilleure conscience du monde, surtout étant donné que les deux sont à la limite entre animal et végétal (et donc ont probablement des niveaux de conscience très proches)
@yukiyuno7267 Je suis d'accord avec le début du commentaire. Je ne suis pas sûr pour l'utilisation du terme "objet" : je veux dire, n'importe quoi peut être un objet d'étude non ?
De plus, je ne vois pas en quoi cela serait de la branlette intellectuelle sur rien du tout.
Ton exemple pratique du dessin de la licorne générée est particulièrement persuasif ! Je suis un peu plus proche d'accepter l'émergence de compréhension dans le cadre des LLM. Merci du partage !
Ce que je retire de cette vidéo, c'est que les expériences de pensée sont ultra-puissantes pour convaincre, et quand elles sont "fausses" la faille peut être très difficile à trouver. Je m'étais toujours représenté les expériences de pensée comme un très bon moyen de convaincre, sans me rendre compte que ça pouvait aussi bien marcher pour les arguments invalides. Sauf sans doute quand on prend le temps de mettre à l'épreuve proprement l'expérience de pensée (débat constructif entre personnes d'un avis différent, recherche académique, ...)
Merci pour cette vidéo explicative. J'ai l'impression d'avoir appris quelque chose alors que j'avais vu la chambre chinoise dans la vidéo de Defekator sans me poser de questions.
Merci d'avoir mis des mots sur un concept que beaucoup trop sous estiment ! J'en connais quelques uns à qui cela va exploser au visage ;)
Bonjour, merci pour cette super vidéo!
Au risque de dire une bêtise, il y a peut-être quelque chose à aller chercher du côté de la théorie des formes pour argumenter l’aspect de compréhension subjective. Si l’on estime que cet aspect de la conscience nécessite de pouvoir jongler avec des représentations non sensorielles des concepts (d’où le fait de parler de « forme », mais l’approximations est peut-être un peu cavalière), alors on peut imaginer que cet aspect sera beaucoup moins facilement accessible à une machine.
En tous cas les expériences de pensée autour du sujet et du fonctionnalisme en général sont passionnantes à suivre, bravo!
L'argument de John Searle (the chinese room argument) ne s'applique pas à des réseaux connexionnistes. En effet, les prémisses de l'argument spécifient bien qu'il s'agit de ce qui s'appelle en informatique une machine de Turing ou "FSA" (finite state automaton) avec une "architecture Von Neumann" qui consiste en une liste d'instruction (un programme), de la mémoire, un processeur qui suit les instructions, et le moyen d'écrire et de lire en mémoire.
Le cœur de l'argument de Searle est de faire la distinction entre la "syntaxique" et la "sémantique". Il veut montrer que, en suivant des instructions, et en étant capable de lire des symboles "syntaxiques", celui qui ne parle pas le chinois dans la chambre peut donner l'impression de comprendre le langage, et ici "comprendre" fait référence à la "sémantique" des termes, le sens des mots, alors qu'en fait il ne fait que des opérations "syntaxiques".
Son argument peut alors se résumer facilement :
P1 - Un FSA ne pourra jamais faire que de la syntaxe.
P2 - Un esprit humain fait de la sémantique.
C - Donc un FSA ne pourra jamais suffire pour construire un esprit humain.
Le problème, c'est que justement, les réseaux connexionnistes (machine learning) ne sont PAS des FSAs... Ce ne sont PAS des machines de Turing. Et c'est pour ça que dans la littérature philosophique, de nombreux arguments sont mis en avant pour expliquer que, contrairement à un FSA, qui en effet n'a jamais accès à la sémantique, les réseaux connexionnistes ont quant à eux accès à la sémantique. Et qu'en fait ce que l'on appelle la "sémantique" est complétement réductible à la structure des neurones qui est reproduite par les réseaux connexionnistes.
Cela signifierait que les modèles de langage tels que chatGPT ont bien un compréhension sémantique du langage. Ils disposent bien, ils ont bien accès à la sémantique, mais bien sûr, cela ne suffit pas à faire d'eux des esprits conscients.
Ils manquent au moins, bien évidemment, d'une motivation propre. Attention à ne pas confondre la simple "intelligence" avec la "conscience" (vaste sujet).
Je pense qu'on ne donne pas la faculté de conscience subjectif à l'IA parce qu'elle suit un processus de création différent du notre.
On donne une faculté de conscience subjectif aux autres humain parce qu'on se dit "je suis capable de sentir que j'ai une faculté de conscience. Je n'ai pas été conçu d'une façon particulièrement différente des autres humains. Par conséquent rien ne permet d'affirmé que les autres humains n'ont pas de faculté de conscience subjectif similaire à la mienne. C'est donc qu'ils doivent avoir une faculté de conscience similaire à la mienne."
J'ai beaucoup ri au passage de Defekator, merci de l'avoir inclut, je pensé à lui !
Je rebondis sur la look-up table pour essayer d'apporter une explication.
Par principe une fonction pure (qui ne modifie pas le contexte globale ni aucun objet ne lui appartenant pas, et qui renvoit toujour la meme sortie pour une même entrée) peut etre remplacée par une lookup table infinie.
Dans la limite où l'homme, enfermé dans la piece n'a acces a rien d'autre que ce qui lui est transmis par dessous la porte (donc pas de contexte, pas d'horloge donc pas de time et pas de dés donc pas de hasard) et qu'il suit scrupuleusement les instructions pour répondre, il pourrait garder un livre dans lequel il référence les questions la première fois qu'on les lui posent, et pour tout les appels subséquente se contente de re ecrire la reponse que l'algorithme a généré la première fois. Après un temps infini, toutes les questions possiblent auront étés posées et on pourra donc remplacer le livre d'instructions par le livre de références, la "lookup table" en question.
Excellente vidéo, en tant que chercheur en IA je suis totalement d'accord avec vous. D'ailleurs, c'est rigolo, à chaque fois que vous présentiez un exemple chelou comme la citation de LeCun, j'étais prêt à saisir mon clavier pour dire « mais, mais, c'est n'importe quoi », ce qui est inutile vu que vous démontrez très clairement à chaque fois que c'est effectivement n'importe quoi dans la partie suivante de la vidéo ^^.
Pour LeCun en l’occurrence, il est évident que les textes contiennent suffisamment d'information pour en déduire les lois de Newton, la gravitation etc, bref, un modèle du monde suffisant pour savoir que l'objet posé sur une table se déplace avec la table. J'ai vu des démos en ce sens en conf il y a déjà ... 10 ans ou presque ... (par analyse de texte ou par observation du monde) bref, il est complétement à la rue le bonhomme ...
Comme souvent dans votre vidéo j'allais dire un peu la même chose que vous à la fin : il est évident, et c'est déjà fait sur différent modèle en recherche, qu'on peut nourrir une IA avec des données autre que du texte, c'est parfaitement agnostique des données d'entrée en l’occurrence. On le fait d'ailleurs déjà sur des modèles du type de celui utilisé par MidJourney etc. (c'est une entrée texte qui donne une image, mais faire l'inverse n'a aucune difficulté technique, on le fait dans ce sens parce que c'était le plus intéressant, c'est tout).
Enfin il manque un exemple, je pense, qui aurait pu enrichir énormément votre propos à la fin : quand nous lisons un livre de science fiction, ou des livres écrits dans un passé lointain, nous arrivons bien à nous faire une représentation de mondes qu'on a jamais « connus » en s'appuyant simplement sur une description textuelle. Un texte comprends donc bien assez d'information pour se construire une représentation du monde qui tient la route.
Ha, et il aurait pu être intéressant de citer Turing dans la bataille : à savoir qu'une autre réponse à la chambre chinoise est de dire que comme il est impossible de définir cet aspect « subjectif » alors faire un système qui « mime » est équivalent factuellement. Vous allez là dessus quand vous dites qu'on a pas de preuve qu'un autre humain à bien une intériorité. Bref on a pas de preuve qu'une autre personne n'est pas une chambre chinoise. À mon sens (et au sens de Turing) c'est le point majeur. Je pense que ça mériterait plus de place dans le propos.
Voili voilou pour mes commentaires.
Une excellente vidéo sinon !
super vidéo👍👍👍👍
Au début je pensais que chat gpt ne comprenais rien, qu'il faisait juste des "statistiques" mais je me dis maintenant que c'est une sorte de compréhension (nous on comprend via les définitions, lui via ces "probabilités")
Par contre je ne pense pas qu'il sache/se rende compte qu'il comprend (on a des neurones dédiés à l'existence de notre conscience et ça m'étonnerait qu'une partie de son réseau de paramètre y soit dédiée)
Je me dis que c'est juste une question d'échelles.
En large la chambre sait le chinois et à petite échelle il y a un homme et une livre.
En large nous somme conscient et à petite échelle c'est que des neurones
En large M.Phi est une chaîne et à petite c'est une vidéo.
Conclusion: l'échelle ne conserve pas toujours les propriétés de départ.
Donc dire que chatGPT ne comprend rien ou que la chambre ne comprend pas le chinois sera en réalité de la mauvaise foi voilà tout.
trop cool de voir Defakator ! Très bonne vidéo.
Super vidéo encore et toujours, ça devient lassant... Étonnamment de tous ce que j'ai pu voir sur les capacités de ChatGPT, je crois que le dessin de la licorne est celui qui m'a le plus scotché ! Comment à partir d'une base de données textuelle, toutes gigantesque qu'elle soit, il est possible de se faire une image assez claire d'à quoi ressemble une licorne et d’interpréter cette image à partir de triangles, d'ellipses et de rectangles dans un langage informatique ? Il y a des étapes qui me manquent ! Combien de textes de son corpus décrivent précisément une licorne ? Combien associent les formes de cette description à des formes géométriques basiques ? Combien associent ces formes géométriques à du code processing ? C'est bluffant !
Je viens de piger un truc vraiment profond par rapport a la précision sur le connasmissance d'un concept via un autre ancrage.
De ce point de vue, fort pertinent ce qui manque à ses modèles ce sont les sens, c'est eux qui permettent aux humains d'encrer des concepts déjà via plusieurs canaux mais sûrement cela est lié au final à la subjectivité.
Il serait intéressant de coupler un modèle de langage avec des capteurs pour associer la compréhension de concepts avec une experience sensorielle. Exemple, pour une couleur, si cela est couplé à des capteurs de longueurs d'onde et un modèle d'ia qui met en relation les informations sensorielles et textuelles, j'ai le sentiment que ça serait intéressant comme architecture et très prolifique !
Edit: j'avais posté avant la dernière minute de vidéo, on en vient à la même conclusion !
J'aimerai juste remonter un souci dans vos montages (et d'ailleurs, c'est un "péché" de nombreux vidéastes, faites passer le message) : vous mettez beaucoup d'annotations en incrustation, mais l'affichage est fugace. Donc pour les lire, on doit se mettre en pause. Et là... le texte, souvent mis trop bas, est à demi caché par la barre de défilement de la vidéo... et on perd la moitié du message (ou disons que cela devient pénible à lire)
Ce serait bien de vérifier la lisibilité des incrustations en testant la mise en pause sur ces temps de la vidéo.
Pareil d'ailleurs pour les incrustations en fin de vidéo lorsque il y en a.
Sinon, j'aime bien ces annotations, hein. C'est juste que j'aimerai pouvoir bien les lire !
Quelle énorme masterclass de trouver Defekator dans cette vidéo...
Le segment pub NordVPN réalisé par ChatGPT c'est épique, franchement ! XD
Et le résultat est honnête et pas dégueu en plus !
Franchement respect pour tes arguments et comparaisons, j'ai adoré, merci :)
Super vidéo ! J'aurais bien aimé que tu parle de l'argument des propriétés émergeantes. Ce qu'on appel "intelligence" implique souvent des façons inattendue de répondre à un problème imprévu. Dans le cas de chat GPT ça pourrait être de "comprendre" qu'un mot avec un fort score de prédiction n'est pourtant pas le plus approprié (comme lorsqu'il invente des présidents). Ou, par exemple, qu'il se mettent à comprendre spontanément le système de citation de la litérature scientifique.
Hello, je ne trouve pas le lien du questionnaire.
Je conseille à tous les vidéos de Rob Miles sur computerphile sur ces questions et d'autres autour de l'IA.
En plus de celle de Mr Phi bien sûr (et de Defekator)
Et de l'ami du bon goût !
Je suis rentré dans la vidéo en pensant en connaître le contenu et en fait pas du tout. C'était très chouette, merci pour ces éclaircissements, je dirais (un peu) moins de conneries et serai un peu plus prudent qu'en je parlerai de ce sujet.
Quand j'ai entendu la première fois l'argument de la chambre chinoise dans le cadre des IA, j'avoue que je ne l'avais absolument pas compris comme ça. J'en avais une compréhension qui me paraissait beaucoup plus pertinente et intéressante. En fait je le comprenais non pas comme "la machine ne comprend pas" mais comme "la machine ne comprend pas de la même façon que nous". En fait on dit que la chambre chinoise parle chinois, mais qu'entend-on par parler ? Parce que oui on serait incapable de mettre en défaut cette chambre en lui parlant chinois, mais l'individu à l'intérieur lui n'est pas capable de s'exprimer en chinois, il n'est pas capable de dire ce qu'il veut dire en chinois, seulement de créer des suites de caractères. De même il ne comprend pas les questions qu'on lui pose, ou du moins il ne les comprends pas comme il les comprendrais si on les lui posais dans sa langue. Si par exemple on lui demandait son nom, il ne le comprendrait pas, et puisqu'il suit un algorithme il a toute les chances de se tromper sur sa réponse, tout en fournissant une réponse logique. Ça me paraît d'ailleurs une façon très élégante de mettre en défaut la chambre chinoise en testant une compréhension objective. Si un individu connaît le nom de la personne à l'intérieur de la chambre chinoise, et demande ce nom à la chambre chinoise en chinois, il verra que la machine ne comprend pas la question, puisqu'elle sera incapable de répondre correctement. Et c'est là justement l'intérêt que je voyais dans l'argument. Quand on demande à chatgpt de faire un calcul, l'algorithme ne comprend pas qu'on lui demande un calcul justement. Il a bien une compréhension de ce qu'on lui demande, mais qui s'exprime d'une façon tout à fait différente, en terme de probabilités et de prédictions de tokens. Et pour cette raison il peut tout à fait fournir une réponse cohérente tout en se trompant.
Et quand on creuse un peu la chose, on en vient à toucher des questions que je trouve fascinante, à savoir tout bêtement c'est quoi comprendre ? Je crois qu'on pourrait définir la chose comme le fait d'établir des relations pertinentes entre des éléments, assez simplement, et ça a des conséquences très intéressantes sur ce qu'on peut dire d'une IA comme chatgpt. Parce qu'une IA comme chatgpt établit des relations tout à fait pertinente entre les mots, ce qui lui permet de répondre de façon tout autant pertinente, et donc effectivement de comprendre. Et le processus par lequel nos cerveaux humains comprennent les choses est certainement le même : établir des relations entre les choses, mais selon des schémas radicalement différents. Ces différences sont en fait surtout dûes au fait qu'on a plus d'éléments et de fonctions à disposition que chatgpt. Ce qui nous permet par exemple de répondre correctement à la question "combien font 2 + 2 ?", c'est d'une part que l'on est capable de faire des additions simples, ça fait partie des fonctions que notre cerveau possède, et que chatgpt ne possède pas (il a pas de calculette intégrée), et d'un autre que l'on est capable d'établir un lien direct entre la question et cette fonction. Ce qui nous permet de répondre quand on nous demande notre nom, c'est qu'on a accès à cette information, et que l'on est capable d'établir une relation entre la question et cette information. L'homme dans la chambre chinoise a lui aussi accès à ces éléments et ces fonctions, de par son incroyable ✨ groservo d'humain ✨, mais il n'a pas la capacité d'établir une relation entre les questions qu'on lui pose et ceux-ci, et c'est en cela qu'on peut dire, de façon un peu grossière, qu'il ne comprend pas.
Pour prendre un autre exemple donné dans la vidéo, ce qui fait que nous comprenons que lorsqu'on bouge la table, le verre dessus bouge aussi, c'est le fait qu'on ait dans notre cerveau une fonction "moteur physique" intégrée, qui nous donne une certaine compréhension intuitive de comment les objets bougent et interagissent entre eux (on observe d'ailleurs ce moteur physique même chez les nourrissons ; très tôt, ils savent déjà intuitivement que les objets tombent par exemple), ainsi que le fait qu'on est capable d'établir une relation entre la description de ce verre sur la table et ce moteur physique. L'algorithme établit lui aussi tout un tas de relations entre les tokens, et arrive à la même conclusion, et il a bien une certaine compréhension de la chose, mais qui n'est pas du tout la même que la nôtre. Il ne dit pas que le verre bouge aussi parce que les forces de frottement le maintienne à sa position sur la table, mais parce que ayant accès cette suite de tokens décrivant la situation, la continuation logique telle qu'il l'a apprise est que le verre se déplace aussi.
Et du coup on se rend vite compte avec cette définition que, n'en déplaise à Enthoven, bah si les machines pourront très certainement penser comme nous un jour, pour peu qu'on leur donne toutes les fonctions et éléments que nous avons, ainsi qu'un algorithme capable d'établir des relations entre toutes ces choses de la même façon que nous le faisons.
attention je dis tout ça, je suis pas philosophe moi je suis juste en train de discerter au comptoir avec quelques grammes dans le sang x) j'imagine que soit je dis des bêtises, soit je dis des banalités pour les philosophes sérieux
J’adore le mélange de vos vidéos 👌👌👌
Mais si la conscience n'est pas observable empiriquement, est ce qu'elle existe vraiment ? Car de notre point de vue subjectif, qu'est ce que la conscience si ce n'est en fait la manifestation de la conscience chez quelqu'un ? Petite expérience de pensé (car j'aime bien me prendre pour monsieur phi): quelqu'un a subi un très grave accident et a frôlé la mort, si bien qu,il peut encore penser, et entendre ce que l'on dit autour de lui, mais ne peut pas parler, ne peut pas bouger ni communiquer de quelques manières que ce soit, et ce pour toujours. Est il conscient ? La réponse n'est pas aussi évidente qu'on pourrait le croire. Je pense que la seule chose qui permet de déterminer si quelqu'un ou quelque chose est conscient, c'est si il apparaît comme tel. C'est pourquoi le titan dont on a remplacé le cerveau dans la dernière vidéo est conscient, et c'est pourquoi chatgpt est conscient, au même titre que l'entité de la chambre chinoise ou que le cerveau émulé par un milliards de chinois, car ce qui compte c'est la conscience apparente. Je dit pas que c'est la réponse sure et définitive pour toujours, mais celle qui me semble la plus crédible pour l'instant.
Magnifique sujet, comme la presentation, encore une clef pour mieux aborder le réel et le futur. Merci