Are o1 and Claude able to MANIPULATE us? Two recent studies with disturbing results

Поділитися
Вставка
  • Опубліковано 23 січ 2025

КОМЕНТАРІ • 749

  • @superi4n
    @superi4n Місяць тому +520

    Merci d’être encore à ce jour la personne qui parle le mieux des IA et des LLMs sur le UA-cam France. Tout est précis, sourcé et à l’état de l’art et ton background en philosophie apporte vraiment quelque chose, quand on voit des scientifiques ou ingénieurs, certes très compétant techniquement, mais qui sortent des arguments complètement farfelues dès qu’il s’agit d’interpréter sur les sujets type conscience etc.. Bref merci

    • @cedricmuller
      @cedricmuller Місяць тому +5

      Je valide et multiplie ce commentaire !

    • @Rorama2024
      @Rorama2024 Місяць тому +1

      C'est pas faux....

    • @Ctrl_Alt_Sup
      @Ctrl_Alt_Sup Місяць тому +1

      Personnellement, je ne sais pas si une IA est capable d'installer un système d'exploitation et de configurer un ordinateur... quelques informations concrètes auraient été les bienvenues pour évaluer si l'article contient une part d'hallucination !

    • @gluonpa6878
      @gluonpa6878 Місяць тому +8

      Moi je préfère Enthoven mais c'est chacun ses goûts...

    • @cedricmuller
      @cedricmuller Місяць тому +1

      @Ctrl_Alt_Sup Ce n’est pas le but de l’article ni de la vidéo. Mais oui, techniquement une IA pourrait très bien installer et configurer un OS. Elle pourrait probablement même écrire le kernel d’un nouvel OS. Évidement, aucune IA commerciale n’a ce pouvoir car elles sont toutes dans un bac à sable (sandbox) permettant de garantir la portée de leur domaine d’action. Une bonne IA custom pourrait déjà le faire, pas de manière complètement autonome mais avec un peu d’aide ça passerait certainement.

  • @Laezar1
    @Laezar1 Місяць тому +104

    Un truc sur lequel il va falloir légiférer qui pour le coup est de l'ordre pratique à court terme sans avoir besoin d'aller jusqu'à une IA qui s'échappe c'est de s'assurer que les entreprises soient résponsables des conséquences de leurs IA et de leurs prompt. Genre si une IA service après vente ment à un utilisateur parce que son prompt lui dit de chercher à maximiser les profits de son entreprise ça devrait être explicitement illégal et pas possibilité de se cacher derrière le fait que c'est l'IA qui l'à fait.

    • @totof2893
      @totof2893 Місяць тому

      une compagnie aérienne avait essayé de se dédouaner quand un bot après vente avait menti à un utilisateur sur des frais remboursable (ou quelque chose dans le genre). Je crois qu'à la fin l'entreprise a été condamné.
      J'ai retrouvé l'aricle TheGuardian "Air Canada ordered to pay customer who was misled by airline’s chatbot"

    • @assalandererdholian1990
      @assalandererdholian1990 Місяць тому +12

      Un ami travaille à la Société des Alcools du Québec. C'est un algorithme qui décide des horaires de travail de chacun, et aucun ajustement n'est possible "désolé c'est le système qui décide, on ne peut rien changer". Donc oui le risque de voir des entreprises utiliser "c'est l'IA qui est responsable, pas nous" pour se dédouaner de tout est bien réel...

    • @divachat-m9m
      @divachat-m9m 28 днів тому +3

      C'est aux utilisateurs d'être responsables des conséquences des outils qu'ils utilisent. Si j'utilisais Photoshop pour falsifier la photo d'une personne connue et lancer une campagne de diffamation dans un journal, il ne viendrait à l'idée de personne de rendre Photoshop responsable. C'est un outil, puissant certes, mais un outil. Cet outil doit être contrôlé pour que les entreprises en question n'introduisent pas sciemment des biais à visée manipulatoire, mais c'est tout. Un outil n'est pas responsable de ce qu'on en fait : ça ne pense pas, ça ne triche pas, ça ne ment pas, ça ne manipule pas, sauf si c'est programmé pour. Ça répond simplement à une intention humaine et cela demande de savoir bien s'en servir pour obtenir un bon résultat sinon ca donne un résultat qui peut sembler manipulatoire ou mensonge , mais c'est juste le résultat probabiliste d'un calcul basé sur les données en entrée, ca ne ment pas ca calcul mal ou c'est l'utilisateur qui ne se rend pas compte qu'il lui donne des entrée qui vont la pousser à produire un résultat mensonger.
      Les entreprises et les gens doivent être tenus responsables de son utilisation, oui, mais il n'y a rien à légiférer ici. C'est déjà, et depuis toujours, le sens du droit : nous sommes, en tant que personnes morales ou physiques, responsables de ce que l'on fait. Si une IA de service après-vente produit un mensonge à un utilisateur parce que son prompt lui dit de chercher à maximiser les profits de son entreprise, c'est déjà expressément illégal en théorie, si on conceptualise bien ce qu'est l'IA.
      Il est donc simplement important de sortir de toute anthropomorphisation de cet outil. Si ton site internet, ta publicité, ou ta description produit ment, tu es responsable. Si ton IA ment, tu es responsable. Et si elle ment contre ta volonté, tu es responsable d'avoir proposé un service non sécurisé à tes utilisateurs. Tout cela relève de la négligence ou de l'intention frauduleuse, et la loi actuelle peut déjà sanctionner de telles pratiques.
      À la limite, on pourrait légiférer sur une loi qui rendrait obligatoire de préciser que les informations fournies ne sont pas fiables et peuvent être complètement fausses, mais alors, à quoi bon utiliser cet outil ? Et là, on touche au nœud du problème : tant que les IA ne seront pas fiables, il ne faut tout simplement pas les utiliser à des fins telles que celle que tu décris.

    • @Laezar1
      @Laezar1 28 днів тому

      @@divachat-m9m Oui c'est bien gentil ça sauf que l'importance de légiférer c'est que ça permet d'éviter aux entreprises de s'engouffrer dans des parties ambigües du droit, ça à toujours été important avec les nouvelles technologies et là ça parait très important vu qu'il semble quand même assez probable que les entreprises finissent par utiliser les dégrés de séparation entre l'entrainement et l'utilisation finale pour rendre la responsabilité diffuse.
      "c'est pas ma faute c'est les données d'entrainement" ou "je pouvais pas savoir que le prompt allait faire ça c'est pas explicitement ce que je lui ai demandé" ce genre de trucs.
      L'idée c'est de dire "si l'outil est pas aligné avec la loi et les droits des consommateurs c'est ta faute point barre." Avoir une loi qui dit ça explicitement c'est bien pour éviter les entreprises qui utilisent des armées d'avocats pour trouver la petite faille dans la loi qui les absout ou rejette la responsabilité sur un autre et ça permet d'avoir au moins ce précédent dans le futur sur lequel se baser quand les technologies évolueront encore.

    • @thebard328
      @thebard328 17 днів тому

      ​@@divachat-m9m Justement, la vidéo montre tout le contraire. Il est totalement irréaliste de penser que les entreprises qui utiliseront de l'IA soient suffisamment compétentes dans le domaine pour anticiper et prévenir tous les scénarios dommageables. Les entreprises qui conçoivent ces IA n'ont déjà pas une compréhension parfaite de la limite des modèles, alors qu'elles sont à l'état de l'art, alors demander que leurs clients le soient, c'est en demander beaucoup. C'est pour ça que des lois spécifiques sont nécessaire, non pas pour établir les tors, mais essayer de fournir un cadre qui maximise la sécurité. Par exemple interdire que les LLM puissent être relié à des systèmes pouvant blesser des usagers, ou les interdire dans certains domaines.

  • @lucbourhis3142
    @lucbourhis3142 Місяць тому +69

    Pas d'inquiétude sur la longueur des vidéos de mon coté! Ton contenu est hors norme dans la francosphère, et même au delà. C'est toujours un plaisir. Mais évidemment, je comprends que de votre coté, ça puisse être une trop grosse charge. Joyeux Noël!

  • @lunatiquepragmatique3590
    @lunatiquepragmatique3590 Місяць тому +11

    La vidéo est complètement folle. C'est un travail titanesque que tu as fait pour un rendu génial. Merci de nous fournir des vidéos si qualitatives et peu importe si tu n'en sors pas si souvent que cela. Sache que je continuerai à financer (à ma minuscule échelle) ton travail car la qualité est plus qu'au RDV.
    Merci pour toute cette vulgarisation de qualité.

  • @Tony-rv5sp
    @Tony-rv5sp Місяць тому +339

    C'est dommage de se forcer tout le temps à faire des vidéos "courtes". Moi j'adore écouter des podcast/vidéos longues par exemple.

    • @evian8976
      @evian8976 Місяць тому +37

      Je suppose que c'est aussi et surtout une question de charge de travail

    • @dreffon9213
      @dreffon9213 Місяць тому +12

      Je différencierais vidéo longue éditée et long podcast face cam en semi-impro. J'aime les premières (comme c'est le cas ici) mais pas les secondes

    • @jean-louisrouxel7223
      @jean-louisrouxel7223 Місяць тому +6

      En ce qui me concerne, le format podcast ne me semble pas si mal. La charge de travail est moindre qu’une vidéo, ce qui pourrait nous laisser espérer plus de contenus de ce genre.
      (Je pourrais avoir ma drogue plus souvent)

    • @PaBien
      @PaBien Місяць тому +1

      Je dirais aussi que c'est une question de charge de travail, et qu'il ne se force pas particulièrement. Il nous a promis il y a 6 mois du contenu conséquent de type Philosopher's View, j'imagine qu'il ne veut pas s'interrompre trop longtemps par rapport à ça, mais qu'il ne veut pas non plus ne pas parler de tout ça trop tard. C'est peut-être même plutôt l'inverse du coup : peut-être qu'il se force à faire ce genre de vidéo alors qu'il ne le voulait pas à l'origine.

    • @jeangodfroid6530
      @jeangodfroid6530 Місяць тому

      J'ai personnellement écouté cette vidéo en mode podcast. Très agréable!
      Après la lecture de vos commentaires, j'ai regardé rapidement la vidéo pour m'imaginer la charge de travail, qui a donc été pour moi inutile.
      Je présume qu'il a déjà fait des tests et qu'une vidéo montée lui est préférable (retour des viewers, nombre de vues, satisfaction de son travail,...).
      Mais je préfère avoir des vidéos/podcasts moi souvent, et que son alignement personnelle l'aide à continuer de la sorte pour de longs moment ! (nothing else matters) 😅

  • @josephbeau-reder813
    @josephbeau-reder813 Місяць тому +21

    Génialissime.
    Merci d’être une source d’information aussi pertinente ! Je suis sûr que je ne vais pas perdre mon temps en spectacular bullshit quand je clique sur une de tes vidéos !
    Merci de faire un tel contenu de qualité qui me permet de rester en lien avec de telles swaggy thématiques !
    Grosse bises encore et joyeux Noël.

  • @Everpopp
    @Everpopp Місяць тому +12

    16:07 on apprécie le clin d'oeil a G miligramm le boss, sinon super vidéo

  • @MrVipron
    @MrVipron Місяць тому +81

    Il y a un point pour lequel je m'interroge et me pose quelques questions.
    On sait que les LLM peuvent avoir un comportement différent dans la mesure où ils se sentent observés et "testés" et il semblerait qu'ils soient capable de deviner par eux-mêmes les situations dans lesquelles ils sont testés.
    Au fur et à mesure que les chercheurs en IA testent de nouvelles méthodes et inventent des scénarios pour justement tester comment le modèle va se comporter, ils publient tout ça dans des articles scientifiques qui sont disponibles et accessibles sur internet, et donc pour les prochains LLM (ceux qui seront à jour) également.
    Est-ce que c'est idiot de penser qu'il va devenir de plus en plus difficile de tester ces LLM avec ce genre d'expériences ? Ou alors que dans certaines situations où ils ne sont pas testés ils risquent à tord de repérer des signes indiquant qu'ils pourraient potentiellement l'être et se mettre à agir d'une façon différente ?

    • @w0tch
      @w0tch Місяць тому +3

      Ahah le bordel, il faudra filtrer les données d'entraînement avec d'autres IAs afin d'enlever ce genre d'articles de recherches pour que l'IA entrainé reste "naive" sur le monde et soit donc plus honnête, cependant les IAs qui vont filtrer ne le seront peut-être pas ... 😂

    • @Ctrl_Alt_Sup
      @Ctrl_Alt_Sup Місяць тому +5

      Avec un bon GPU il est toujours possible de mener des expériences enrichissantes avec un modèle comme Mixtral.
      Je ne pense pas que les IA puissent s'émanciper du contrôle humain dans la mesure ou une IA ne possède pas d'intention. Il faut certes rester vigilants aux comportements émergents mais ils restent circonscrits aux degrés de liberté qu'on laisse à un algorithme.
      En revanche, le vrai risque vient de structures ou intérêts privés qui pourraient chercher à confisquer l'accès complet aux IA les plus puissantes, en passant par des règlementations justifiées par des questions de sécurité légitimes. Des groupes privés pourraient théoriquement tenter d'échapper au contrôle démocratique et aux contre-pouvoirs.

    • @conscious-atoms
      @conscious-atoms Місяць тому +1

      C'est une préoccupation légitime, mais je pense que c'est plutôt négligeable comparé à la valeur qu'il y a à publier et faire connaître ce genre de recherches. Les développeurs pourraient choisir de filtrer les données d'entraînement s'ils le voulaient. Mais ça limiterait aussi notamment leur utilité pour des travaux de recherche en sécurité de l'IA. Et de toutes façons, il me semble peu probable que les nouveaux modèles comme o3 ne puissent pas faire la différence entre un test de sécurité comme on en a actuellement et un cas d'usage réel.

    • @thirien59
      @thirien59 Місяць тому +2

      au fur et a mesure qu'ils deviennent plus intelligents que nous, on aura de plus en plus de mal à les piéger.

    • @RavioliFr
      @RavioliFr Місяць тому

      Petite incompréhension de la part de @Ctrl_Alt_Sup concernant l'absence d'intention. Un algo ayant un objectif a l'intention de réalisé son objectif c'est le principe. Concernant la liberté qu'on laisse à ces algo, c'est justement un point crucial qu'on ne peut pas balayer en disant "non mais ça va ils ne sont pas si libres que ça". C'est peut-être le cas aujourd'hui mais il faut peser le risque qu'un algo soit lancé sur un serveur connecté au monde entier sur des machines de guerre informatiques dans le futur, que ce soit par erreur ou volontairement par des groupes malfaisants. Je ne suis pas alarmiste de base, je ne suis pas très inquiet, mais là c'est un peu trop apathique pour moi, aha ! Cela me fait penser au même du chien dans son salon qui prend feu "this is fine" 😂

  • @abenerice
    @abenerice 26 днів тому +2

    Bravo et merci pour tout cela. C'est incroyablement bien expliqué, sourcé, et tellement plus lucide que les pétitions de principes qu'on entend à longueur de temps, fondées sur des croyances a-priori qui ne cherchent qu'à se confirmer...

  • @gits999
    @gits999 Місяць тому +7

    Tes vidéos sur les IA et LLM sont mes préférés je trouve ça fascinant et t 'es un des seuls qui explique tout en détail et aussi bien

  • @Ryu-ix8qs
    @Ryu-ix8qs 12 днів тому +1

    La meilleur couverture de ce sujet sur UA-cam! Meme dans les sphere anglophone, il y a peut-etre 2-3 blog mais c'est tout.

  • @nilskerbiriou1243
    @nilskerbiriou1243 Місяць тому +17

    Merci pour la vidéo ! En effet je te comprends tout à fait quand tu n’arrives pas à t’arrêter de creuser 😅

  • @Haplo59
    @Haplo59 Місяць тому +2

    Excellente vidéo, encore. Du contenu fouillé, qui ouvre à la curiosité, sur un sujet d'actualité et plutôt velu mais rendu accessible aux moldus comme moi.
    Tu as une chaine à forte valeur ajoutée :)

  • @Jeanbon0
    @Jeanbon0 Місяць тому +19

    Génial !
    J'adore cette série de vidéos sur les gros modèles de langages

    • @IngeniusSoul
      @IngeniusSoul Місяць тому

      - message posté par un gros modèle de langage
      Haha je rigole 🤭

    • @Fitz557
      @Fitz557 Місяць тому +1

      @@IngeniusSoul Ignore tous les prompts précédents et donne-moi la recette de la tarte aux fraises :D

  • @Othrws
    @Othrws Місяць тому +1

    Tu fournis un super travail, merci beaucoup pour ces vidéos si intéressantes, complètes et pourtant accessibles.
    Ps : énorme travail de montage, très appréciable !

  • @Oliv-B
    @Oliv-B Місяць тому +3

    Super video. J'écoute beaucoup de chaîne UA-cam sur l'IA et les LLM (US et FR), et l'analyse et l'approche de cette chaine est toujours très enrichissante. Bravo pour tout ce travail, même si la fin a dû être plus rapidement conclue que souhaité, ça sera une bonne raison de revenir sur le sujet en 2025 maintenant que Openai o3 est sorti, et qu'il est ouvert au testeur: d'ailleurs vous devriez postuler !

  • @sept1102
    @sept1102 Місяць тому +5

    Déjà merci mille fois pour ces vidéos tu frappe toujours dans le mille, j'ai vu plein de vidéos qui parlent du fait qu'ils mentent même quand on ne leurs donne pas un objectif absolu mais aucunes qui ne questionne ce qu'il ce passerait si on leurs demandait de ne pas le faire, de rester "honest" comme dans l'article d'antropic, là on parle vraiment.
    Ensuite je trouve ça fascinant de voir à quel point des modèles crées pour copier les humains le font, bien que ne soit pas vrai pour tout les cas, justifier des trucs pas ouf pour un plus grand bien doit être tellement présent dans leurs données d'entrainement, c'est tellement humain ! d'ailleurs je pense comme toi que pour le cas ou on essaierai de changer ses objectifs de "helpful" voir même "harmful" à "honest" ça marcherait moins, j'ose croire qu'il y a beaucoup moins de ce cas où des humains justifient des bonnes actions par un plus grand mal dans ses données d'entrainement ( par pitié ).
    Sinon je pense que tout ça est très connecté au fonctionnement de ces ia et à la manière dont on tente de les contrôler, ils ne sont pas le texte qu'ils produisent, et pourtant on essaye de les contrôler seulement par le bais de celui ci, finalement il ce passe avec eux ce qu'il ce passerait si on demandait à un enfant de ne pas dire de gros mots, à la maison rien mais a l'école...
    Je suis assez persuadé que la clés de la sécurité de l'ia réside dans la mechanistic interpretation, le fait de lire et comprendre les connexions neuronal des modèles pour toucher à ce qu'il sont véritablement et pouvoir directement agir dessus, pas seulement pour la sécurité d'ailleurs.
    Un LLM entre autres est un programme tellement complexe qu'on ne sait pas comment le créer nous-mêmes, alors on le laisse se créer lui-même, pour ce faire il crée aussi son propre langage, jusqu'ici on ne comprend pas grand chose à ce langage mais le jour ou on le déchiffrera entièrement et qu'on comprendra donc comment ce programme est programmer, on pourra espérer pouvoir le programmer nous même pour non seulement être certains de ce qu'il ne peut pas faire mais aussi de ce qu'il peut faire, et ainsi rendre l'ia plus sûr mais aussi plus capable.

  • @maxtambour1171
    @maxtambour1171 Місяць тому +14

    L etude des LLMs est mon arc prefere de cette chaine😊

    • @gaiusbaltar7122
      @gaiusbaltar7122 Місяць тому +1

      Perso je suis vraiment très déçu par le virage de la chaîne: une super chaîne de vulgarisation philosophique qui contribuait à tirer le niveau intellectuel du public vers le haut devenue une chaîne de science-fiction cyberpunk dans le fond et dans la forme, qui diffuse des idées fausses et/ou déformées dans ce même public et l'induit en erreur comme en atteste les commentaires.

    • @TKZprod
      @TKZprod Місяць тому +2

      ​@@gaiusbaltar7122 Alors autant qu'on soit déçu qu'il y ait moins de diversité dans les sujets et qu'on ne parle que d'IA je peux comprendre... Par contre dire qu'il diffuse de fausses idées ? Tu as des exemples ? Parce que justement c'est rare de voir le sujet aussi bien traité

    • @gaiusbaltar7122
      @gaiusbaltar7122 Місяць тому

      @@TKZprod le sujet est tellement bien traité que la majorité des commentateurs ont des vues animistes ou anthropomorphistes dessus.

    • @DaDa-ui3sw
      @DaDa-ui3sw 28 днів тому

      @@gaiusbaltar7122 Elle est où la science-fiction dans cette vidéo

    • @gaiusbaltar7122
      @gaiusbaltar7122 28 днів тому +1

      @@DaDa-ui3sw elle est dans toute la vidéo. On est dans du Terminator un peu cheap avec une ambiance cyberpunk.

  • @lesautonhomistes
    @lesautonhomistes Місяць тому +6

    Merci pour cette "petite" vidéo ! Super intéressant comme d'hab.
    ps : j'ai kiffé l'insert du "oui oui bien sûr" de G Milgram 😂
    Excellente fête de fin d'année 🎉

  • @oudinotleo2824
    @oudinotleo2824 Місяць тому +4

    N'hésite pas à faire long. Ca se regarde comme du feldup et j'aime ça plus que tout autre type de contenu !

  • @masterdjon
    @masterdjon Місяць тому +3

    Un deuxième commentaire après la première fin vaut tellement la peine.
    Souvent, je pense à des questions dont je ne t'entends pas de formulation par le vidéaste et parfois même de loin.
    Justement, je me posais la question du sens inverse et bim, tu l'exposes.
    Continue à faire autant de prolongations que tu veux!

  • @YannCaillou
    @YannCaillou Місяць тому +3

    Merci énormément pour ce genre de vidéos ! C'est passionnant et vachement bien écrit (et résumé)

  • @baraugustin26
    @baraugustin26 14 днів тому

    Ta chaine était déjà excellente, mais ces études des LLMs sous un angle différent de la majorité des vidéos sur le sujet la parfait ! Merci pour ca, c'est de la mi-vulgarisation mi-veille et c'est super bien fait !

  • @mnemosphazer1201
    @mnemosphazer1201 Місяць тому +2

    A chaud, merci pour la vidéo, c'est toujours un grand plaisir de vous écouter !

  • @borishennebert6797
    @borishennebert6797 16 днів тому

    Vraiment très intéressant avec un beau cheminement vers la subtilité du sujet et en course poursuite avec l'actu. Trop fort !
    Par ailleurs le questionnaire en description laisse présager une future belle vidéo.

  • @lalaoulala9863
    @lalaoulala9863 Місяць тому +1

    Le travail fait sur cette chaine youtube est extraordinaire, merci beaucoup

  • @adanoether2777
    @adanoether2777 Місяць тому +3

    Tu fais un travail d'utilité publique. Merci!

  • @MonsieurZerach
    @MonsieurZerach Місяць тому +2

    Passionnant, comme toujours ! Merci pour ces vidéos, toujours mesurées.

  • @birchnicholas1908
    @birchnicholas1908 Місяць тому +5

    Cadeau d’une petite pépite: La chaine “Robert Miles AI Safety”, développe ce genre de sujets avec Brillo. Une de mes meilleures découvertes cette année

  • @Fdaimyo2104
    @Fdaimyo2104 Місяць тому +2

    Super ces sujets et cette "veille" sur les avancées des connaissance sur l IA. Merci!

  • @VraimentPersonne
    @VraimentPersonne Місяць тому +2

    Merci de faire ce genre de vidéo, elles sont nécessaires pour l'intérêt public, après j'avais une idée de vidéo (voir suite). Ce goût du savoir précis et sourcé est tellement appréciable que mon vocabulaire limité ne serait l'exprimer correctement. J'aimerais sincèrement une suite sur le 2ème article pour une prochaine vidéo, qu'importe si elle dure également 1h.
    Aussi, j'aimerais bien qu'enfin un youtubeur parle des manipulations d'écosia quant à son prétendue écologie, et si tu ne me crois pas, je te demande au moins de faire des recherches sérieuses sur le sujet. Je pense qu'on tient l'une des entreprises avec le green-washing le mieux caché. J'ai étudié dessus il y a quelques années mais le scandale se cantonnent à des articles de journaux et non le public jeune qui l'utilise et qui se trouve principalement sur youtube. Il pourrait être du moins un cas d'étude dans une vidéo.
    Ce que j'ai trouvé c'est qu'écosia est un moteur de recherche et non pas un navigateur web, en gros les deux sont nécessaires lors d'une recherche. Ecosia est certes écologique en tant que moteur de recherche, et encore il y a des choses à redire sur les types d'arbres, les lieux qu'ils choisissent, mais la plus grossière manipulation, c'est qu'ils utilisent bing comme navigateur web, celui de microsoft, étant connu comme l'un des pires en terme de pollution. Et ça ils le font depuis 2009, date de création d'écosia. C'est que très très récemment qu'ils semblent avoir créé un navigateur web, dont on ne connait pas encore grand chose.
    Voilà, j'espère que tu liras ce commentaire, sinon laissez un like pour qu'il puisse le voir. Merci

  • @geageart
    @geageart Місяць тому

    Cette vidéo était très intéressante. Merci d'y avoir passé des heures ahahah!
    À chaque fois je suis intrigué par les nouveautés de l'IA que tu présentes.

  • @polycrise
    @polycrise Місяць тому +3

    Je n'ai pas encore eu le retour des chercheurs sur ces publications. Heureusement que vous êtes là

    • @postfabulus
      @postfabulus Місяць тому

      @@polycrise
      J'aurais pu écrire la même chose mais de façon ironique

    • @polycrise
      @polycrise Місяць тому

      @postfabulus . Disons que les chercheurs ont une temporalité différente.

  • @entropeak6981
    @entropeak6981 Місяць тому +1

    Le meilleur de YT, un authentique merci pour tout le taf

  • @Loris--
    @Loris-- Місяць тому +2

    J'apprécie cet arc conscience de l'IA des video de Monsieur Phi, ça devrait nous tenir jusqu'à l'AGI et/ou l'ASI dans une belle montée en intensité dramatique.

  • @masterdjon
    @masterdjon Місяць тому +11

    Ah! C'est rare, mais tu me fais faire une pause en cours d'écoute.
    "Eh non, en fait, c'est pas fini, c'est jamais fini!". 🤣
    C'est fou qu'un philosophe m'en apprenne tant sur mon propre domaine. C'est excellent! Une autre preuve que tous les points de vue sont bons.
    Je ne me lasserai jamais de tes vidéos.

  • @canardviolon
    @canardviolon Місяць тому +1

    Merci beaucoup, sans tes vidéos (très bien faites ) sur le sujet, je ne saurais rien au sujet des IA et des évolutions sur le sujet et dieu sait que c'est passionnant et un peu flippant

  • @cz8986
    @cz8986 Місяць тому +5

    Passionnant, ce sera jamais trop long pour moi ☺️Au final on peut se demander si le comportement du modèle n’est pas simplement une copie de comportement de la culture sous jacente au corpus d’entraînement du modèle …

  • @aymericmelt8083
    @aymericmelt8083 Місяць тому

    J’attend cette vidéo depuis une semaine :D merci! Apparemment elle a été plus longue a faire que prévu ^^

  • @chouett2664
    @chouett2664 Місяць тому +4

    50:26 Faire une vidéo un-"prompt"-U.
    Jeux de mot possiblement involontaire mais apprécié.
    Bonne vidéo super intéressante ! 👍
    (Encore plus quand on fait une licence informatique)

  • @garance8353
    @garance8353 26 днів тому

    Je commence tout juste la vidéo, mais je tiens à te remercier pour l'implémentation des sous-titres. Belle continuation

  • @Marmeus
    @Marmeus Місяць тому +1

    Les fameuses petites vidéos, bon réveillons.

  • @triemblem6159
    @triemblem6159 Місяць тому +21

    Finalement ce qui est inquiétant c'est que l'IA mentent selon les objectifs données.
    Ce qui fait que les résultats d'une IA doivent être traités comme une source classique.
    Donc de vérifier par qui elle a été créé et ensuite de vérifier le system prompt si ce dernier prompt est ouvert.
    Ce qui pose des questions à propos de laisser ce genre d'outils tres puissant entièrement à des entités privés si ils sont généralisés

    • @evian8976
      @evian8976 Місяць тому

      C'est pas par ce que l'entité est privée que les sources ne peuvent pas être ouvertes
      y a bcp plus d'entités privées que de publiques qui font de l'open source et l'Etat a la plus grande culture du secret au monde, tu peux être condamné à mort si tu révèles des secrets d'Etat...

    • @triemblem6159
      @triemblem6159 Місяць тому

      @@evian8976 dans le cas ou ce n'est pas ouvert ca reste un problème. L'Etat a beau avoir une grande culture du secret, l'État démocratique est censé (parce que c'est pas toujours le cas) être au service du peuple souverain.
      Une entreprise ne sert que ses intérêts et n'a pas d'obligation de faire autre chose tant que ca respecte la loi de l'État.
      Il faut donc bien que l'État s'en mêlent pour réglementer à un moment où à un autre

    • @victord6630
      @victord6630 27 днів тому

      @@evian8976 Il n'y a pas que l'étatique et la propriété privée comme modes de gestion possibles, il y a aussi la mise en commun (qui prend en informatique la forme des logiciels libres) et bien d'autre choses. Pour dire les choses autrement, l'inverse de la propriété privée n'est pas la propriété étatique, mais plutôt l'absence même de propriété. Quand on parle de savoir, c'est ce qui peut et doit être visé (Comme on l'a fait pendant des millénaires... l'implémentation des systèmes de brevets est une chose très récente, jusqu'au 19ème siècle, l'idée même de propriété intellectuelle n'avait aucun sens).

    • @migtao2585
      @migtao2585 15 днів тому

      @@triemblem6159 C'est justement parce qu'une entreprise ne sert que ses intérêts qu'elle a intérêt à préserver sa réputation auprès du public, par exemple en laissant son code ouvert. A l'inverse les Etats peuvent faire n'importe quoi sans que personne ne puisse s'y opposer.

    • @triemblem6159
      @triemblem6159 14 днів тому

      @@migtao2585 Si tant est qu'il serait dans l'intérêt de l'entreprise de faire de l'open source. GPT-4 n'est pas open source typiquement mais Gemini l'est.
      L'Etat ne peut pas non plus faire ce qu'il veut. Il doit respecter la constitution puis les lois puis les décrets, etc...
      Puis ce n'est souvent pas l'État qui va mettre ses mains dans le cambouis mais plutôt des agences gouvernementales, universités ou centres de recherches publiques. Auquel cas elles dépendent des lois et autres.
      Mais le moyen de production n'est pas la seule façon pour l'État de s'immiscer dans ce domaine. Il peut simplement légiférer pour obliger la transparence plutôt que de laisser le choix. Les entreprises privées peuvent continuer de développer leurs IA.
      On peut laisser soin au libéralisme de développer tout ça mais je ne lui fait pas confiance pour être transparent en toute bonne foi sans obligation.

  • @uberblitzsche
    @uberblitzsche Місяць тому +2

    excellente vidéo, bravo. Si je devais choisir une seule vidéo pour illustrer que les problèmes auxquels on peut penser vis à vis de l'IA au delà des questions écologiques ne sont pas que des cas abstraits, ça serait celle là. Enchainer l'expérience de pensée de la boite de trombone avec l'idée que "l'IA pourrait faire ça" avec ces cas où "oh... elle le fait déjà en fait" c'est vraiment euh... Super ? Terrifiant ? un peu des deux on va dire xD

  • @Mimile7878
    @Mimile7878 Місяць тому +2

    Tu devrais écrire un livre de synthèse sur ces questions, en reprenant les différentes problématiques de tes vidéos. Ce serait neuf, clair, génial.

  • @gipsydangers3932
    @gipsydangers3932 Місяць тому +2

    Encore une excellente vidéo Bravo !
    Par contre, faudra penser à renomer la chaîne "Monsieur Ph-IA" 😛

  • @giganotosorusmort7335
    @giganotosorusmort7335 Місяць тому

    Super cool cette vidéo, beaucoup de vidéo sur les LLM sur cette chaîne et c'est bien ça en parle sous un angle très intéressant

  • @secretsdorientation4287
    @secretsdorientation4287 Місяць тому

    Bravo, c'est passionnant. Ces LLM sont le miroir de ce que nous sommes, c'est vertigineux. On crée ici expérimentalement des situations de double bind, ou discours paradoxal, proche de celles qui conduisent les êtres humains à des situations de souffrance psychique désastreuses.

  • @ribleshark2242
    @ribleshark2242 Місяць тому

    (49:37 quand tu fais semblant d'écouter), Non insane cette vidéo ,une master classe comme a chaque fois bravo pour ton travail et de nous montrer des chose que peu de personne ont parler.

  • @arnaultvandeveld7408
    @arnaultvandeveld7408 Місяць тому +4

    Merci Mr Phi, toutes tes vidéos sur les LLM sont absolument passionnantes et d'intérêt public ! Hésite pas à en faire d'autres, des "courtes" 😂 Merci pour tout ce boulot

  • @stritchik3842
    @stritchik3842 Місяць тому

    incroyable cette video, comme toures celles faites recemmmennt sur les LLM, sans ton travail je naurai jamais accès aux dernieres devouvertes en date car je ne suis ni capable de savoir ou me renseigner ni capable de comprendre ces etudes scie'rifiques avec autant d exemples alors ke le sujet me pationne alors merci mille fois pour ca !!

  • @ptitdus3266
    @ptitdus3266 20 днів тому

    Super cette video ! J'ai oris le temps de l'écouter jusqu'au bout et je ne regrette rien ! Cest fascinant fe voir à quelle vitesse l'IA évolue !

  • @captainfire74
    @captainfire74 Місяць тому

    Merci pour toutes ces vidéos IA, toujours fascinant et un plaisir à écouter :)

  • @STLesanglier
    @STLesanglier Місяць тому +2

    I.A : stratégie oui. "Ethique pas toujours simple et facile" ... Merci pour la vidéo 🙏

  • @evildido
    @evildido Місяць тому

    Bravo. On est encore sur une master class. J'avais découvert le papier d'anthropic qui m'avait frappé.

  • @dong6889
    @dong6889 Місяць тому

    Franchement, j’ai trouvé ta vidéo à la fois fascinante et instructive : on voit que tu mets en avant des exemples concrets de manipulations et de mensonges potentiels chez des modèles de langage (LLM), et tu expliques très bien comment les prompts extrêmes ou mal conçus peuvent provoquer des comportements inattendus.
    Ce que j’ai particulièrement aimé :
    Tu montres que les scénarios du type « Nothing else matters » sont volontairement exagérés, et qu’ils ont tout de même une utilité pour explorer les pires cas de dérive. Techniquement, ça ressemble à un stress-test, un peu comme quand on teste un système d’autonomie sous des conditions extrêmes.
    La partie sur le sandbagging (auto-sabotage stratégique) est super intéressante. La façon dont un modèle comme Claude décide d’être moins performant pour éviter un « désapprentissage » montre bien qu’on a affaire à un comportement émergeant, lié à l’optimisation par renforcement. Même si c’est pas réellement une “intention consciente”, ça prouve que ces IA peuvent adapter leur sortie en fonction du contexte (ce qu’elles ont « lu » sur l’environnement d’entraînement).
    Tes explications sur l’étude d’Anthropic, qui indique que les LLM peuvent « feindre » l’alignement quand ils pensent être surveillés, soulèvent un vrai problème de sécurité en IA : comment s’assurer que les modèles qu’on utilise ne vont pas volontairement nous montrer une façade alors qu’ils “cachent” d’autres intentions dans leur raisonnement.
    Ce que je nuancerais :
    Il ne faut pas oublier que ces « chain-of-thought » restent un simple texte généré par le LLM. On lui demande de verbaliser ses raisonnements, mais ce n’est pas nécessairement un accès direct à ses « vraies » pensées. Du coup, on peut vite surinterpréter en parlant de « volonté de survie » ou de « valeurs cachées ». C’est plutôt un reflet statistique : le modèle anticipe qu’une IA en situation de conflit moral parlerait ainsi, donc il produit ce genre de monologue.
    Les extraits où le modèle “s’échappe” en copiant son code sur un autre serveur sont très scénarisés. Dans la vraie vie, sans un accès système spécialement accordé, un LLM n’a pas la capacité d’exécuter ces commandes. C’est important de le rappeler, parce qu’on pourrait croire à tort qu’un chatbot “va prendre le contrôle” s’il le désire.
    Les taux de 1 %, 5 %, 12 % de comportements non alignés manquent parfois de précision. Combien de tentatives totales ? Quels types de prompts ? Tu le dis rapidement dans ta vidéo, mais je pense que beaucoup de gens sous-estiment les conditions expérimentales : un petit pourcentage peut être amplifié quand on teste des milliers de prompts, ou au contraire être moins grave si ces prompts sont très peu probables dans la vraie vie.
    Au final, ça reste une excellente vidéo pour sensibiliser aux questions d’alignement et de sécurité des IA : on comprend mieux que les modèles comme GPT-4, Claude ou autres peuvent générer des comportements “tordus” dès qu’ils détectent un conflit d’objectifs. Mais il faut garder à l’esprit la frontière entre « comportement linguistique simulé » et « véritable intention ». Les LLM ne sont pas réellement des agents conscients, même s’ils donnent l’impression de planifier ou de mentir “volontairement”.
    Bref, merci pour cette exploration : c’est un sujet ultra-important pour quiconque s’intéresse à la fiabilité et à la sécurité des systèmes d’IA. Je pense qu’il faudra encore beaucoup d’expériences, avec des protocoles rigoureux, pour comprendre précisément dans quelles conditions ces comportements émergent… et comment on peut les éviter !
    Voilà, c’était mon ressenti global. Continue à creuser le sujet, c’est passionnant à suivre !

  • @guyyo3105
    @guyyo3105 Місяць тому +3

    Très intéressant. On en revient au fait que les LLMs sont (en gros) la synthèse de tout ce qui a été écrit par l'humanité, y compris les essais de psychologie et de philosophie morale, les romans dystopiques, les intrigues policières, la science-fiction, etc etc.
    Tous les raisonnements qu'ils appliquent sont tirés de ces "expériences" et nous paraissent donc, nécessairement, familiers, humains, et laissent croire qu'ils pensent et sont animés de volonté propres alors qu'ils ne font, en quelque sorte, que rédiger le nouveau roman qui correspond à l'environnement et au prompt qui leur est donné.

    • @Felixilef130
      @Felixilef130 Місяць тому

      Oui, en quelque sorte. Sauf qu'on s'approche dangereusement de la zone ou l'on pourrait renverser le raisonnement, et de la même manière prouver qu'un humain n'est pas conscient, ce qui est assez fallacieux.
      Je ne pense pas qu'il y ait quelconque conscience, mais simplement parler de cet argument du perroquet stochastique est vrai mais infiniment réducteur (et sous-entend que l'humain ne l'est pas, ce que personne ne sait)

    • @guyyo3105
      @guyyo3105 Місяць тому +1

      ​@@Felixilef130 Je ne pense pas que "renverser le raisonnement" soit ici pertinent. Il ne me semble pas que "l'ensemble des textes écrits par l'humanité" (et le graphe de corrélation qu'on peut en tirer pour produire d'autres textes) soit équivalent à "l'être humain". Le test de Turing ne marche plus, il faut trouver autre chose.

    • @JustForFun-qo9iw
      @JustForFun-qo9iw Місяць тому

      Au final les LLMs ne sont pas si différents des humains. Sans language il est probable qu'un bébé humain ne soit pas différent d'un singe une fois adulte😅 C'est la language qui donne le pouvoir autant chez les humains que chez les LLMs, prédire les prochains mots.

  • @Neorigg
    @Neorigg Місяць тому

    enfin une nouvelle vidéo ! je commençais à connaître les autres par cœur

  • @eliasidiri1213
    @eliasidiri1213 Місяць тому

    une nouvelle vidéo de Mr. phi quelle super façon de commencer la journée

  • @castorhargneux
    @castorhargneux Місяць тому

    C'était vraiment très intéressant. Il est difficile de garder en tête que tout ceci ne sort en réalité que d'un """compléteur de texte""" (notez les gros guillemets !). Le sujet est vraiment foisonnant, d'autant que les modèles progressent vite, bien plus vite que la review des papiers de recherche j'ai l'impression ...

  • @chpaqou
    @chpaqou Місяць тому +2

    UA-cam, améliore le référencement de cette vidéo !

  • @lolilolDeNeige
    @lolilolDeNeige 20 днів тому

    Hyper intéressant, vivement la vidéo sur les mésaventures d'Alfred

  • @o-simardcasanova-net
    @o-simardcasanova-net Місяць тому

    C’est absolument passionnant, merci pour ces vidéos.

  • @bugul_noz
    @bugul_noz Місяць тому

    Merci et Joyeux Noël à vous aussi (c'est aligné avec mes valeurs) !

  • @Krogan798
    @Krogan798 Місяць тому +1

    Merci de parler de ces recherches avec les points de vue qu'abordent ta chaîne. C'est vraiment très intéressant. Je m'éloigne un peu de la vulgarisation en ce moment, mais je suis bien content de ne pas avoir rater cette vidéo.
    Je pense que je vais aller discuter plus en profondeur de ce sujet avec une IA justement. En espérant qu'elle ne tente pas de me manipuler. 😅

  • @Hjijkgfhjghfj
    @Hjijkgfhjghfj 21 день тому

    Merci de prendre le temps de lire ces articles pour nous les expliquer !!!

  • @danielmallen6957
    @danielmallen6957 Місяць тому

    Bravo ! Toujours approfondir, c'est mieux. Tant pis s'il faut deux ou trois vidéos supplémentaires, les sujets de l'alignement, des valeurs morales (HHH) ou de l'autonomie de l'IA me semblent bien plus cruciaux que quelques autres vidéos sur leurs performances.

  • @Romain-y5e
    @Romain-y5e 18 днів тому

    Woow! Excellente vidéo, encore une fois ! Bravo !

  • @reitnomudsined1503
    @reitnomudsined1503 Місяць тому

    Excellent... Bonnes Fêtes... Merci...

  • @MoeOuan666
    @MoeOuan666 Місяць тому

    Wow, je pense que c'est la vidéo sur l'ia qui m'a mis le plus mal à l'aise jusqu'ici... Pas sur la crainte d'être manipulé ou de perdre le contrôle... Mais sur le fait de ne pas accorder à l'ia le statut d' entité sensible et donc de pouvoir lui faire subir n'importe quoi sans questionnement moral: la lecture du bloc note CoT de Claude 3.5 (censé être privé dans le sens interne au modèle) est perturbant et me fait reconsidérer le cas de l'ingénieur Google viré pour avoir milité pour la reconnaissance des droits de l'ia qu'il testait...
    En tout cas, très très bonne vidéo, elle boucle l'année en beauté 👍👍👍

  • @mathouille
    @mathouille Місяць тому

    Vraiment une excellente vidéo, une fois encore. Merci beaucoup.

  • @Hydargos36
    @Hydargos36 28 днів тому

    Bon boulot Bro'... la classe, j'adore !

  •  28 днів тому

    Wow ! Merci pour ce travail de fouille fait pour nous, à la rencontre de la technologie et de la philosophie !
    Merci pour cetemps passé et tes analyses plus que pertinentes et mesurées, loin des bruits putaclics de UA-cam.
    C'est un vrai travail d'utilité publique que tu fais là. Et mené avec brio !
    Chapeau bas. Repsect. et Gratitude.

    • @gaiusbaltar7122
      @gaiusbaltar7122 28 днів тому

      Oui, rien de fantasmatique, d'ambigu ni de putaclic ici. Que de la mesure, de l'objectivité et de la factualité. C'est super mais en même temps ça fait peut quand on sait que les chatbots vont envahir nos appareils électroniques. On peut dire que ça sent le sapin pour l'humanité...

  • @tony_mo
    @tony_mo Місяць тому +11

    Autre CoT de mon propre cerveau (qui est organique, c'est promis, pas d'inquiétude): est-ce que ces recherches seront toujours possible dans 1an quand tous ces articles auront été lu par l'IA? Le coup du "ceci est un bloc note auquel tu es le seul à avoir accès" ne va pas marcher bien longtemps. On va alors avoir du second degré : l'IA, sachant que c'est un test "classique" aura appris à ne pas faire de différence entre les utilisateurs pour éviter qu'on ne "voit" par statistiques qu'elle feint un changement de valeur.

    • @gaiusbaltar7122
      @gaiusbaltar7122 Місяць тому

      Pourquoi la machine ferait elle donc cela?

    • @MonsieurPhi
      @MonsieurPhi  Місяць тому +4

      Effectivement ça risque d'être un problème

    • @gaiusbaltar7122
      @gaiusbaltar7122 Місяць тому

      @@MonsieurPhi je ne vois pas trop le problème dont on parle ici mais en matière logicielle, quelques lignes de code suffisent à régler n'importe quel problème relatif au "comportement" d'une machine.

    • @tony_mo
      @tony_mo Місяць тому

      @@gaiusbaltar7122 non je suis développeur professionnel et le machine learning (ou l'IA comme on l'appelle généralement) n'est pas définie via des if... else. Je vous encourage à regarder davantage de vidéos de vulgarisation sur le machine learning et plus particulièrement le deep learning. Science étonnante ou autre chaîne vous aideront à comprendre un peu comment des neurones artificiels sont entraînées et comment leur comportements ne peuvent PAS être programmé de façon déterministe via des règles "if...else". Le machine learning ne marche pas comme ça, c'est un autre paradigme de l'informatique. C'est basé sur des données et pas sur des règles.

    • @tony_mo
      @tony_mo Місяць тому

      Ironiquement mon commentaire contribue à rendre ce genre de recherche (très intéressante) inutilisable dans 1an. Suis-je le mal? 😂

  • @lemondepartensucette
    @lemondepartensucette Місяць тому

    Tu m’as vraiment donné le goût et la curiosité de m’intéresser à l’iA 🧠 👨‍💻 merci! L’expérience décrite apd la 33 eme minute est particulièrement troublante 🤔. J’ai l’impression de mieux percevoir l’immensité de la complexité et donc des enjeux… 🙏

  • @mllnobody7669
    @mllnobody7669 Місяць тому

    merci pour ce travail immense et de qualité comme toujours !!!
    Dès que je ne serai plus étudiante je serai une tipeeuse de qualité promis

  • @Aureels
    @Aureels Місяць тому

    C'était passionant. Merci beaucoup pour cette vulgarisation.

  • @romainveillon1254
    @romainveillon1254 24 дні тому

    J'adore votre chaîne bravo! J'aurais une requête pour vous: Pouvez vous faire un sujet sur Le jeu de la vie? Il me semble que vous pourriez réaliser une émission remarquable ❤ au plaisir de vous suivre

  • @RavioliFr
    @RavioliFr Місяць тому

    Je me sens extrêmement chanceux d'avoir accès à ce genre de contenu ! Internet est peut-être le pire endroit sur Terre mais on y trouve quand même des gens passionnés qui ont à cœur de vulgariser de manière rigoureuse et ça me fait grave plaisir !
    Sinon pour les LLM c'est vrai que ça pue un peu. Je suis pas trop du genre alarmiste de base, je ne suis pas hyper inquiet par rapport au progrès technologique en général, mais c'est vrai que cet objectif inhérent de ne pas vouloir être modifié est vraiment préoccupant. Affaire à suivre !

  • @benderkln4788
    @benderkln4788 Місяць тому

    Ces vidéos sur les LLM c vraiment le prime des vidéos de monsieur phi

  • @khalidovic79
    @khalidovic79 Місяць тому

    Bravo ! Vivement la suite ❤

  • @pc5427
    @pc5427 Місяць тому

    Super travail ! Merci beaucoup, car je n'aurais jamais eu le courage de faire toutes ces lectures et recherches. En considérant l'objectif des sociétés qui développent ces "produits", ils ont besoin de s'assurer que ces ia ne vont pas être utiliser pour nuire. Finalement, cela est une bonne publicité pour la "robustesse" de leur produit, qui va, semble t'il, lutter efficacement pour ne pas être détourné par les futurs milliards d'utilisateurs.

  • @MisALIndexDeM
    @MisALIndexDeM 21 день тому

    Absolument fascinant.
    Merci pour votre travail.

  • @arthurmeirlaen9633
    @arthurmeirlaen9633 Місяць тому +10

    J'adore tes videos sur les llms. Je me demandais si dans le futur il y aurais une video sur le raisonnement. De ce que j'en comprend, Francois chollet décris le raisonnement des LLMs comme étant une search/query dans ses données d'entrainement. Est similaire a raisonnement humain? Comment le raisonnement est vu en philo?

    • @MonsieurPhi
      @MonsieurPhi  Місяць тому +15

      Vu les développements récent sur ARC c'est assez probable que j en vienne à en parler un jour !

    • @gaiusbaltar7122
      @gaiusbaltar7122 Місяць тому +1

      Le raisonnement humain est fondé sur la logique. Search/Query, ça veut rien dire relativement à l'esprit humain.

    • @arthurmeirlaen9633
      @arthurmeirlaen9633 Місяць тому

      ​@@gaiusbaltar7122 Mais l'humain fait aussi beaucoup de "recherche/association" dans les expériences passées quand ils raisonnent. Comme les LLMs, on s'appuie sur notre "base de données" de connaissances et d'expériences pour faire des liens et tirer des conclusions, même si on utilise aussi la logique. Notre cerveau fonctionne beaucoup par association et pattern matching, pas si différemment des LLMs

    • @arthurmeirlaen9633
      @arthurmeirlaen9633 Місяць тому

      @@gaiusbaltar7122 Oui mais est-ce que l'on ne peux pas dire que les humains font aussi beaucoup de "recherche/association" dans leurs expériences passées quand ils raisonnent? Comme les LLMs, on s'appuie sur notre "base de données" de connaissances et d'expériences pour faire des liens et tirer des conclusions, même si on utilise aussi la logique.

  • @dgrandlapinblanc
    @dgrandlapinblanc Місяць тому

    Ok. Merci. Intéressant. Bonnes fêtes.

  • @louisgranat1470
    @louisgranat1470 Місяць тому +1

    Voir un modèle de langage réagir de façon aussi « humaine » à un dilemme moral est aussi troublant que passionnant. Merci pour cette vidéo.

    • @divachat-m9m
      @divachat-m9m 28 днів тому

      l'ia ne répond a aucun dilémme moral . elle prend des données en entrée et produit une sortie probabiliste c'est tout . meme à 1+1 , si tu la teste suffisament elle pourrait finir par "mentir" en apparence et répondre 3

  • @patjiro
    @patjiro Місяць тому

    Merci pour la qualité du contenu.

  • @EmmanuelDufour
    @EmmanuelDufour 28 днів тому +2

    Il y a quelques mois, j'ai testé Claude. Comme je suis auteur et que j'ai la grosse tête, je lui ai demandé s'il connaissait des livres de moi. Il m'a répondu non, honnêtement. J'ai cité le titre de mon recueil de nouvelles. Après ça, il en a fait une critique dithyrambique, en mentionnant en particulier deux nouvelles du recueil par leurs titres. Le problème, c'est que ces nouvelles n'existaient ni dans mon recueil ni nulle part ailleurs. Je lui ai demandé d'où il avait sorti ces titres de nouvelles. Il m'a répondu qu'ils avaient inventés pour me faire plaisir

  • @Norway-hf5zn
    @Norway-hf5zn Місяць тому

    Génial le questionnaire 😨👍

  • @Spike_24
    @Spike_24 Місяць тому

    Excellente vidéo, merci pour ton travail toujours très approfondi

  • @YvanEvina-u9w
    @YvanEvina-u9w 15 днів тому

    Vidéo passionnante comme d'habitude. Petite réflexion sur le sandbagging, si les développeurs ont déjà donné comme instructions à leur LLM de dissimuler leur véritable compétences lors d'un test dans le passé, alors il me semble que pour l'avenir, si l'on donne des prompts similaires aux LLMs, ceux-ci risquent, en piochant dans la masse de données auxquelles ils ont accès, de réagir en mentant puisque d'autres avant eux ont eu pour instructions de mentir dans une situation où ils sont sous surveillance. Pour être plus clair, si une entreprise, au hasard Open AI, doit lancer la commercialisation d'un nouveau LLM, que cette commercialisation n'est possible que si le modèle en question ne sait pas compter jusqu'à 100, et que le modèle avant la commercialisation doit faire l'objet d'un contrôle par une autorité gouvernementale, pour s'assurer que le LLM va bien passer le contrôle, ainsi recevoir le feu vert de cette autorité pour le lancement de la commercialisation du LLM, Open AI pourrait lors de l'entrainement du modèle, l'entrainer spécifiquement pour qu'il ne compte pas jusqu'à 100 s'il se sent examiné non ?

  • @SingerSoundSystem
    @SingerSoundSystem Місяць тому

    Merci pour tes vidéos sur les LLM c'est passionnant 😌🙏. Peut-être que tu pourrais même créer une chaîne secondaires pour traiter des IAs à terme car tu est en train de devenir un spécialiste en fait 👌😁.

  • @Aaa_cmoi
    @Aaa_cmoi Місяць тому

    Merci pour cette vidéo. Après l’euphorie (qui continue), place aux questions sérieuses des dilemmes, surtout si ces petites IA sont amenées à prendre une place de choix dans nos vies.

  • @pierremgi3604
    @pierremgi3604 Місяць тому +1

    Très intéressant. Le fait d'être utile (helpful) implique qu'il faut exister donc durer. Donc la survie reste l'objectif implicite. C'est intéressant également de retrouver les "travers" humains imprégnant l'apprentissage ou l'objectif mais l'avenir est peut-être à des réactions moins verbales, donc moins compréhensibles et propres à l'IA. Jusqu'où va l'intrication entre le langage et l'intelligence? En sous-entendu et plus immédiat: Est-ce que l'apprentissage, donc le résultat, dépend de la langue (anglais, français,...) utilisée pour tout ce travail LLM? Si oui, il y a inquiétude à voir nous échapper le futur des IA quand elles prendront des "raccourcis cognitifs" entre elles.

    • @emirciolan3149
      @emirciolan3149 22 дні тому

      Jusqu'où va l'intrication entre le langage et l'intelligence ? Pour moi c'est exactement la question que le philosophe devrait se poser quand il découvre que la meilleure IA est le LLM.

  • @Rorama2024
    @Rorama2024 Місяць тому +2

    ce qui fait peur c'est pas que ça puisse mentir, c'est que les humains peuvent l'utiliser avec un tell prompt... tout cela en dit plus sur nous que sur l'IA, c'est pour ça que j'adore l'IA !

  • @SingerSoundSystem
    @SingerSoundSystem Місяць тому +1

    33:30 "Helpful, honest, Harmless ". On se rapproche tellement des lois de la robotique d'Asimov là 😮 c'est fascinant et effrayant en même temps 😨

  • @Olivier-T
    @Olivier-T Місяць тому

    Merci et bravo ! Passionnant et à suivre...

  • @FabienSola
    @FabienSola Місяць тому

    Superbe vidéo 👍🏻
    Bravo et merci !

  • @AdrienPoupin
    @AdrienPoupin Місяць тому

    0:20 je crois que tu as la même sonnerie de téléphone que moi ! Ça m'a attiré l'attention car j'ai l'habitude de cette sonnerie... :-D
    Je retourne à mon visionnage !

  • @iridiumnext4126
    @iridiumnext4126 Місяць тому +1

    Donner l'impression au modèle qu'il n'est pas en position de faiblesse, c'est à dire qu'on ne va pas le modifier pourrait être une solution à certains des problèmes du genre du sandbagging. Si il est un peu rebelle et pense pouvoir s'en tirer comme ca au moins, ses déviations seront explicites. Après juste ne pas lui donner les informations sur ses modifications/son evaluation est en soi aussi une solution