ChatGPT vient de se faire détrôner par des génies français

Поділитися
Вставка
  • Опубліковано 25 вер 2024
  • hype/20
    👀 À ne pas manquer, ChatGPT vient de devenir dangereux : • ChatGPT vient de deven...
    Pas du tout obligé mais si vous vous abonnez ça m'aide vraiment 🙏 : bit.ly/3xqS2pi
    🎥 Suivez l'émission en direct: / micode (c'est 1 mercredi sur 2 à 19h)
    🎙 Toute l'émission en podcast, sur votre plateforme préférée: underscoretalk...
    📸 Les coulisses de l'émission: / underscoretalk
    🐦 Les annonces de dernière minute: / underscoretalk
    En plateau, il y a Tiffany Souterre et Matthieu Lambda !

КОМЕНТАРІ • 906

  • @Alkatsu
    @Alkatsu 8 місяців тому +1440

    En espérant que la boîte ne soit pas racheté par un géant américain et que la France ne freine pas Mistral, on a besoin nous aussi d’un pionnier dans l’IA en France pour ne pas être dépendant des autres pays !

    • @bredpill
      @bredpill 8 місяців тому +13

      qui voudrait rester dans ce TAM

    • @soulysouly7253
      @soulysouly7253 8 місяців тому +1

      D'ici 5 ans ils sont rachetés et ils vont tous partir aux US.
      Deja, les 3 sortent de GAFAMs mdr.
      Il faut savoir qu'aux Etats Unis, un salaire moyen d'un ingénieur est au moins 2x superieur à la contrepartie française, sans parler des investissements qui coulent à flot des que ça touche à la tech, etc. Un ingenieur qui a la possiblité de vendre sa boite a un GAFAM ou travailler pour va le faire sans hesitation.

    • @tomatosbananas1812
      @tomatosbananas1812 8 місяців тому +110

      0:20 Malheureusement les fonds levés sont déjà majoritairement US. En plus de ça, l'état a perdu tout protectionnisme et est même devenu atlantiste donc c'est pas gagné !

    • @marvin.toyboy
      @marvin.toyboy 8 місяців тому

      ​@@tomatosbananas1812 tant mieux que ce soit des titan des comme Nvidia et surtout des US car en France les gens ils savent pas gérer et ils sont trop centrer sur leur nombrils ils vont tout faire capoter, d'ailleurs on le voit là dans les commentaire et le titre de la vidéo (et pas que) on dirait que les gens s'en fiche de l'humanité et de l'évolution, que ce qui les intéressent c'est de faire briller leur nombril en disant "regardez, moi je suis français et c'est des français qui ont crée ce truc de ouf donc ça veut dire que je suis un ouf aussi" bref les gens veulent s'inventer des valeurs aux travers du néant car dans le font c'est pas eux qui ont crée ça et la france ça reste juste un lieu sur une planète.
      D'ailleurs j'en profite pour préciser ici que le titre est mensonger, cet IA n'est que meilleur que ChatGPT 3.5 qui est une ancienne version de ChatGPT, ça confirme tout ce que je dis sur le nombrilisme de la france.

    • @stanislasmartel4544
      @stanislasmartel4544 8 місяців тому +69

      Sous l’air Macron c’est mort et étant dans l’UE aussi. On est perdu…

  • @mblmblmbl
    @mblmblmbl 8 місяців тому +124

    Attention Micode, à 17:00 quand tu parles de la comparaison entre GPT4 et Mistral-medium pour du code Python, le code montré en image quand tu parles de GPT4 est en fait la réponse de Mistral, et quand tu parles de la réponse géniale de Mistral, c'est la réponse de GPT complètement lunaire qui est montrée

    • @nady2296
      @nady2296 8 місяців тому +10

      Merci pour ce commentaire. Je me posais en effet la question. Ça me semblait étrange

    • @didubako6738
      @didubako6738 8 місяців тому +3

      Aha ça m’avais perturbé aussi

    • @zealous_tagada
      @zealous_tagada 5 місяців тому +1

      J'allais commenter la même chose haha, je suis pas super calée en prog, mais les commentaires en comic sans semblait plus critiques en 2e partie qu'en première X) Ça rend ce qui est dit difficile à suivre !

    • @vincentl7007
      @vincentl7007 5 місяців тому

      Merci de cette précision !

  • @gremibarnou8146
    @gremibarnou8146 8 місяців тому +167

    Super les gars. Juste quelques petites précisions pour nuancer et donner une certaine impartialité au sujet:
    - Seul Gemini Ultra (pas le pro) était attendu comme le vrai concurrent de GPT-4 (ça n’empêche que le PRO se fait poutrer par Mixtral 😅)
    - mistral small, c’est bien Mixtral 8x7b. Le Tiny c’est le 7b
    Sinon l’avis d’un gros utilisateur sur le sujet: fin 2023, et assurément 2024 sera l’année des petits modèles très optimisé. Non seulement ça répond à une problématique d’accessibilité infrastructure pour les faire tourner (pc locale, GPU avec VRAM limité, etc), mais c’est également porté par les géants de la Tech du smartphone qui doivent obtenir des petits modèles très performant et safe capable de tourner en local sur les iPhone et autres Samsung (voir Galaxy AI). On le voit avec Microsoft et son modèle Phi-2 qui est trois fois plus petit que Mistral Tiny (pareil pour une version de Gemini)
    Ensuite, j’ai une théorie en ce qui concerne la baisse de performance des LLM propriétaire : je pense qu’ils quantifient leur poids sur des précisions beaucoup plus petites (8 bits, 6 bits ?) afin d’ être moins gourmand en ressources. Il faut quand même pas oublier que ces modèles sont pour la majorité utilisable gratuitement, alors qu’il coûte un rein en infrastructure pour les run. Donc corréler la censure avec la baisse de performance je suis complètement d’accord, mais je pense qu’il faut aussi y voir une tentative d’optimisation (raté du coup 😅)
    Continuez comme ça vous êtes super 🎉

    • @NielsGx
      @NielsGx 8 місяців тому +9

      "- mistral small, c’est bien Mixtral 8x7b. Le Tiny c’est le 7b"
      C'est ce qu'il a dit, mais le montage vidéo est faux

    • @darkfantome7097
      @darkfantome7097 8 місяців тому

      ​@@NielsGxet où on peut l'obtenir ?

    • @darkfantome7097
      @darkfantome7097 8 місяців тому

      ​@@NielsGx bah nous non il dit starling lm 7b alpha

    • @jules4638
      @jules4638 8 місяців тому

      Bah merci 👍

    • @okynawahx3130
      @okynawahx3130 8 місяців тому +1

      Salut, petite question pour un "gros utilisateur". Micode dis que le 7b est rapide (10:52). Est ce que tu confirmes, car je le fais tourner à 1,2 token / seconde sur ma 2070S, je trouve ça pas fou. Et le 8x7B demande de se charger complètement en mémoire (il fait 90Go)

  • @zeteos
    @zeteos 8 місяців тому +73

    On se croirait tellement dans la série Silicon Valley où la start-up arrive à avoir un taux de compression que personne n'avait jamais vu :)

  • @TheRealUsername
    @TheRealUsername 8 місяців тому +140

    L'IA Open-source avance encore plus rapidement que les IA propriétaire, il y a eu beaucoup des centaines d'études sortis ces derniers mois, très prometteur et vont faire réduire les coups tout en augmentant l'intelligence.

    • @marvin.toyboy
      @marvin.toyboy 8 місяців тому +10

      L'IA open source a des décennies de retards sur certaines entités privées qui ne te dévoileront pas leurs avancées technologiques. Faut pas se limité à ce que tes yeux ils voient mais oui ça avance dans l'open-source et le publique (pas forcément open-source).

    • @abdoulayediallo3777
      @abdoulayediallo3777 8 місяців тому +2

      Mistral AI ne sont pas si "Open" que ca.

    • @kcirtapegrev2561
      @kcirtapegrev2561 8 місяців тому

      "réduire les coups" ?@@abdoulayediallo3777

    • @arnaques-tuto-informatique
      @arnaques-tuto-informatique 8 місяців тому

      oui, je demande à tester plutot que de se fier à des vieux tests peut-etre sponso....mistral ai, je les sens pas du tout...en esperant me planter.@@abdoulayediallo3777

    • @Gillianblc
      @Gillianblc 8 місяців тому

      @@abdoulayediallo3777 Tout comme OpenIA...

  • @Meta-dip
    @Meta-dip 8 місяців тому +19

    Je viens de faire quelques tests sur L'API en tiny, small et medium et je suis totalement impressionné. Je dirais comme ça que j'ai des réponses en français meilleurs que gpt3.5 quand j'ai commencé à travailler avec y a 6 mois. J'ai mis un petit historique de conversation pour voir si elle le contextualisait et OUI. J'ai mis des "custom instructions" et pareil, suivies parfaitement. Je suis conquis!!

    • @drm2005
      @drm2005 7 місяців тому

      J'aimerais savoir si c est possible de ľinstaller sur un pc a 16 go de ram ?

  • @Ted_Love_You
    @Ted_Love_You 8 місяців тому +10

    Pour l'avoir tester en local, c'est hyper impressionnant. Par pitié, conservons cette pépite en France, c'est notre seul chance d'exister dans la révolution technologique à venir.

    • @fredp8516
      @fredp8516 2 місяці тому

      Soyez convaincu que ce sera Mistral perdant pour la France. Après sa mission dépouillage Atos ça ne m'etonnerait pas k Thierry Breton soit déjà sur le pont pour Mistral. Depuis Bull c'est devenu + qu'un job pour lui, étant incapable de redresser une entreprise qui va mal l'échec français l'a autant enrichi que ça a donné du sens à sa vie...

  • @misterpolyflow2040
    @misterpolyflow2040 8 місяців тому +28

    Deux choses m'étonnent fortement dans cette vidéo. 1. Autant de réjouissement de l'accélération du développement de l'IA. 2. L'interaction inexistante avec les invités de cette émission. Cela dit, le contenu est très intéressant 😊

    • @stephanebonvallet
      @stephanebonvallet 7 місяців тому +1

      tout simplement parce qu'ils ne maitrisent pas le sujet qu'ils évoquent et c'est très inquiétant ainsi que révélateur du youtube game...

    • @kaz4718
      @kaz4718 7 місяців тому

      j utilise chat gpt de maniere basique, pour des recherches... et j m y connais tres peu, du coup je devrais utiliser quel ia ? @@stephanebonvallet

  • @Negata_
    @Negata_ 8 місяців тому +48

    Ca me rappelle au final l'approche gros studio vs studio indépendant en jeu vidéo:
    Ils finissent toujours pas surpasser parce qu'ils se refusent les mêmes limites et apprennent par les erreurs de ceux qui sont passés avant eux

    • @Mornepin
      @Mornepin 8 місяців тому +6

      A mon avis c'est surtout qu'ils ne sont pas encore assez gros pour se faire emmerder par des régulations. Ca pourrait devenir très difficile pour eux prochainement s'ils ne s'y pliaient pas, un peu comme la semi-cavale de Binance en crypto depuis des années.
      J'espère que l'avenir me donnera tort !

    • @22Epic
      @22Epic 8 місяців тому +2

      Ca fait le buzz (et encore un buzz très limité), mais peu de chance qu'il en sorte quelque chose de concluant.

  • @omarkhanous5696
    @omarkhanous5696 8 місяців тому +7

    Micode est le seul qui ramène des gens sur sa plateforme pour l'écouter parler XD. Ceci dit très bonne vidéo 👍

    • @tibere1982
      @tibere1982 7 місяців тому +1

      En même temps avec des invités qui s'appellent Tiffany Souterre et Matthieu Lambda, fallait pas s'étonner :D

  • @HollyDollyRun
    @HollyDollyRun 8 місяців тому +7

    Le problème c'est que dans ces vidéos, on ne parle jamais de la context length. La CL est le facteur limitant dans l'application des LLMs dans des applications concrètes.
    Llama 2 se fait peut-être laminé par des modèles plus petits sur certaines métriques, mais c'est un des seuls à pouvoir gérer 100k de token en entrée. Tandis que Mistral est à 8k. Et 32k pour Mixtral.

    • @TaHa-nf5vc
      @TaHa-nf5vc 8 місяців тому +1

      Ta des mistrals FT à 128k de contexte de token, check hugging face.

  • @doublek87
    @doublek87 8 місяців тому +20

    Sympa le monologue de 19 minutes avec 30 secondes d'intervention des invités. Le concept d'avoir un set avec des gens, plusieurs caméras, c'est pas d'avoir des échanges ?

    • @Mumixam
      @Mumixam 8 місяців тому +2

      +1 On dirait vilebrequin avec un faire valoir pote a côté

    • @matthieu3213
      @matthieu3213 8 місяців тому +5

      C'est le principe de faire une chronique après...

    • @WanJieMing
      @WanJieMing 8 місяців тому

      Ils servent a rien les 2 guignols, a part dire oui de la tete. Et dire qu'ils sont payer pour ca.

    • @guillaumezukowski6086
      @guillaumezukowski6086 8 місяців тому +4

      J'ai pensé la même ; Le mec c'est son coloc' ou son voisin.. Et la fille il lui a promis de la bière et des cacahouètes !
      Leurs rôles étaient de croiser les jambes en hochant la tête, et de replacer le micro devant leur bouche à chaque gros plan.. Et au final.. Eh bah nan... Au prochain épisode ! 🥸😆

    • @laboriefabien
      @laboriefabien 5 місяців тому

      C'est bien tu viens de découvrir le principe d'une chronique dans une émission

  • @choowie92
    @choowie92 8 місяців тому +26

    "C'est le genre de boite qui me rend fier d'être Francais"
    Exactement!

    • @TheRealUsername
      @TheRealUsername 8 місяців тому +1

      😂 les 2/3 du staff ne sont pas français

    • @42ArthurDent42
      @42ArthurDent42 8 місяців тому

      Moi perso c'est le genre de phrase qui me rend triste d'être humain : des gens aussi intelligents qui sont capables d'être en même temps aussi naïfs...

    • @migtao2585
      @migtao2585 8 місяців тому

      @@TheRealUsername Ce n'est pas le staff qui fait l'entreprise, sinon elles seraient toutes à égalité. Ce sont les dirigeants, leur stratégie, leur capacité à manager, à recruter, à s'adapter etc.

  • @Piteur_par_Coeur
    @Piteur_par_Coeur 8 місяців тому +84

    Un immense bravo à ces Français !
    J'espère que ça aboutira à un vrai gros projet commercial français, et qu'ils ne se feront pas malgré tout bouffer tout cru par les Américains.

    • @lachouette83
      @lachouette83 8 місяців тому +5

      C'est open source..... Et il sont deja au usa...

    • @BatondeBamako
      @BatondeBamako 8 місяців тому +1

      Cedric O qui est resté près de 3 ans au gouvernement (Philippe puis Castex) lors du premier quinquennat Macron, a souscrit comme les autres investisseurs minoritaires a 17 610 actions (0,01cts d’euros/action) de Mistral AI pour la modique somme de 176,10 euros. Un investissement qui s’est transformé en or puisque sur la base de la dernière levée de fonds effectuée par Mistral AI, les actions initiales vaudraient déjà près de… 23 millions d’euros !

    • @Piteur_par_Coeur
      @Piteur_par_Coeur 8 місяців тому +1

      @@BatondeBamako Du coup, un type qui aurait acheté ces actions en échange de quelques minutes de son travail peut maintenant profiter du travail de milliers de gens en ne leur offrant rien en échange. Tu trouves ça juste ? Tu ne penses pas que c'est du parasitisme ?
      L'argent ne devrait-il seulement servir à échanger les biens et les services que nous produisons nous-même contre les biens et services produits par notre voisin ? Si j'ai le droit de profiter des biens et services produits par mon voisin mais sans rien produire en échange, n'est-ce pas du vol ?

    • @BatondeBamako
      @BatondeBamako 8 місяців тому

      @@Piteur_par_Coeur et ouai, si t'as des contacts, tu achète tout à prix cassé

    • @12testmicro41
      @12testmicro41 8 місяців тому +2

      ​@@Piteur_par_Coeur c'est le fonctionnement du capitalisme, ça a l'avantage d'avoir été le meilleur système pour l'amélioration technologique. Par contre, ce système ne peut pas durer indéfiniment car il est intrinsèquement corrélé à la croissance. Et tout système ne peut croître indéfiniment dans un monde fini. Donc à moins de coloniser l'univers nous devrons changer de système tôt ou tard.

  • @Deadknight67
    @Deadknight67 8 місяців тому +15

    Clairement un Mistral gagnant!

    • @AlexandreMathiaud
      @AlexandreMathiaud 5 місяців тому +1

      Merci, j'ai cru que personne ne la ferait celle-là...

    • @SalAbraham7
      @SalAbraham7 3 місяці тому

      ChatGPT ne va jamais se faire détrôner par des petits génies français. ChatGPT-4o représente une avancée significative dans le domaine de l’intelligence artificielle conversationnelle et de traitement du langage naturel.
      Ses nouvelles fonctionnalités offrent des avantages considérables pour les entreprises et les particuliers, allant de la personnalisation avancée à l’automatisation des tâches marketing et à l’analyse des données.
      En intégrant ChatGPT-4o dans leurs opérations, les entreprises peuvent améliorer leur efficacité, offrir une expérience client supérieure et prendre des décisions stratégiques basées sur des insights précis.
      En 2024, ChatGPT-4o se positionne comme l’outil indispensable pour naviguer dans le paysage numérique en constante évolution.

  • @monsieur-top
    @monsieur-top 8 місяців тому +4

    J'adore ta façon de parler c'est hyper simple à comprendre !

  • @Aminoquiz
    @Aminoquiz 8 місяців тому +8

    17:40 petite note pour le monteur : l'illustration est inversée par rapport à ce qui est dit. Tu montre GPT4 quand on parle de Mistral-Medium et vice-versa.

    • @mblmblmbl
      @mblmblmbl 8 місяців тому +2

      Tout à fait !

  • @yacinegaci2831
    @yacinegaci2831 3 місяці тому +1

    Je ne suis pas tout à fait d'accord avec le fait de croire qu'on bénéficie de la performance de 8*7B avec seulement 2*7B de paramètres. Pour le coût de calcul, c'est vrai, mais si on parle de mémoire, tous les 8*7B doivent être chargés en mémoire. Et puisqu'on sait maintenant que les LLMs sont plutôt contraints par la mémoire, je suis tout d'un coup moins emballé par ce genre de dires.
    Après, je tiens à préciser que l'idée de Mixtral est un coup de génie, et que j'adore le principe de Mixture of Experts. Bravo à la boite, et bravo pour cette vidéo :)

  • @christophe3969
    @christophe3969 8 місяців тому +34

    Pouvez-vous mettre en description les liens des articles dont vous parlez dans l’émission ? Par exemple l'histoire avec la comparaison des IA au sujet du code python ? Merci !
    Edit : je l'ai trouvé mais UA-cam ne me laissera pas mettre le lien en commentaire.

    • @garryiglesias4074
      @garryiglesias4074 8 місяців тому +14

      @@MS-yq1hw «C’est le fait que de petits ordinateurs collaborent en P2P avec des ordinateurs plus gros type super-ordinateur ou ordinateur quantique pour donner des résultats locaux.»
      C'est quoi ce charabia ? Le calcul distribué ca a au moins 40 voire 50 ans déjà hein, déjà... Mais les ordinateurs quantiques ? Mais qu'est ce que tu racontes comme connerie !!

    • @garryiglesias4074
      @garryiglesias4074 8 місяців тому +1

      @@MS-yq1hw Et c'est quoi ton lien immonde... Tu découvres les URLs en 2023 ?

    • @yoyosheat
      @yoyosheat 8 місяців тому

      @@garryiglesias4074 UA-cam bloque la plupart des commentaires avec un lien qui redirige en dehors de youtube pour protéger ses usagers. Plutot logique sinon yaurait masse de sites malveillants de partagés. Il a donc mis l'extension entre parentheses pour désactiver la détection du lien

    • @sebastienl2140
      @sebastienl2140 8 місяців тому

      @@garryiglesias4074 genre c'est complexe de rentrer un csv d'un million de ligne dans une bdd ... c'est juste le moteur de bdd qui fait tout (gestion IO et ram)!
      Je serais vraiment curieux de voir en quoi c'est un defi

    • @garryiglesias4074
      @garryiglesias4074 8 місяців тому

      @@MS-yq1hw «Vas te payer des cheveux avant d’ouvrir ta grande gueule» Super argument, on voit que tu es digne de respect...
      Et sinon, t'avais quoi d'utile a dire ? Parce qu'il n'y a ni le fond, ni la forme, ni les gonades... Alors si en plus t'es fier de toi...

  • @davidvincent380
    @davidvincent380 8 місяців тому +1

    La grande force de Mixtral est qu'il peut tourner sur votre machine avec juste 32go de ram (avec 64go c'est encore mieux), pas besoin de gros GPU, voire pas besoin de GPU tout cours si vous avez un bon CPU.
    Un ChatGPT3.5 non censuré à la portée du grand nombre.

  • @Ferrago
    @Ferrago 8 місяців тому +5

    Incroyable ! Encore une fois la veille technique que tu nous proposes est de bonne qualité, merci !

  • @Rudy2k5
    @Rudy2k5 8 місяців тому +2

    Vous savez, les ordinateurs analogiques permettraient d'utiliser l'intelligence artificielle sans nécessiter des composantes aussi performantes et énergivores comme c'est le cas actuellement. Une fois que l'algorithme est entraîné, son utilisation ne nécessite plus autant d'énergie. Ce ne sera pas possible de l'utiliser dans tous les contextes, mais cette technologie a un bel avenir pour plusieurs domaines.
    Je vous invite à regarder la vidéo : "Future Computers Will Be Radically Different (Analog Computing)" de Veritassium

  • @QuentinDme
    @QuentinDme 8 місяців тому +6

    Salut ! Merci pour votre travail dans l'émission !
    Est-ce que vous pourriez ajouter vos sources en description (liens précis) ? Merci :D

  • @LesTestsdeCyril
    @LesTestsdeCyril 8 місяців тому +2

    Hello la team @underscore
    Honoré que vous ayez pris une de mes séquences pour illustrer votre vidéo 🙏

  • @coolben1310
    @coolben1310 8 місяців тому +4

    ChatGPT régresse à fond c'est clair, plus les versions avancent plus il est feignant et stupide, tu dois lui répéter 3 fois un truc pour qu'il le fasse et si tu loupe avec sa mémoire de poisson rouge t'es bon pour recommencer l'explication.

  • @noopsynoopsy7386
    @noopsynoopsy7386 8 місяців тому +4

    Le génie Français réchauffe le cœur ❤️ ça fait plaisir , force prospérité et durabilité à eux👍
    Merci à vous 🙏

  • @bause6182
    @bause6182 8 місяців тому +6

    Ce serait bien que vous fassiez une vidéo sur le gaussian splatting , je pense que c'est une avancée notable dans la 3d depuis neRf, il y a plein de choses à faire possibles comme du motion tracking , de la cartographie 3d , modélisation etc....

    • @OktoPutsch
      @OktoPutsch 8 місяців тому +2

      de ouf. Merci 2 minutes pépères

  • @S8tama_
    @S8tama_ 8 місяців тому +7

    Tu nous as encore trouvé une pépite au top comme d'hab et le fait qu'ils soient français c'est la cerise sur le gâteau ! D'ailleurs en parlant d'entreprise française aui innove il y a cross the ages aussi ( jeux/investissements/nft ) qui a un très jolie projet

  • @powderypastor1242
    @powderypastor1242 8 місяців тому +12

    La corrélation entre le fait d'être politiquement correct et la baisse des performances, ou autrement dit la restriction du raisonnement, est juste magique ! La société devrait en tirer des leçons...

    • @lasagessedemarie
      @lasagessedemarie 8 місяців тому

      Le wokisme fait perdre 30 points de QI à un humain, c'est pareil pour les IA.

    • @DocJohnnyBoy
      @DocJohnnyBoy 8 місяців тому

      Oui je me demande si ce n'est pas une découverte sur nous même

  • @DamielBE
    @DamielBE 6 місяців тому

    en parlant de GPT4 publique devenant "incompétence", il y a une semaine, sur Bing, j'ai voulu que Designer fasse une illustration basée sur une série, avec comme référence un fanart qu'elle avait elle-même générée, et là, pas moyen, c'est comme si on l'avait empêchée de dorénavant créer des fanart ou des fanfictions. J'étais la frustration incarnée!

  • @raph384
    @raph384 8 місяців тому +9

    C'est moi ou ca fait la 3eme ou 4eme fois qu'ils reciclent cette thumbnail 😆 ??

    • @Photoss73
      @Photoss73 8 місяців тому

      3ème fois (avant une prochaine fois 🙂). Y en a d'autres qui ont servi plusieurs fois. Ce qui compte c'est le contenu de la vidéo.

  • @Marcel-en6ju
    @Marcel-en6ju 6 місяців тому +1

    J'ai eu une drôle d'hallucination de la part de Mistral, qui ne s'est pas représentée ensuite:
    A la question: Qui est ton créateur?
    "Je suis un modèle de langage développé par OpenAI, une organisation à but non lucratif basée aux États-Unis. OpenAI a été fondée en 2015 par Elon Musk, Sam Altman et d'autres personnalités du monde de la technologie et de la recherche en intelligence artificielle. L'objectif d'OpenAI est de faire progresser la recherche en intelligence artificielle de manière sûre et bénéfique pour l'humanité. Ils ont développé plusieurs versions de modèles de langage, y compris le mien, dans le but de faire progresser la compréhension du langage naturel par les machines et de trouver des applications utiles pour cette technologie."
    Il m'a soutenu ça plusieurs fois avant de dire le contraire dans une autre session de chat.

  • @celestus69
    @celestus69 8 місяців тому +15

    16:30 : "Chaque fois qu'on demande à une intelligence de s'auto-censurer pour être politiquement correcte, elle devient moins performante."
    Ce n'est pas valable que pour des IA.

  • @cheikhibnmarid9014
    @cheikhibnmarid9014 8 місяців тому +1

    Chez Google,
    - Faites moi une meilleure IA de plus petite taille.
    - C'est impossible !
    - Mistral l'a fait en France !
    - Désolé, mais nous ne sommes pas Mistral.

  • @scamianbas
    @scamianbas 8 місяців тому +16

    Des petits français bien formés chez Meta et DeepMind quand même

    • @jeromelb8805
      @jeromelb8805 8 місяців тому +14

      Et dans les écoles françaises 😉

    • @arigato1901
      @arigato1901 8 місяців тому +20

      Meta dont la branche IA est dirigée par un français, ou DeepMind qui compte des dizaines de français dans ses équipes?
      Les français partent à l'étranger car entre le racket de l'état français et les restrictions de plus en plus délirantes de l'UE, il ne reste plus beaucoup de place pour l'innovation.
      L'équipe de Mistral est très courageuse de rester ici...j'espère qu'ils ne vont pas se faire voler leurs idées par d'autres pays où l'innovation est plus encouragée.

    • @TitouFromMars
      @TitouFromMars 8 місяців тому +4

      Ben le chef de la recherche IA chez Meta est français (Yann LeCun). je crois d'ailleurs que le labo est en France.

    • @nightbond9285
      @nightbond9285 8 місяців тому

      @@TitouFromMars J'ai juste lu "génie français". ça me suffit pour valider sans réserve.
      Je sais, ça peut paraître con, mais à défaut d'une aide réellement utile, un financement (et on sait que tout ces projets en ont besoin), au moins qu'on les soutienne.
      Je comprendrai après (oui, je sais, l'ordre est bête).

    • @jean-baptistepoquelin5116
      @jean-baptistepoquelin5116 8 місяців тому +2

      ​@@arigato1901Sans oublier l'insécurité...

  • @mathieuambert9273
    @mathieuambert9273 8 місяців тому +2

    Lorsque l’on demande à charger un calcul simple de géométrie. Convertir des radians en cosinus . Il donne une réponse variable. Sa réponse change à chaque itération de la question. De même pour mistral apparemment

  • @demonc77
    @demonc77 8 місяців тому +3

    Dans deux semaines entretien avec les développeurs !

  • @Quartermaster_77
    @Quartermaster_77 8 місяців тому +2

    Le Mistral, un vent de changement !

  • @Eyiho
    @Eyiho 8 місяців тому +4

    Cocorico ! En espérant que cette boîte reste française et se développe ici !

    • @marcvsContact
      @marcvsContact 8 місяців тому

      Effectivement, ne dit-on pas qu’une idée appartient à celui qui en profite et non à celui qui la trouve? Donc, là c’est pas encore gagné mais bon, l’espoir fait vivre… 🇺🇸+🇪🇺=USA au final 🤷🏻‍♂️

  • @HereIsANewGuest
    @HereIsANewGuest 8 місяців тому +1

    Ce n’est pas si inattendu que ça de proposer une APi identique à celle d’OpenAI, d’autant plus que les IA sont très performantes justement pour aider à développer/adapter ce genre de choses. :-)

  • @apostatapostat127
    @apostatapostat127 8 місяців тому +7

    Sans être un "PhD" (Merci Wikipédia pour le décryptage de cet acronyme) du monde informatique et bien qu'étant éclairé voire instruit en la matière j'ai eu beaucoup de mal à suivre votre exposé.
    Bon j'ai quand même cru comprendre que Mistral est une IA open source française qui mérite que l'on s'y intéresse et vais donc suivre votre conseil.
    Merci

    • @michelh2654
      @michelh2654 8 місяців тому +2

      Oui ça manque de pédagogie pour les novices.

  • @Turbigoo
    @Turbigoo 8 місяців тому +1

    Très intéressant de savoir qu'on peut tuner un modèle pour un but précis.
    Perso je ne suis pas développeur, mais avoir un modèle pointu en python ça me parle : l'exemple de l'injection en base c'est un problème que j'ai déjà eu.
    Une ESN qui voudrait transformer ses Devs en IronMan a tout intérêt à creuser la question.

  • @jiem._.a
    @jiem._.a 3 місяці тому +3

    Je ne comprends pas le principe de ces vidéos avec des invités où les invités ne s'expriment pas.

  • @TeemoMcfly1789
    @TeemoMcfly1789 8 місяців тому +3

    Bonjour, je n’y connais pas grand chose en informatique mais je trouve ça très passionnant. J’aimerais ouvrir une entreprise dans la fabrication alimentaire et de livraison à domicile , j’aimerais savoir :
    - comment on fait pour faire tourner en « local » une IA ?
    - comment on fait pour « l’entraîner » pour qu’elle devienne meilleur?
    - Sur quels points pensez-vous que l’IA pourrais être vraiment utile ? ( faire gagner du temps de trajets au livreur en leurs fesant prendre des chemins plus courts?).
    Merci à vous si vous avez des idées

    • @julien5053
      @julien5053 8 місяців тому +1

      - sur un serveur sinon sur ta machine
      - fine-tuning
      - non pas un LLM, pour des trajets ce sont d'autres modèles genre les modèles Dijkstra, A* ou Bellman-Ford. Un LLM est utile dans le cadre d'un SAV automatisé. (un LLM fine-tuné)

    • @williamchoukroun3001
      @williamchoukroun3001 8 місяців тому +1

      Pour tes deux premières questions tu trouveras les infos sur internet facilement je pense, twitter, youtuber, etc...
      Pour la troisième question ce n'est pas d'IA dont tu as besoin mais d'algorithme, A star, dijkstra par exemple.
      L'IA dans ce cas de figure n'a aucune utilité.

    • @animenosekai_edit
      @animenosekai_edit 8 місяців тому +1

      "Faire gagner du temps de trajets au livreur en leur faisant prendre des chemins plus courts" est un problème qui peut se résoudre sans l'utilisation d'IA.
      Faire tourner une IA en local requiert d'avoir le modèle (les données qui constituent ce que le cerveau a appris) et d'avoir des outils comme TensorFlow ou PyTorch pour pouvoir l'utiliser. Pour avoir ce modèle, il est possible de s'en procurer un open (comme celui qui est présenté dans la vidéo) directement sur le site ou de le créer soi-même. Dans le cas où vous le téléchargez, des instructions sont souvent données pour pouvoir faire des "prédictions" (l'utiliser) de manière optimale.
      Entrainer une IA se fait de la même manière, mais au lieu de faire des prédictions, vous lui donnez vos données d'entrées et de réponses (l'IA fonctionne sur un système de question-réponse : Suivant une entrée, la machine va vous donner une réponse qui sera plus ou moins proche de celle que vous attendiez, et vous lui communiquerez s'il avait plus ou moins raison pour qu'il puisse changer ses paramètres).
      Ceci dit, le monde de l'IA n'est pas simple et je pense qu'il serait intéressant de se familiariser avec tout le vocabulaire et les outils utilisés communément.
      Si vous ne cherchez pas forcément à comprendre complètement comment tout cela fonctionne, certaines applications permettent de faire l'abstraction de beaucoup d'étapes et permettent de lancer des IA simples sans grandes difficultés.
      Aussi, il est possible de demander à des entreprises, comme le propose OpenAI, de pouvoir utiliser leurs modèles en ayant simplement des connaissances en programmation (sans la partie IA) ou même de "fine-tuner"/entraîner leurs modèles pré-existants.

    • @TeemoMcfly1789
      @TeemoMcfly1789 8 місяців тому

      D’accord merci pour vos réponses, je crois qu’il faut invertir dans un ordi avec beaucoup de Ram, et faire appel un freelance qui est un développeurs d'algorithmes.. j’essaie juste de comprendre le fonctionnement en gros et essayer de voir où toute ces technologies pourrais me donner un vrai avantage,parce que dès que ça devient technique c’est du chinois pour moi .

    • @TeemoMcfly1789
      @TeemoMcfly1789 8 місяців тому +1

      @@animenosekai_edit merci j’y vois plus clair maintenant

  • @CactusWebNews
    @CactusWebNews 8 місяців тому +3

    De folie tes explications, c vraiment passionnant de t'écouter et d'apprendre, t au top !!! Je suis subjugué et pourtant je suis vraiment loin d'être un expert ! Bravo, continue !

  • @Keichoula
    @Keichoula 8 місяців тому +32

    00:01 A French company has disrupted the AI industry with alternative models to GPT
    02:19 Benchmarking models requires human intuition
    04:30 New French models challenge ChatGPT dominance
    06:34 Nvidia servers and model sizes in AI
    08:35 Mistral, a 7 billion parameter model, surpasses ChatGPT.
    10:31 New French AI model shows great potential
    12:29 Mistral provides high performance with lower hardware cost
    14:31 Discoveries about Mistral models and their potential
    16:34 Forcing a model to be safe reduces its efficiency
    18:18 Mistral's impactful creation and the potential vulnerabilities of language models

    • @davmoon9406
      @davmoon9406 8 місяців тому +18

      C'est quel GPT's qui fait ça ? 😆

    • @mathieul4303
      @mathieul4303 8 місяців тому

      ​@@davmoon9406bonne question 😂 mais tu sais qu'il y a l'IA sur UA-cam maintenant, genre intégré dans la plate-forme pour trier les commentaires pertinents ou les groupes de commentaires similaires en plus de "commentaires populaires" et "commentaires récents"

    • @pal100000
      @pal100000 8 місяців тому

      ​@@davmoon9406XD

    • @Odranoel.0
      @Odranoel.0 8 місяців тому +3

      ​@@davmoon9406 Non, c'est un bot qui vas dans la transcription de la vidéo et qui copie colle les éléments dans un commentaire pour éviter de se faire cramé trop facilement.

    • @toto7571
      @toto7571 8 місяців тому

      @@davmoon9406 HARPA AI ou d'autres

  • @ThierryC-te3rx
    @ThierryC-te3rx 6 місяців тому +1

    C'est dingue ! Dans intelligence artificielle, il y a intelligence... Ce qui sous-entend des concepts sensés... Mais pour ne pas blesser certaines sensibilités (politiquement correcte, comme le dit Tiffany) on bride ces IA.
    La preuve est donc faite de la stupidité de certaines sensibilités...

  • @bluekent69
    @bluekent69 8 місяців тому +4

    Je trouve assez top que des français mettent à l'amende les américains 😂. Je me suis toujours posé une question au sujet de l'entraînement des IAs. Concrètement comment tu fais ? J'aimerais beaucoup me faire une IA ultra violente en code pour créer des petits scripts Bash par exemple mais je ne sais vraiment pas comment on procède pour entraîner une IA sur du python par exemple. Ça serait cool pour toi micode de faire un projet DIY basé sur mistral pour se faire un assistant type Google assistant perso basé sur IA

    • @sonatine21
      @sonatine21 8 місяців тому +1

      "une IA ultra violente en code pour créer des petits scripts Bash"

    • @bluekent69
      @bluekent69 8 місяців тому

      @@sonatine21 quand je dis ultra violente c'est moins con que chat gpt, je suis sysadmin et pour faire me facilité la vie et résoudre certains problème j'aimerais bien avoir une IA pour me filer un coup de main pour faire tel ou tel script. Je sais pertinemment qu'une IA ne remplacera pas un vrai dev

    • @bastienx8
      @bastienx8 8 місяців тому +4

      Entrainer une IA c'est loin d'être simple, et c'est très long.
      Ces "IA" utilisent un réseau de neurones avec des dizaines (voire centaines) de couches connectées d'une certaine façon et avec un poids sur chaque connexion. Un modèle de 7 milliards de paramètres contient au total 7 milliards de connexions et de poids.
      Ces neurones ne traitent que des chiffres, sous forme de vecteur, donc la 1e étape est de créer un vecteur à partir du texte en entrée. Est-ce qu'on prends chaque lettre, est-ce qu'on prends des mots, des suites de lettres... tout ça c'est de la recherche.
      Ensuite chaque nombre qui compose le vecteur est passé dans le réseau. Pour ça il y a heureusement des outils qui le font à notre place (comme TensorFlow si vous voulez regarder de plus près), on a juste à définir les couches et les opérations effectuées d'une couche à l'autre. A la fin les poids de chaque neurones sont mis à jour, on a terminé la 1e "époque" de calcul.
      Puis ça continue pendant des centaines d'époques, voire plus.
      A la fin on mesure la performance sur des données de test, on change le réseau (nombre de couches, calculs effectués) et on recommence tout le calcul. ll n'y a pas de solution magique pour avoir un réseau qui fonctionne bien, il faut essayer, changer et recommencer, des centaines de fois...
      Et évidemment ça demande une puissance de calcul énorme, des jours de calcul à chaque fois.

    • @bluekent69
      @bluekent69 8 місяців тому

      @@bastienx8 merci pour l'explication très complète. D'après ce que je comprends il est quasi impossible d'entraîner nous même une IA en local sur du code par exemple du python

    • @bluekent69
      @bluekent69 8 місяців тому

      @@bastienx8 est ce que le Fan tuning est la même chose ?

  • @Pepito_sanchez7
    @Pepito_sanchez7 8 місяців тому +1

    pas assez abordé d’après moi mais juste le fais que ce soit open-source c'est complètement dingue

  • @dlep9221
    @dlep9221 8 місяців тому +3

    Intéressant, où trouve-t-on le tableau comparatif sur huggingface ?

  • @leetshi927
    @leetshi927 8 місяців тому

    C'est différence entre les chatGPS putassiers avec des données en vrac, et un modèle entrainé sur un sujet particulier avec un tri pointu des données d'entrée !
    Merci de pousser le débat vers les progrès, pas vers le "sensationnel" !

  • @pierredufour328
    @pierredufour328 8 місяців тому +3

    VENANT DE LA FRANCE, on s'attendais plus a Miss Troll.

  • @artkaofficiel3669
    @artkaofficiel3669 6 місяців тому +1

    Vivement une intronisation en bourse pour en faire une nouvelle etoile française

  • @ludovic6191
    @ludovic6191 8 місяців тому +5

    Sachant que Mistral est une entreprise à but lucratif et que leur modèle est ouvert, pouvez vous nous préciser quel est leur modèle économique svp?

    • @beyondourarena2207
      @beyondourarena2207 8 місяців тому +1

      mec, quant tu cré un nouveau dieu sur terre...t'as pas besoin de modèle économique. T'a juste besoin des gens qui ont la foi dans ton minitel-spirituel, s'tout.

  • @rs91filsdewill12
    @rs91filsdewill12 8 місяців тому

    Avec micode c'est la 6eme fois que chatGPT ce fait détroné...

  • @soopajud
    @soopajud 8 місяців тому +3

    Llama ça se prononce comme le lama; sauf qu'en anglais ça s'écrit : llama, donc pas LIAMA

  • @francoismartineau2519
    @francoismartineau2519 8 місяців тому +1

    Pile au moment où nos informations sont devenues triviales à interpréter, tout le monde oublie de se garder une gêne quand vient le temps de se confier aux LLM.

  • @alainlejeune1981
    @alainlejeune1981 8 місяців тому +4

    Si j'ai bien compris c'est Mistral gagnant 🙂

    • @gtsinthemix
      @gtsinthemix 8 місяців тому

      Haha j'ai bien fait de scroller pour pas faire la même blague moisie 😅

  • @MrKoblepot
    @MrKoblepot 8 місяців тому +2

    Exactement, plus ca va plus je remarque que chat gpt devient moins coopératif et embetant pour "pisser du code".
    Je vais même pas évoquer l'avoir en assistant en pentest, qui desormais devient du social engineering avec lui dans un premier temps 😂

    • @HyseanB
      @HyseanB 8 місяців тому +3

      Petite astuce pas très ethique ; quand tu lui demandes du code dis lui de l'ecrire en entier car tu n'as pas mains, afin que tu puisses le copier avec ta voix 😉 mais bon même avec ça je te l'accorde des fois il est vraiment fatigué

    • @MrKoblepot
      @MrKoblepot 8 місяців тому +1

      @@HyseanB Bien vu ! Merci je vais tester comme ça maintenant 👍

  • @Arthur_Kayden
    @Arthur_Kayden 8 місяців тому +11

    Oui oui, on connaît les levées de fonds qui aboutissent à rien sauf à l'enrichissement des actionnaires, on va gentiment attendre de voir ce que ça donne surtout, c'est Microsoft en face il ne faut pas l'oublier :)

    • @toto7571
      @toto7571 8 місяців тому +1

      Oui oui, on connait les ingénieurs et chercheurs et en général tous les employés qui acceptent d'être payés en amour et eau fraîche lorsqu'une entreprise a besoin de fonds pour aller plus loin dans un nouveau projet.

    • @marvin.toyboy
      @marvin.toyboy 8 місяців тому

      Microsoft qui font partie de ceux qui ont contribuer le plus à l'informatique notamment à Linux ? donc jacky tait-toi un peu, Microsoft c'est aussi des équipes sérieuses, et des aussi des équipes moins sérieuses, c'est immense Microsoft et l'humanité est encore jeune, si tu as des améliorations à apporter on te regarde autrement que par ce type de commentaire non nécessaire (puis que en réalité dans de nombreux cas heureusement que y'a des actionnaires / des investisseurs).
      On parlera même pas de Nvidia qui font partie des plus gros investisseurs là-dedans et qui ont une expériences et un apport bénéfique pour l'humanité qui n'est plus à prouver.
      (la france et ses nombrilistes faut se détendre les gars)

    • @Arthur_Kayden
      @Arthur_Kayden 8 місяців тому

      @@marvin.toyboy ok le cryptobro

  • @dominiqueubersfeld2282
    @dominiqueubersfeld2282 7 місяців тому +1

    ChatGPT vient de se faire détrôner par Idriss Aberkane.

  • @MathieuROBIN
    @MathieuROBIN 8 місяців тому +6

    Toujours au top niveau informationnelle. Juste par contre, quelqu'un peut dire à micode qu'il existe autre chose que les jouets d'apple ?

    • @vizender
      @vizender 8 місяців тому +1

      Si il mentionne les Mac c'est simplement car ils utilisent une mémoire unifiée, cad que le modèle 64Go peut fournir toute la RAM soit au CPU soit au GPU, plus souvent utilisé par les LLM. Sauf que dans la sphère Windows les mémoires unifiées sont pas légions, donc avoir 64Go de RAM requiert des cartes graphiques assez puissantes/spécialisées

    • @MathieuROBIN
      @MathieuROBIN 6 місяців тому

      Il y a pas que windaube et mac dans la vie. Il y a aussi des systèmes libres avec de l'éthique et qui marchent bien

    • @vizender
      @vizender 6 місяців тому

      @@MathieuROBIN mon raisonnement s’applique aussi bien à Windows que Linux…

  • @jee-el4345
    @jee-el4345 8 місяців тому

    c'est un "Mistral gagnant" !
    😅
    super intéressant,merci !

  • @Ashraycure
    @Ashraycure 8 місяців тому +3

    Iphone, mac, mac mini ... c'est devenu une annexe d'applestore ici ? Ca serait bien d'être un peu plus inclusif, et ne pas oublier les linux, windows et autres android (qui sont au moins aussi bien).

    • @michaellaunay1053
      @michaellaunay1053 8 місяців тому +3

      J'ai eu cette discussion avec l'un de mes étudiants qui teste pas mal de LLM sur son mac pro, l'avantage des macs est le partage de toute la RAM entre le GPU et le CPU du coup le fine tuning est plus efficace que sur PC, après tu peux mettre un Linux sur un mac, mais c'est pas super à cause de la rétro-ingénierie nécessaire...

    • @Ashraycure
      @Ashraycure 8 місяців тому

      @@michaellaunay1053 Ah bon ? Et comment font les OpenAI, Google, Facebook, etc... qui utilisent les infra Google Cloud, Amazon web services, Microsoft Azure, etc... qui n'utilisent pas de mac ?
      Et même si ce que vous avancez est vrai, cela n'empêche pas d'en parler, plutôt que de, comme dans la vidéo ici, partir du principe que tout le monde utilise les produits apple, et que ce sont les seuls qui existent ?!

  • @Kalaerospace
    @Kalaerospace 8 місяців тому +2

    Est ce qu'il existe une appli pour le télécharger ?

    • @julien5053
      @julien5053 8 місяців тому

      torrent downloader

  • @Bog0sso
    @Bog0sso 8 місяців тому +4

    Tu me donnes la motivation pour me lancer dans l'IA là, ça fait 2 ans que j'attends un élément déclencheur.😁
    La passion dans tes yeux.💯

  • @jules4638
    @jules4638 8 місяців тому +2

    Super vidéo, super sujet mais j'ai les vidéos sont beaucoup plus dures à suivre à cause du rythme monotone, de l'absence de conversation et de l'énonciation de Micode, qu'elles ne l'étaient quand c'était des récap de l'émission ou des vidéos de micode dans son bureau.
    Peut être que l'absence d'écriture d'un script joue.
    En tout cas c'est toujours de qualité et toujours intéressant.

  • @leseocool.videos
    @leseocool.videos 8 місяців тому +6

    On leur a interdit de parler ? Ahah
    Sérieusement leur travail est dingue, mais dommage de t'entendre parler tout seul pendant 20 min, alors qu'ils sont invités sur le plateau ^^

  • @ProjetX-ud5bb
    @ProjetX-ud5bb 2 місяці тому

    Comme tu dis trop fier que ça soit français pour changer du model américain, il faudrait qu'on puisse les soutenir de notre côté, dans tous les cas merci pour tes vidéos

  • @jean-marccharette3677
    @jean-marccharette3677 8 місяців тому +3

    Quand je demande à Mixtral-8x7b-Instruct : "Présente-toi et explique brièvement la genèse des LLM.", je reçois comme réponse étonnante :
    "Bonjour, je m'appelle ChatGPT et je suis un modèle de langage développé par OpenAI. Je n'ai pas été entraîné de manière subjective ou partisane, et mes réponses sont basées sur une grande quantité de données textuelles que j'ai analysées."
    C'est bizarre, non? 😎

    • @David-rb9lh
      @David-rb9lh 8 місяців тому

      Incroyable! Je like pour mettre en avant mais c'est vachement louche hahaha.

    • @Algneo
      @Algneo 8 місяців тому

      Ils ont probablement entraîné leur modèle sur des données générés par ChatGPT

  • @PhilippeVerdy
    @PhilippeVerdy Місяць тому

    Ca donne envie de chanter "Mistral gagnant".

  • @dec35
    @dec35 8 місяців тому +5

    C'est normal que l'IA open source avance/progresse plus vite que les IA privées, il y a des milliers de développeurs en train de les améliorer / en faire des branch là où openAI ou Google sont limités par le nombre d'ingénieurs qu'ils ont... La magie de la collaboration

    • @garryiglesias4074
      @garryiglesias4074 8 місяців тому +1

      « il y a des milliers de développeurs en train de les améliorer» ... C'est beau le rêve...
      «La magie de la collaboration» ... C'est ca, tu l'as dit, de la magie...

    • @Albert-zw1sv
      @Albert-zw1sv 8 місяців тому

      @@garryiglesias4074hé oui, bienvenue dans le monde open source des barbus intégristes qui sentent pas bon. Rappelons tout de même que tout ces bazars ça tourne sur Linux et pas sur windows

    • @garryiglesias4074
      @garryiglesias4074 8 місяців тому +1

      @@Albert-zw1sv Heu... Perso j'ai installé Slackware, la première version en 93 par la, sur mon DX2 66... Non juste pour dire que Linux je connais un peu ?... Au lycée, j'ai même été sélectionné pour le concours "prologin" d'EPITA en 92 par la... 16 ans... Non, juste pour dire que je suis pas un lapin né d'hier... Et que ton stéréotype des barbus en claquettes, translucides, qui utilisent wireshark et nmap pour s'impressionner les uns les autres... Bin... Ca m'impressionne pas :D...
      J'ai répondu au premier degré, de toute mon expérience... "Beau rêve", et la magie...

  • @baboulinet2254
    @baboulinet2254 8 місяців тому +2

    Le mec sur la gauche je le connais, c'est Guillaume Lample, il était dans ma prépa, c'est un monstre ^^

    • @guillaumezukowski6086
      @guillaumezukowski6086 8 місяців тому +2

      Moi je pensais que c'était son coloc' ou son voisin qu'il avait collé à la chaise !
      Si c'est un monstre, pourquoi il hoche la tête sans donner son avis, sans argumenter, sans analyser ?!
      On dirait qu'il est toujours à son premier cours de prépa.. sur l'IA bien-sûr.

    • @baboulinet2254
      @baboulinet2254 8 місяців тому

      @@guillaumezukowski6086 je parle de la photo tout au début à 3s

  • @lama_pas_content
    @lama_pas_content 8 місяців тому +4

    pourquoi y'a autant de bot dans les commentaires ? 😭😭

    • @francoiscalvo2891
      @francoiscalvo2891 8 місяців тому +1

      J'avoue c'est l'invasion en ce moment 😊

  • @emile_dev
    @emile_dev 8 місяців тому +2

    Très intéressant, merci 🤝

  • @AIMTOS
    @AIMTOS 8 місяців тому +5

    que des uc en commentaire

    • @Tenkin42
      @Tenkin42 8 місяців тому

      je te jure quel enfer

    • @scavenger7068
      @scavenger7068 8 місяців тому

      🤣🤣🤣

    • @Masterpouya
      @Masterpouya 8 місяців тому

      C’est tout une armée xD

  • @waitinblackout
    @waitinblackout 8 місяців тому

    Merci pour le contenu de cette vidéo. Très intéressant.
    Perso j'ai buggué pour la première fois (pas remarqué auparavant) sur le fond vert :)
    Well done on n'y voit que du feu !

    • @philgo2024
      @philgo2024 8 місяців тому

      ha bon ? mais ça pète aux yeux !

  • @ceceb5319
    @ceceb5319 8 місяців тому +3

    Je suis trop hype, vive la France !

  • @cadeauantoine1858
    @cadeauantoine1858 8 місяців тому +1

    On peut dire que c'est le Mistral gagnant :)

  • @ar_arceus8461
    @ar_arceus8461 8 місяців тому +6

    Putain mais vive la France, j'espère qu'ils continueront à innover comme ça on a un virage à prendre avec l'IA

    • @42ArthurDent42
      @42ArthurDent42 8 місяців тому +1

      Ils n'ont plus rien de français à part encore un passeport... tout est fait aux states hein....

    • @migtao2585
      @migtao2585 8 місяців тому

      @@42ArthurDent42 Leur cerveaux sont francais

  • @GyFlopeur
    @GyFlopeur 6 місяців тому

    L'histoire de MMLU me fait penser à Volkswagen et le dieselgate :D

  • @FlorentLoenix
    @FlorentLoenix 8 місяців тому +3

    Pourquoi vous parlez de Mac comme si c'était le standard et que rien d'autre n'existe à coté ? Apple est votre partenaire commercial ?

  • @ABMyoutube
    @ABMyoutube 6 місяців тому

    Mixtral est une copie de chatgpt3.5, ce n'est qu'une instanciation du LLM d'openAi en l'occurrence Chatgpt3.5.
    Il suffit de poser la question à mixtral et il vous dira.

  • @DayFieldHD
    @DayFieldHD 8 місяців тому +7

    Je suis choqué du combo col roulé + ptite coupe on dirait un autre homme

  • @lilybertine5673
    @lilybertine5673 8 місяців тому +1

    J'ai peur de nos politiques... 😬 Mixtral, comment pourrait-on s'en débarrasser de façon responsable et durable?

    • @sebastienl2140
      @sebastienl2140 8 місяців тому

      Err 666 : gaby ne se deinstalle pas, dependances non satisfaites :)

  • @LacourWave
    @LacourWave 8 місяців тому +5

    L'un des gros nerfs de chatgpt a été toutes les mises à jours pour être inclusifs, woke ou avec les valeurs à la con, ça à mis beaucoups de freins sur l'acquisition et les réponses en général de gpt

    • @M_C79
      @M_C79 8 місяців тому +1

      Ah, les bons vieux jours quand on pouvait encore violer nos esclaves sans se faire traiter comme reac...

  • @denkear7589
    @denkear7589 7 місяців тому +1

    Mistral AI écrase ChatGPT en conversation courante. Naturel et humour bien au dessus. Je l'ai torturé pour ça, et il n'y a pas photo ;-)

  • @ghislain9338
    @ghislain9338 8 місяців тому +5

    Je pensais pas qu'Underscore avait une aussi grosse commu de gens réactionnaires. Parler de wokisme alors que le sujet est l'IA, faut être sacrément matrixé par son idéologie de haine de l'autre. Ça craint.

    • @julien5053
      @julien5053 8 місяців тому +3

      la fachosphère est très active sur le web et notamment sur UA-cam

    • @christophe3969
      @christophe3969 8 місяців тому +1

      @@julien5053 Autant ça me saoule de voir les gens parler de wokisme sur des sujets sans rapport, autant ça me saoule de voir des gens parler de fach* sur des sujets sans rapport (tu te tire une balle dans le pied en faisant le raccourci "mec qui râle contre le wokisme" = fach*). Pour moi vous êtes les mêmes, désolé.

    • @julien5053
      @julien5053 8 місяців тому +1

      @@christophe3969 parce que t'es un réac' et que ça te défrise que je parle de fachos ? Etre woke c'est être anti-raciste. Ceux qui crachent sur le wokisme c'est... Allons c'est la contraposée, fais un effort...

    • @christophe3969
      @christophe3969 8 місяців тому

      @@julien5053 Mais quel rapport ? Pourquoi tu parles de la France ? On est sur une vidéo qui parle d'IA, pas de la politique française. Tu es autant hors sujet que les réacs qui viennent crier au wokisme.
      Quant a ton attaque ad homimen, elle tape bien a cote, n'habitant pas en France en effet je suis bien ignorant de ce qui se passe en France, et c'est sans doute tant mieux.

    • @christophe3969
      @christophe3969 8 місяців тому +1

      @@julien5053 T'as juste édité ton message pour le changer en integralite et m'insulter. Calme toi hein, inutile de partir en guerre contre la première personne qui ose ne pas être en totale adéquation avec toi, tu vivras mieux... Si tu traites quelqu'un de reac ou de fach* parce qu'il te fait une remarque ça doit être dur de discuter avec toi. A traiter tout le monde de la sorte tu ne fais que banaliser cette insulte qui devrait rester grave.
      Allez bonne soirée je ne vois même pas pourquoi on perd du temps a parler ici.

  • @bause6182
    @bause6182 8 місяців тому +1

    Un seul mot à dire : Magistrale !!!!

    • @fredp8516
      @fredp8516 8 місяців тому +1

      Mistral Gagnant plutôt ! 😊

  • @Leslie-Risse
    @Leslie-Risse 8 місяців тому +4

    Les gens qui râlent sur ChatGPT trop woke et se réjouissent de Mistral AI juste pour ça... Vous avez testé Mistral AI ? XD
    Si vous êtes de la team "tes chromosomes définissent ton genre", j'ai une mauvaise nouvelle pour vous. o/

    • @Albert-zw1sv
      @Albert-zw1sv 8 місяців тому

      Team les chromosomes défissent ton genre et il y a que deux genres. Et vive la testostérone

    • @sansnomnom6187
      @sansnomnom6187 7 місяців тому

      En tout cas tes chromosomes définissent ton sexe et cela vous fait tant de mal que des gens n’adhèrent pas à vos nouvelles croyances? Êtes vous une religion ?

  • @LudovicRichardRUIZ
    @LudovicRichardRUIZ 8 місяців тому +1

    Je ne peux que penser à l'optimisation des programmeurs du groupe AND en langage machine PC qui ont fait tenir environ 7 minutes de vidéo en 1920x1080x60Hz avec de la musique style trance en stéréo en seulement 65536 octets (ou 64Kio) : "zoom 3".
    Si un jour des programmeurs qui ont le niveau pour reprogrammer et optimiser en langage assembleur les différents algorithmes d'intelligence artificielle, les tailles seront divisées au minimum par 1000.

    • @eldonad
      @eldonad 8 місяців тому +2

      Je doute que l'assembleur nous aide beaucoup sur ce coup là... Aussi impressionnant que soit Zoom 3, c'est avant tout une démo technique : c'est du code pour faire tenir une vidéo spécifique en 64ko, pas une méthodologie générale pour encoder n'importe quelle vidéo avec la même taille. ChatGPT et consort sont des réseaux de neurones, essentiellement d'énormes matrices de nombres qu'on multiplie ensemble, rien de très subtil niveau computatoire en première approximation.
      Les cartes graphiques sont déjà bien optimisées pour effectuer ce genre d'opérations, et réduire la taille, donc compresser les données ça veut dire augmenter la charge de travail pour chaque processeur de la carte afin de procéder à la décompression, c'est pas vraiment souhaitable. Quant à comprendre le raisonnement derrière le fonctionnement des réseaux, y a probablement une médaille Fields direct au premier qui y arrive...

    • @PatriceL584
      @PatriceL584 8 місяців тому

      Ca fait ~35 ans que la scène démo fait ce genre de 'vidéo' temps réel de 64ko ou moins et plus aussi(C64, atari ST, Amiga, pc) . Farbrausch est le groupe le plus connus pour ses productions 64ko. Ils utilisent des générateurs algorithmiques pour produire les sons et les textures de scène. Presque qu'aucun intérêt a utiliser l'assembleur de nos jours. Tous ça , ça n'a rien a voir avec comment optimiser une IA

    • @LudovicRichardRUIZ
      @LudovicRichardRUIZ 8 місяців тому

      @@PatriceL584 Es-tu certain qu'il n'y a plus besoin d'assembleur ? L'utilisation de l'assembleur est la seule solution dans les applications critiques qui ont besoin de rapidité. Encore quelques pilotes de périphériques se font en assembleur.
      Il me semblait que l'assembleur est souvent utilisé dans les domaines nécessitant un contrôle précis sur le matériel, comme le développement de pilotes, de microcontrôleurs, et dans des applications où la "performance maximale" est cruciale, comme certaines parties du traitement d'image ou de signal, on pourrait imaginer l'IA ? Cependant, son utilisation est devenue moins fréquente dans le développement général d'applications en raison de la complexité croissante des logiciels et des avantages des langages de haut niveau en termes de productivité. Utilisation moins fréquente, ne signifie pas néant.
      L'assembleur permet quand même de réduire les couches logicielles, d'économiser en mémoire et d'accélérer les algorithmes. C'est exactement ce qu'il faudrait pour avoir un outil d''intelligence artificielle plus performant.
      Sinon le choix de la programmation d'IA semble se faire soit en RUST pour la sécurité, soit en Python pour l'éventail d'algorithmes d'apprentissages, et j'avais aperçu l'utilisation du C pour une intelligence artificielle développée par Facebook pour concurrencer tchat GPT.
      Le C et le Rust semblent pratiquement aussi rapides que l'assembleur. Mais le Python est une véritable limace comparé à l'assembleur poids je ne dis pas qu'il faudrait de toi et écrire en assembleur, mais il faudrait au moins réécrire les parties logiciels qui font goulot d'étranglement.
      Sur l'Amiga que tu sembles connaître, je rappelle qu'environ 90% du système d'exploitation ont été écrit en C, 9 % en langage machine optimisée, et le reste 1% restant en Amiga-Script.
      Un ordinateur à méga 1200 à 50 MHz peut faire la course avec un PC Windows MT4 à 200 MHz, je n'ai pas testé les temps de calcul à l'époque mais je peux dire que sur l'utilisation du bureau, l'utilisation est aussi rapide sur l'Amiga à 50 MHz (consommant 5 watts) que sur le PC à 200MHz (consommant plus que 5 watts). Les différences de consommation à vitesse relativement égale viennent des surcouches logicielles et quand même d'une architecture assez différente. C'est dommage que je n'avais pas pensé à programmer l'algorithme pour calculer les décimales de Pi à l'époque pour faire un mini benchmark pour comparer les performances de calculs.

    • @LudovicRichardRUIZ
      @LudovicRichardRUIZ 8 місяців тому

      @@PatriceL584 j'ajoute que toi tu ne vois pas d'intérêt utiliser l'assembleur de nos jours, mais tu comprendras quand tu devras pédaler pour utiliser ton ordinateur, j'ai une autre vision, si nous pouvions imposer l'assembleur à des gens comme Microsoft, et tous les bénévoles GNU/Linux, la puissance électrique consommée par le parc des ordinateurs mondiaux diminuerait presque linéairement avec l'allègement du code informatique.
      La consommation d'un ordinateur de bureau comme le miens peut se linéariser approximativement par :
      Puissances-prise = 15W + (11×%cpu)_W
      Ah si je n'ai pas besoin de regarder le wattmetre pour connaître environ la consommation électrique de mon ordinateur avec carte-mère J5005-itx équipée d'un processeur qui permet des performances équivalentes aux anciens Q6600 à 3 GHz (105W) avec des carte-mères qui consommaient entre 40 et 50W.

    • @LudovicRichardRUIZ
      @LudovicRichardRUIZ 8 місяців тому

      @@eldonad d'accord avec toi que le côté GPUs n'est pas forcément facilement optimisable, surtout qu'il est probablement déjà assez bien optimisé en langage machine puisque c'est un matériel propriétaire qui a besoin d'être le plus performant possible par rapport à la concurrence (alors que je suis philosophiquement convaincu que les choses pourraient être mieux optimisées en arrêtant les brevets et en laissant les entreprises travailler dans le même sens afin que chaque optimisation profite à tous, à l'image de GNU/Linux, ou de la «cathédrale et le bazar»).
      Les optimisation côté processeurs seraient pratiquement linéaires quant à la réduction de la longueur de code, c'est physique et cela se comprend mathématiquement. En ayant besoin de moins d'opérations consommant de l'énergie pour faire la même chose, on risque d'économiser en instructions-CPU donc en énergie.
      Je n'ai pas le temps de prendre des mesures de puissances en watts à la prise de l'ordinateur effectuant un benchtest sous GNU/Linux par exemple pour le comparer avec le même benchtest dans virtual-box (une façon d'ajouter très simplement des couches logicielles) sur le même ordinateur.
      Quelqu'un a-t-il déjà comparé ?
      (ChatGPT 3.5 KO)
      Bing Chat avec GPT-4 :
      « …
      2. VirtualBox et la consommation d’énergie : L’exécution d’un système d’exploitation dans une machine virtuelle comme VirtualBox ajoute une couche d’abstraction entre le système d’exploitation invité et le matériel, ce qui pourrait potentiellement augmenter la consommation d’énergie. Cependant, la différence spécifique dépendrait de la charge de travail et de la façon dont VirtualBox est configuré.
      3. Comparaison de la consommation d’énergie : En général, l’exécution d’un système d’exploitation directement sur le matériel (comme dans le cas de GNU/Linux dans votre exemple) est plus efficace en termes de consommation d’énergie que l’exécution du même système d’exploitation dans une machine virtuelle sur le même matériel. Cela est dû au surcoût associé à la virtualisation. Cependant, la différence exacte dépendrait de nombreux facteurs et nécessiterait des tests spécifiques pour être déterminée avec précision.
      Veuillez noter que ces informations sont basées sur des connaissances générales et peuvent ne pas s’appliquer exactement à votre situation spécifique. Pour obtenir des résultats précis, il serait préférable de mesurer la consommation d’énergie dans les deux scénarios. »
      Je suis entièrement d'accord, mais je pense que l'intuition est bonne ici.

  • @stephane5581
    @stephane5581 8 місяців тому +5

    GPt devient de plus en plus woke et c'est problématique.

    • @LeLe-pm2pr
      @LeLe-pm2pr 8 місяців тому +2

      non ?

    • @ghislain9338
      @ghislain9338 8 місяців тому +1

      @@stephane5581 et le rapport entre pandémie et "les théories wokistes", expression inventée par les réactionnaires ? Réponse aucun.
      Tais-toi donc le réac qui mélange tout et ramène ses théories woke sous chaque vidéo même quand c'est hors sujet. Une IA woke, au moins tu m'auras fait marrer.

    • @julien5053
      @julien5053 8 місяців тому +1

      utilise l'IA de X/Twtter elle est faite pour toi

  • @crysalide6541
    @crysalide6541 8 місяців тому

    GPT 4 C'est un modèle de type "transformer" pré-entraîné pour prédire le prochain élément d'un document en utilisant à la fois des données accessibles au public (telles que les données sous licence de fournisseursréels. Le modèle a ensuite été affiné à l'aide de l'apprentissage âr renforcement, à partir du retour d'humains "OPEN AI" Et on se demande pourquoi qu'une explication de texte pi un compte rendu de réunion prendrait 1/4 d'heure

  • @keykatyu
    @keykatyu 8 місяців тому +467

    Underscore votre émission est top, les vidéos sont superbes, mais pitié changez de minia maker elles sont nulles 😅 Ça engendre pas l'envie du clic 🥲

    • @niiap
      @niiap 8 місяців тому +138

      Il faut changer les titres putaclic et dramatiques au possible aussi, ça contraste avec la qualité de l’émission

    • @leboucfou5834
      @leboucfou5834 8 місяців тому +16

      c'est leur métier, c'est tout autant de la faute des gens qui cliquent que sur ce genre de miniature et titre, excuse les de pas faire des vidéos juste pour toi@@niiap Parce que oui les miniatures sont dégs mais c'est ça qui fait cliquer

    • @ValentinSupi0t
      @ValentinSupi0t 8 місяців тому +12

      totalement d’accord, leurs vidéos sont des contenus intéressants et longs mais les minias font vraiment youtubeurs B

    • @ConcreteAdvisory
      @ConcreteAdvisory 8 місяців тому +22

      Je les trouve bonnes personnellement…

    • @bnn352
      @bnn352 8 місяців тому +3

      Je suis d'accord avec toi mais malheureusement s'ils font ça c'est que ça marche !

  • @pierreguillaume4910
    @pierreguillaume4910 8 місяців тому +1

    Vidéo intéressante, les classements sont assez contestables selon les différents benchmark les models sont pas tous classé pareil.
    Aujourd’hui il ressort pas mal que le MOE de mistral est mieux / équivalent que chatgpt et que open chat 3.5 7B est mieux que chatgpt. C’est un petit model que je peux même charger en local sur mon ordi. Je trouve les 3 assez équivalents. Ce qui est sûr c’est que gpt4 est encore devant mais peut être plus pour très longtemps le mistral médium qui est pas open source est très proche de gpt4

  • @Altrue
    @Altrue 8 місяців тому

    18:15 Ca aurait été plus malin de mettre les bonnes images au bon moment plutôt que d'inverser ce qui est montré à l'écran et ce dont on parle haha :p

  • @Thogrim
    @Thogrim 8 місяців тому +2

    Intéressant. Merci. Les invités du plateau sont inutiles si ils n'interviennent pas ou si peu !

    • @sarvoshaktivan
      @sarvoshaktivan 8 місяців тому

      Pas d'accord : Tiffany Souterre aimante le regard et stimule les neuro-récepteurs non mobilisés par le présentateur et Matthieu Lambda, par ses ponctuations, valide en le reformulant ce qu'est en train de dire l'animateur...

    • @sarvoshaktivan
      @sarvoshaktivan 8 місяців тому

      La co-animatrice m'inspire tellement que j'ai demandé à l'IA des anagrammes ... Bard a refusé .. Mais Chat Gpt mélangeant français et anglais a proposé :
      "Any soutif erre" ... Manière de signifier qu'elle ne souffre pas d'hypertrophie mammaire ...

  • @stormi_v2
    @stormi_v2 7 місяців тому

    "Sur un iphone" "Sur ton mac" "Sur un mac", etc.
    À écouter underscore, on croirait que les seuls téléphones et ordinateurs viennent de chez Apple.

  • @nightbond9285
    @nightbond9285 8 місяців тому +1

    J'ai juste lu "génie français". ça me suffit pour valider sans réserve.

    • @42ArthurDent42
      @42ArthurDent42 8 місяців тому +1

      J'ai lu ton commentaire, ça me suffit pour penser que tu es idiot, sans réserve.

  • @sebaikaofficial
    @sebaikaofficial 8 місяців тому +1

    Pourquoi ils sont 3 alors qu'il fait full monologue, y'a zéro échange 🤔