LLaMA 3.1-405b : peut-il concurrencer les IA propriétaires et payantes ?

Поділитися
Вставка
  • Опубліковано 28 лис 2024

КОМЕНТАРІ • 25

  • @frankdearr2772
    @frankdearr2772 3 місяці тому +2

    👍 merci

  • @jeanlucbiellmann9909
    @jeanlucbiellmann9909 4 місяці тому +6

    L'IA devrait être un vrai Logiciel Libre sous licence GPL, et non pas juste de l'open source industriel qui fait semblant d'être libre...

    • @Unnaymed
      @Unnaymed 4 місяці тому +3

      Combien tu leur a filé d'argent pour qu'ils le fassent ?
      C'est ingérable parce que toutes les bonnes ia utilisent des données non libre de droit.
      Tu peux pas avoir la meilleure ia sans lui filer du contenu propriétaires

    • @jeanlucbiellmann9909
      @jeanlucbiellmann9909 4 місяці тому +4

      @@Unnaymed Donc selon vous, une IA open source payante donne automatiquement le droit à son créateur de voler tout ce qui se trouve sur le web ? Ben non justement. Soit on accepte le fait que le partage de la connaissance et son utilisation sont plus importantes que le droit de propriété ici bafoué dans tous les cas de figure, soit on retombe dans le biais d'une IA "sous la coupe de". Et on sait très bien que ça mène à des monopoles néfastes pour l'humanité, exactement comme les OS privateurs de liberté contre les logiciels libres de Richard Stallman. Une bonne IA sera une IA sous licence GPL, ou ne sera pas...

    • @Unnaymed
      @Unnaymed 4 місяці тому

      @@jeanlucbiellmann9909 je disais que c'est bien de demander a des gens de faire de l'open source avec leur propre argent, mais c'est une posture morale.
      Investi ou fais des dons dans les organisations qui entrainent des ia avec la licence qui te plais.

  • @maloukemallouke9735
    @maloukemallouke9735 4 місяці тому +3

    grand merci pour l info

  • @Thibault_09
    @Thibault_09 3 місяці тому +1

    Merci pour ta vidéo, les sujets autour de l'ia sont passionnants. Penses tu un jour faire une vidéo spécialisé sur "comment faire tourner un modèle en local" ou" comment l'entraîner" ect ? Je te dis ça car tu es très pédagogue et je pense que ça pourrait être super intéressant ! Merci encore.

    • @codeconcept
      @codeconcept  3 місяці тому

      Merci Thibault !
      Là en ce moment je refais de la veille techno sur du dev "classique". Mais je note l'idée :)

  • @tomas3861
    @tomas3861 4 місяці тому +2

    Super intéressant

  • @happycollapse6348
    @happycollapse6348 4 місяці тому +1

    A mon avis le vrai multimodal n'existe pas, même chez les concurrents.
    Quand on donne une image a GPT ou consorts, c'est une IA img2text qui va décrire l'image en texte et l'envoyer au LLM
    tout comme quand on demande une image c'est une autre IA text2img qui va générer l'image.
    etc..
    Les LLM restent des LLM et ne traitent que du texte.
    On est très très loin de skynet :P

    • @codeconcept
      @codeconcept  4 місяці тому +1

      Ca me fait penser au mash-ups qu'on faisait il y a une quinzaine d'années. On chaînait le résultat de l'appel d'une API à l'entrée d'une autre. Je m'étais amusé à contrôler à mon navigateur web à la voix ou encore à faire du text to speech vers google maps.
      Ce qui m'inquiète davantage que skynet, c'est la surveillance des salariés (une IA qui contrôle en permanence le sourire des vendeurs, lu ce jour), on encore la détection de comportements suspect (cool) qui se trompe car le "suspect" était simplement habitué à faire ses courses très vite et donc suspecté d'être un voleur (pas cool). Bref, le contrôle permanent et indiscriminé n'est pas un pas dans la bonne direction.

  • @IkarioFr404
    @IkarioFr404 4 місяці тому +1

    A voir ce que donne la miniaturisation des modèles dans l'espace de stockage. Quand on pourra faire tourner ces modèles de manieres très efficace sur des clients plus petit type pc smartphone ca va devenir très compétitif

    • @codeconcept
      @codeconcept  4 місяці тому

      Ce qui aura en plus le mérite de pouvoir les utiliser localement, sans connexion internet.

  • @Unnaymed
    @Unnaymed 4 місяці тому +1

    Le 400b restera cher a utiliser, a voir a quel prix les entreprises vendent son usage.
    Mais c'est une révolution d'avoir le top des performances en open weight, et pas open source.

    • @codeconcept
      @codeconcept  4 місяці тому

      Open weight et Open source. C'est vrai que j'ai vu passé le distinguo en préparant la vidéo. Ca mérite d'être creusé 😀

  • @thomasbrunelouellet4370
    @thomasbrunelouellet4370 4 місяці тому +2

    super emission. est posisble de nous renseigner combien coute limplementation de ce type de ai et de le rendre disponible a une entreprise ? svp

    • @codeconcept
      @codeconcept  4 місяці тому +1

      Merci 😀 Pour utiliser ce genre d'IA en entreprise, il faudra de plus en plus recourir à des spécialistes qui sauront fine tuner un modèle pour l'adapter à un problème particulier, créer des systèmes multi-agents ("coumpound AI systems") pour aller au-delà de simples requêtes qui tapent dans des données utilisées pendant l'entrainement vers des requêtes qui peuvent aussi chercher dans des données additionnelle (une DB, une API, un autre modèle etc).
      On commence à entrevoir de nouveaux métiers autour de l'IA qui ne nécessitent pas forcément d'être docteur en IA (les docteurs font de la R&D) mais permettent d'implémenter des solutions concrètes à partir des résultat des chercheurs (en gros de l'ingénieurie) .

  • @MIDO2802
    @MIDO2802 4 місяці тому +1

    400b il faut 512Gb de ram et une carte graphique avec aussi plusieurs centaines de G de vram

    • @henochcamer3765
      @henochcamer3765 4 місяці тому +1

      Exactement, le modèle est certes gratuit mais ça demande une bête de config.
      Les modèles 70B et 8B sont déjà plus accessibles

    • @happycollapse6348
      @happycollapse6348 4 місяці тому +2

      En optimisant au max on peut descendre a 200Go de vram. soit huit RTX4090... ce qui est déjà monstrueux.
      Lorsqu'on se rends compte de la consommation des LLM's ça pose quand même de sacrées questions sur l'avenir de ces choses. tout ça pour générer du texte plein d'hallucinations... J'ai été très hypé par tout ça au début mais plus ça va plus je me demande si c'est vraiment utile.

    • @codeconcept
      @codeconcept  4 місяці тому +1

      Dès qu'il faut faire quelque chose qui sort de simple POC, il faut de l'équipement et acheter beaucoup de tokens.
      Quant à la consommation électrique, ça devient un problème environnemental. Et paradoxalement, c'est le genre de problème qui ne fait plus du tout partie des préoccupations du moment, alors ...

    • @henochcamer3765
      @henochcamer3765 4 місяці тому

      @@codeconcept Exact, et c'est là qu'on réalise qu'on ne peut pas vraiment échapper à se monter une stack à 20/50€ avec des outils SaaS ou des API à consommer. (Si on veut utiliser à fond ce type de codegen)