On test Groq, le moteur d'IA générative ultra rapide (extrait de La Matinale)

Поділитися
Вставка
  • Опубліковано 14 січ 2025

КОМЕНТАРІ • 8

  • @foxnyoki5727
    @foxnyoki5727 8 місяців тому +1

    Petite critique, mais constructive :
    Préparez mieux vos vidéos, vous ne terminez pas vos phrases, ça part un peu dans tous les sens, la moitié de la vidéo est basée sur Make alors qu'à la base (perso) je viens pour découvrir un peu mieux Groq, au final j'en ressort sans plus d'infos que j'en avais en arrivant.
    Je m'abonne quand même, déjà pour l'effort et le partage mais également car je suis certain que les vidéos seront plus explicatives à l'avenir (tout en étant moins détaillés, moins détaillées dans le sens, nous sommes ici pour Groq, pas pour Make par exemple).
    Merci pour le partage et bonne continuation ;)

    • @Contournement
      @Contournement  8 місяців тому +1

      Bonjour et merci pour le retour. En fait cette vidéo est extrait d'un live que je fais sur Twitch et donc c'est effectivement très peu préparé. J'ai d'ailleurs modifié le titre pour que ce soit un peu explicite. Donc effectivement je reconnais que le sujet de Groq n'est pas beaucoup développé et c'est vraiment de la découverte en live. On apprécie toujours les retours constructifs ici donc merci :)

  • @AlexSaurel
    @AlexSaurel 9 місяців тому

    Hello, je comprends rien. L’intelligence artificielle française c’est bien mistral ? Et groq c’est bien un fabricant de puce d’intelligence artificielle qui concurrencent NVidya ? Donc du coup le groq que t’es en train de tester c’est quoi ? C’est un truc qui appartient à mistral ? C’est une intelligence artificielle créé par le fabricant de puce ? Ou alors c’est carrément un troisième entreprise qui a copié le nom du fabricant de puce et qui permet d’accéder à différentes intelligence artificielle pour les comparer ? Je suis complètement paumé.

    • @Contournement
      @Contournement  9 місяців тому

      Moi j'ai testé GroqCloud qui est proposé par la société Groq pour pouvoir executér des LLMs en utilisant leurs LPU via des APIs. Mistral propose ses modèles de manière libre, donc il est possible de les exécuter où on le souhaite. Dans le cas présent sur les serveurs de la société Groq pour son service GroqCloud. J'espère que c'est plus clair car effectivement dans cette vidéo j'ai pas expliqué grand chose

    • @AlexSaurel
      @AlexSaurel 9 місяців тому

      @@Contournement cool donc Groq c'est une sorte de Cloud PAAS ou tu peux installer des modele d'IA et les tester?

    • @Contournement
      @Contournement  9 місяців тому

      @@AlexSaurel On peut juste choisir les modèles qu'eux ont préselectionnés. A ce jour Llama et Mistral

  • @mohammedbelhadj-hm8qn
    @mohammedbelhadj-hm8qn 10 місяців тому

    bonjour, merci pour l'effort mais tres mal expliqué , j'ai rien compris de ce que tu dit, pourtant je connais le milieu tres bien

    • @Contournement
      @Contournement  10 місяців тому +1

      On essaiera de faire mieux la prochaine fois. Il faut simplement retenir que Groq est 10x plus rapide pour exécuter des LLMs tels que Mistral ou LLama2 :)