👍💯/💯 Merci beaucoup, Johan, pour cette analyse détaillée de Lama 3.1 ! As-tu exploré comment Lama 3.1 se comporte en termes de biais et de justesse des réponses comparé aux autres modèles d'IA actuels ? Vivement ton prochain tuto 🎉🎉🎉
Merci, avec plaisir ! Non pas trop, étrangement j'ai eu de meilleurs résultats avec le 70b avec le 405b qui dérive étonnamment, il faudra que je creuse... À bientôt 😉👋
lol Johan.... J'adore votre notion de 'machine modeste' :P Avec ma 730 non non je n'ai pas la moindre remarque à faire ;) Merci pour ce nouveau petit morceau de tech ! Juste une question: Pinokio se met à jour tout seul ??? Je viens de le relancer et la vue des 'discover' a changé sans que je ne touche à rien.... Belle soirée à vous et desolé pour le delay de reponse j'etais absent semaine derniere ;) EDIT: j'adore le > :D Le franc-parler est toujours plaisant ;)
Hello 🙂 Non Pinokio ne se met pas à jour seul, cependant la page Discover qui est en ligne, oui. Idem pour le delay de réponse... A bientôt et merci pour le soutien 👋🙂
Je sais pas quoi dire sur cette IA - Alors je laisse un commentaire, juste pour flatter l'algo de ta chaine 😂 - Si un jour tu as envie de venir passer quelques jours de vacances au Vietnam, fait moi signe ! Ici il y a vraiment de belles Photos à faire...
Hello, pour le 405b le plus est le mieux. J'ai vu la génération sur une rtx 4090 24 de Vram + 256 de ram >> Un mot ou deux toutes les 2 ou trois minutes...
ça fait 2jours que j'essaie de l'essayer sur pinokio avec ollama mais je trouve pas comment ajouter le model et il y a aucun tuto, ou alors je commence à vieillir 😅
@@johansolutionsdigitales merci pour ta réponse, j'ai trouvé entre temps, il fallait coller une ligne sur open webui pour pull le model directement. Maintenant je cherche à le rendre offline ;)
👍💯/💯 Merci beaucoup, Johan, pour cette analyse détaillée de Lama 3.1 !
As-tu exploré comment Lama 3.1 se comporte en termes de biais et de justesse des réponses comparé aux autres modèles d'IA actuels ? Vivement ton prochain tuto 🎉🎉🎉
Merci, avec plaisir ! Non pas trop, étrangement j'ai eu de meilleurs résultats avec le 70b avec le 405b qui dérive étonnamment, il faudra que je creuse... À bientôt 😉👋
lol Johan.... J'adore votre notion de 'machine modeste' :P
Avec ma 730 non non je n'ai pas la moindre remarque à faire ;)
Merci pour ce nouveau petit morceau de tech !
Juste une question: Pinokio se met à jour tout seul ??? Je viens de le relancer et la vue des 'discover' a changé sans que je ne touche à rien....
Belle soirée à vous et desolé pour le delay de reponse j'etais absent semaine derniere ;)
EDIT: j'adore le > :D Le franc-parler est toujours plaisant ;)
Hello 🙂 Non Pinokio ne se met pas à jour seul, cependant la page Discover qui est en ligne, oui. Idem pour le delay de réponse... A bientôt et merci pour le soutien 👋🙂
Je sais pas quoi dire sur cette IA - Alors je laisse un commentaire, juste pour flatter l'algo de ta chaine 😂 -
Si un jour tu as envie de venir passer quelques jours de vacances au Vietnam, fait moi signe !
Ici il y a vraiment de belles Photos à faire...
Pas de soucis, merci pour ton soutien 👍 Et merci également pour l'invitation 🙏 Félicitation pour ta chaine très utile et créative ! 👋
En local ! C'est nickel ! Un tourant.
Oui, le 8b, un vrai régal ! Petit et puissant, cela devient intéressant !
Comment savoir en terme de ram et de puissance de calcul de la carte graphique les quel il faut pour un type de modèle ai. Du coup pour le 405b
Hello, pour le 405b le plus est le mieux. J'ai vu la génération sur une rtx 4090 24 de Vram + 256 de ram >> Un mot ou deux toutes les 2 ou trois minutes...
Yeeeeeess 🥳🥳🥳
Oui, c'est cool !
ça fait 2jours que j'essaie de l'essayer sur pinokio avec ollama mais je trouve pas comment ajouter le model et il y a aucun tuto, ou alors je commence à vieillir 😅
Hello, j'ai fait cela dans une de mes précédentes vidéos, je ne sais plus laquelle...
@@johansolutionsdigitales merci pour ta réponse, j'ai trouvé entre temps, il fallait coller une ligne sur open webui pour pull le model directement. Maintenant je cherche à le rendre offline ;)
Salut Mec ... Navré pour tes vaccances...
Hello 🙂, c'était un peu un Joke, mais oui, j'avais prévu autre chose 😉
la puissance meta ....
Oui 😉 ils ont quelques moyens
Face a Mistral Nemo ca donne quoi
Hello, je l'ai raté celui-ci, je regarderai ça 👍👋
@@johansolutionsdigitales Ah super ! C'est une collaboration avec Nvidia et paraît-il qu'il est assez exceptionnel avec sont context énorme
@RIPrisitas Et Maintenant il y a Mistral Large 2 :)
@@epsilon131180 Oui mais il n'est pas open source donc pas forcément intéressant quand on a Claude qui est maître de ce domaine