Toujours aussi intéressant, bravo ! Ca va être super sur mon tout nouveau framework 13 (sous mint) (et tout ça en partie sur tes super conseils), vraiment merci
J'ai installé sur INTILLj Idea mais faut payer direct pour utiliser la fonction alors que je peux l'utiliser sur le net. Je comprend pas on a pas des essais gratuit limité au départ ?
Tu parles clairement mais parfois mériterait un peu plus de temps pédagogique. En même temps ça reste concis donc très bien quand même. Je vais te suivre. Bonne journée !
Merci beaucoup. C’est vrai que je survole certain point. Mais j’avais peur que le format 30 minutes ne bloque certaines personnes. Mais je dois avouer que je me suis trompé.
Merci pour la vidéo, est ce que tue peux nous dire quel est la marque de ta carte graphique c est modéls tournent souvent sur des carte puissante comme RTX 3090 ou RTX 4090 il sont gourmands en local
Merci. Juste ajouter que sur Windows, on peut aussi utiliser les GUI comme Jan et GPT4All puis télécharger les modèles LLM libres ou payants pour utiliser l'IA en local.
Ça veut juste dire que tu va faire fonctionner le modèle avec ton processeur et la RAM vu que tu n’as pas d’accélération matérielle par le biais de ta carte graphique. Je n’ai pas de carte graphique et ça fonctionne bien tant que tu prends un modèle pas trop gros (évite de prendre un modèle au-dessus de 8 milliards de tokens).
C’est parce que il va falloir que tu télécharges le modèle LLM et que tu l’installe en local sur ton Pc. 🖥️ Et la, ça devient gratuit. 🆓 Mais pour simplifier et raccourcir la vidéo, je ne l’ai pas fait.
pourquoi ne pas etre claire ? chatgpt n'est lama ou n'importe quel autre llm model aujourdh'ui je saute d'un putaclick titre a un autre , vraiment ca devient une monnaie , et ce n'est pas nouveau ou un secret d'avoir un LLm installer sur en local a condition d'avoir un pc qui a les couilles pour ca , , les gens qui se plaigne que le mec va vite baisser la vitesse de speed , moi je demande juste un peu juste un peu de clarte dans les titre
Ah moi je ne connaissais pas le principe d’un LLM installé en local et donc GRATUIT !!! Au moins cette vidéo didactique m’aura été très utile. Après c’est sur que pour les experts du sujet, ce n’est peut être pas une découverte.
Toujours aussi intéressant, bravo !
Ca va être super sur mon tout nouveau framework 13 (sous mint) (et tout ça en partie sur tes super conseils), vraiment merci
Ça fait plaisir de lire ça. 🥰
Super intéressant ! La fin de la vidéo m’a bien fait rire ! Je teste et je mets des screenshot dans les comm’ dès que possible
Génial !
Merci pour ton commentaire. Ça fait plaisir. 😇
J'ai installé sur INTILLj Idea mais faut payer direct pour utiliser la fonction alors que je peux l'utiliser sur le net. Je comprend pas on a pas des essais gratuit limité au départ ?
Tu parles clairement mais parfois mériterait un peu plus de temps pédagogique. En même temps ça reste concis donc très bien quand même. Je vais te suivre. Bonne journée !
Merci beaucoup.
C’est vrai que je survole certain point.
Mais j’avais peur que le format 30 minutes ne bloque certaines personnes. Mais je dois avouer que je me suis trompé.
Merci pour la vidéo,
est ce que tue peux nous dire quel est la marque de ta carte graphique c est modéls tournent souvent sur des carte puissante comme RTX 3090 ou RTX 4090 il sont gourmands en local
Je n’ai pas de carte graphique dédiée.
J’utilise mon Framework Laptop (qui est costaud mais c’est pas un Pc de Gamer).
Merci. Juste ajouter que sur Windows, on peut aussi utiliser les GUI comme Jan et GPT4All puis télécharger les modèles LLM libres ou payants pour utiliser l'IA en local.
Je n’utilise quasiment pas Windows au quotidien (plutôt sur Linux).
Merci pour le partage des GUI pour Windows. 👍🏼
when i try to install ollama i got this error WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode. aide moi svp
Ça veut juste dire que tu va faire fonctionner le modèle avec ton processeur et la RAM vu que tu n’as pas d’accélération matérielle par le biais de ta carte graphique.
Je n’ai pas de carte graphique et ça fonctionne bien tant que tu prends un modèle pas trop gros (évite de prendre un modèle au-dessus de 8 milliards de tokens).
Bon c’est un peu confus et surtout pas gratuit ( free trial n’est pas gratuit).
C’est parce que il va falloir que tu télécharges le modèle LLM et que tu l’installe en local sur ton Pc. 🖥️ Et la, ça devient gratuit. 🆓
Mais pour simplifier et raccourcir la vidéo, je ne l’ai pas fait.
et si cétait vrai ?
pourquoi ne pas etre claire ? chatgpt n'est lama ou n'importe quel autre llm model aujourdh'ui je saute d'un putaclick titre a un autre , vraiment ca devient une monnaie , et ce n'est pas nouveau ou un secret d'avoir un LLm installer sur en local a condition d'avoir un pc qui a les couilles pour ca , , les gens qui se plaigne que le mec va vite baisser la vitesse de speed , moi je demande juste un peu juste un peu de clarte dans les titre
Désolé que cela t’ais induit en erreur.
As-tu appris quelque chose sur cette vidéo ou sur les autres ?
Ah moi je ne connaissais pas le principe d’un LLM installé en local et donc GRATUIT !!! Au moins cette vidéo didactique m’aura été très utile. Après c’est sur que pour les experts du sujet, ce n’est peut être pas une découverte.