🚀 Salut à tous ! Vous êtes nombreux à chercher des solutions pour utiliser DeepSeek R1 efficacement et en toute sécurité sur votre propre machine, et je suis ravi de partager ces astuces avec vous.. Avez-vous des questions ou des retours à partager? Laissez un commentaire ci-dessous et abonnez-vous pour plus de tutoriels! 🔔
Bonjour Dr Firas. Merci pour cette super vidéo. Cependant, il serait bon de préciser les ressources nécessaires d'un ordinateur en local pour faire tourner DeepSeek R1 en termes de RAM pour le CPU et de VRAM pour la carte graphique. Pour le modèle à 1.5B une petite carte graphique et 16 Go de RAM doivent pouvoir donner un rendu assez fluide et rapide. En revanche, à partir du 7B, il faut commencer à disposer d'une machine relativement puissante ( 32 Go de RAM pour le CPU et minimum 12 Go de VRAM pour la carte graphique). Qu'en pensez-vous ?
Coucou, Alors je teste souvent des modeles IA et en général (Mistral, LLAMA et autres) quand on a un modèle de 70B il faut un SERVEUR pour faire tourner le bousin ! sinon le PC plante ! Donc j'imagine même pas le 671b ... et ça utilise de la VRAM (mémoire de la carte graphique) j'en ai une qui fait du 24Go et avec certains paramétrage je peux réussir a faire tourné des modèles 28b voir 32b Max. Du coup, ma question est la suivante, Deepseek est dans la même catégorie ou non ? Parce que avoir un disque dur externe pour le model 671b tu vend du rêve. Pour moi c'est IMPOSSIBLE sur une machine lambda.
Moi je l avais télécharger sur mon téléphone car pratique pour répondre à un courrier bon ba google a bloqué l application comment je peux le réinstaller sur mon téléphone
Personnellement ça me dérange dans tous les cas, que ça soit chinois américain ou français même, c’est assez personnel les requêtes qu’on fait à ce genre d’assistant, c’est pour ça que le faire tourner en local je trouve ça vachement plus intéressant !
🙂Il serait bien de parler de la configuration du PC pour Deepseek en local 🖥🥵. 💡Je réfléchis et cherche une bonne configuration au meilleur prix depuis quelques jours 💰💰💰. 🤔Mais ce n’est pas évident. Le CPU, la carte vidéo avec sa VRAM, etc. Ça ferait un bon sujet de vidéo. Qu'en pensez-vous ?
j'ai demande a chatgpt des blague sur Lucie sa donne sa : Pourquoi l’IA de la France s’appelle Lucie ? Parce que même en 2025, elle essaie encore de découvrir le feu ! 🔥😆 Pourquoi l'IA française Lucie ne joue jamais aux échecs ? Parce qu'à chaque coup, elle attend l'autorisation de l'administration ! 🇫🇷🤖📄😂 Pourquoi l'IA Lucie a été recalée à son entretien d'embauche ? Parce qu'elle a répondu *"Veuillez reformuler votre question"* à chaque demande ! 😆🤖
🚀 Salut à tous ! Vous êtes nombreux à chercher des solutions pour utiliser DeepSeek R1 efficacement et en toute sécurité sur votre propre machine, et je suis ravi de partager ces astuces avec vous..
Avez-vous des questions ou des retours à partager? Laissez un commentaire ci-dessous et abonnez-vous pour plus de tutoriels! 🔔
Quand on télécharge pour le local, dans quel dossier son enregistrées les données ?
Merci Dr je commence à y voir un peu plus clair mais va me falloir encore quelques tutos j'en ai peur :o)
Bonjour Dr Firas. Merci pour cette super vidéo. Cependant, il serait bon de préciser les ressources nécessaires d'un ordinateur en local pour faire tourner DeepSeek R1 en termes de RAM pour le CPU et de VRAM pour la carte graphique. Pour le modèle à 1.5B une petite carte graphique et 16 Go de RAM doivent pouvoir donner un rendu assez fluide et rapide. En revanche, à partir du 7B, il faut commencer à disposer d'une machine relativement puissante ( 32 Go de RAM pour le CPU et minimum 12 Go de VRAM pour la carte graphique). Qu'en pensez-vous ?
Tout à fait raison, je vais faire une vidéo sur ça 😉
Salam, comment vous allez, j'espère bien et merci de votre effort
Merci à vous
Coucou,
Alors je teste souvent des modeles IA et en général (Mistral, LLAMA et autres) quand on a un modèle de 70B il faut un SERVEUR pour faire tourner le bousin ! sinon le PC plante !
Donc j'imagine même pas le 671b ... et ça utilise de la VRAM (mémoire de la carte graphique) j'en ai une qui fait du 24Go et avec certains paramétrage je peux réussir a faire tourné des modèles 28b voir 32b Max.
Du coup, ma question est la suivante, Deepseek est dans la même catégorie ou non ?
Parce que avoir un disque dur externe pour le model 671b tu vend du rêve. Pour moi c'est IMPOSSIBLE sur une machine lambda.
Oui tout à fait raison, je suis entrain de faire une vidéo qui donne exactement les configurations nécessaires pour chaque modèle de DeepSeek. 👍
MERCI vous pouvez utiliser chat box aussi
Moi je l avais télécharger sur mon téléphone car pratique pour répondre à un courrier bon ba google a bloqué l application comment je peux le réinstaller sur mon téléphone
Quand on installe deepseek en local, est ce qu'on a besoin d'une machine puissant pour l'exécuter ??
Je voulais que tu fasses un test pour la création d'un site web complet en symfony avec le lts de symfony stable. Svp
Et quand cela va au gouvernement Américain,personne ne parle
Personnellement ça me dérange dans tous les cas, que ça soit chinois américain ou français même, c’est assez personnel les requêtes qu’on fait à ce genre d’assistant, c’est pour ça que le faire tourner en local je trouve ça vachement plus intéressant !
je suis sur mac OS high Sierra, et sa fonctionne pas :(
Salut Dr. Vous pouvez programme un site de A à Z deepSeek en local
🙂Il serait bien de parler de la configuration du PC pour Deepseek en local 🖥🥵.
💡Je réfléchis et cherche une bonne configuration au meilleur prix depuis quelques jours 💰💰💰.
🤔Mais ce n’est pas évident. Le CPU, la carte vidéo avec sa VRAM, etc.
Ça ferait un bon sujet de vidéo. Qu'en pensez-vous ?
Très bonne idée !
Oui, svp parlez nous également du CPU et de la VRAM nécessaire à l'installation en local.🎉
j'ai demande a chatgpt des blague sur Lucie sa donne sa :
Pourquoi l’IA de la France s’appelle Lucie ?
Parce que même en 2025, elle essaie encore de découvrir le feu ! 🔥😆
Pourquoi l'IA française Lucie ne joue jamais aux échecs ?
Parce qu'à chaque coup, elle attend l'autorisation de l'administration ! 🇫🇷🤖📄😂
Pourquoi l'IA Lucie a été recalée à son entretien d'embauche ?
Parce qu'elle a répondu *"Veuillez reformuler votre question"* à chaque demande ! 😆🤖