Installez DeepSeek R1 en LOCAL : Guide Rapide (0€, 5 Min) 💻🔧
Вставка
- Опубліковано 5 лют 2025
- Salut la team ! 👋 Ici Jacky West, et dans cette vidéo, on plonge dans l’IA révolutionnaire qui fait trembler les géants de la tech 💥. Je vous montre comment installer DeepSeek R1 en local (gratuitement !) pour remplacer ChatGPT, même en tant que débutant !
🔍 Au programme :
Pourquoi DeepSeek R1 ? → Un modèle open source 10x moins cher que ChatGPT (Oui, 0€ vs 200$/mois !).
Tuto pas à pas : Installation avec Olama + configuration sur Chatbox (interface pro en 5 min).
Le drame : Comment Nvidia a perdu 500 milliards à cause de DeepSeek… 😱
Solutions aux bugs : Choix du modèle (1.5B vs 7B), optimisation pour PC faible puissance.
💡 Pourquoi regarder ?
→ Contrôlez votre IA en local (confidentialité, sécurité, personnalisation).
→ Évitez les pannes comme la récente cyberattaque DeepSeek.
→ Gagnez en autonomie sans dépendre des abonnements US.
👉 N’oubliez pas de :
👍 Liker si vous kiffez l’indépendance tech !
💬 Commenter : « Vous préférez OpenAI ou DeepSeek ? »
🔔 Activer la cloche pour ne pas rater le prochain tuto choc !
#IA #OpenSource #TechFrance #DeepSeek #ChatGPT #DeepSeekR1
Super Cool Bro 🙏 , je suis Dev et vraiment j'ai jamais vu un tuto aussi simple bien fait et avec de l'humour . Merci encore pour ces infos
@@armandbessala6252 ha ça fait vraiment plaisir à lire 🙏🏾
Une vidéo simple et efficace et qui donne de la valeur ! 100% efficient
Merci 🙏🏾
Excellent ! Tu as gagné une abonnée.
@@sillou5102 ha nice ! Bienvenue dans le cercle ⭕️
Super vidéo !!! Merci Jacky, y a plus qu'à mettre les mains dans le cambouis... Merci de donner envie d'aller voir plus loin avec l'A et d'expliquer comment faire. Sympa aussi si tu veux créer "une communauté de gens passionnés et positifs" autour de ces thème.
Avec plaisir de partager ma passion 😊
Bonne continuation !
Explication simple, rapide et efficace.
Très bonne vidéo d'explications, merci pour le partage.
Merci pour l'installation via chatbox :) t'es au top !
Avec plaisir 😁
un grand merci cher frère
Nickel! Bravo! Et vive la tête à Toto!
je viens de découvir la chaine contenu de valeur merci bcp
@@FrédéricGidelle merci beaucoup. J’essaie d’apporter beaucoup de contenu de valeur pour diffuser l’information et qu’elle soit partagé
Merci; je reviendrais pour faire l'installation. Joli tuto +1 abonné
Merci à toi
Super explication merci pour ce tuto.peux tu nous dire comment entraîner deepseek
Allez hop un abonné de plus
Bienvenue dans le ⭕️
Simple et super intéressant. J'aurais aimé connaitre ton modèle de Mac et savoir quelle puissance de Mac il faut pour faire tourner la même version de R1 que sur le site officiel de deepseek ! Actuellement il est down depuis hier 😒
@@Adamy-69 MacBook Air 2019 puce M1 il me semble. La version en ligne est la plus puissante mais cela dit les autres versions n’ont rien à envier pour un open source en local. Il faut utiliser les deux options 😉
@@Adamy-69 combien de secondes pour toi pour avoir une réponse final a une simple question du style : où est Paris
Salut, pour l'ia en local, j'utilise le gestionnaire d'ia gratos, qui s'appelle ''lm studio".
Y a le modèle que tu as installé, la 7B à 4,7Go de la deepseek-r1.
Ce qui est pratique avec "lm studio', c'est qu'à chaque fois que tu le lance, ça va check s'il y a des mises à jour des différents modèles que tu as installés. perso j'ai qwen 2.5 et llama 3.2 en plusieurs profondeurs d'installer pour tester les différences.
Où trouver ce gestionnaire? Comment installer ce gestionnaire? Comment ça marche?
@@xsohareofficiel9042 utilisez google...
De plus il y a des tonnes de tutos youtube qui présentent cette application, qui fonctionne sur windows, linux et mac.
salut est-ce que Im studio est mieux ?
@@xsohareofficiel9042 sur internet, et y a des tutos sur yt pour l'installer, mais c'est vraiment très simple..
@@8matrice8 Comment ça ? ce n'est pas un langage... c'est un lanceur d'ia, comme steam est un lanceur de jeux.
Lm studio regroupe toutes les ia que tu installes en local sur ton ordi.
merci pour cette bonne vidéo
Avec plaisir 😊
Merci pour la vidéo
@@Naddddssss merci pour l’encouragement 🙏🏾
continue
Merci beaucoup vous expliquer bien. Est ce que en peu chargé sur le tephone.
La version 1.5b doit pouvoir le faire. Mais pour l’instant je ne connais pas de méthode facile et rapide
Merci je découvre la chaine ;) abo =)
Bonjour, merci pour cette vidéo, quelle est la meilleure configuration pour faire tourner le modèle? Merci
Cela dépend de la machine, plus il y aura de RAM plus ce sera efficace. Et aussi bien pensé à mettre à jour sa version de système d’exploitation
Merci
Salut Jacky ! Je trouve deepseek impressionnant mais le serveur est souvent full donc je ne peux pas prompté efficacement, as tu ce problème ? Et comment contourner ou éviter d'avoir des prompt interrompu ?
Hello yes ils subissent des cyberattaques ces derniers jours. La solution est justement de faire tourner sa propre version en local pour éviter d’être trop dépendant. Mais ça devrais se calmer d’ici quelques jours.
@@jacky_westSuper merci
Merci, ça fait un moment que je me pose la question d'une IA en local.
Crois tu qu'on peut la nourrir soit même à base de PDF persos ??
@@fredericchesneau7555 je ne pense pas via ce mode, par contre j’ai réussi à faire tourner un modèle avec mes propres pdf sur n8n. J’en ferais une vidéo prochainement. Reste connecté 😉
Comment on ouvre l'indique de commande sur window ?
Cliquer dans la Barre de recherche windows et écrire invite de commande. L'icône apparaîtra dans la liste des résultats. Cliquer dessus et on est dedans
@@jeosbeavadra9270 moi ca ne fonctionne pas avec....je mets le lien ollama run deepseek-r1 et voici la reponse de la console : ollama run deepseek-r1
'ollama' n’est pas reconnu en tant que commande interne
ou externe, un programme exécutable ou un fichier de commandes. merci pour le conseil
@@PayATC tape dabord "cmd" dans la barre windwos dans le dossier de l'appli dabord
@@PayATC
Lance ton invite de commande en mode Administrateur.
Bonjour Jacky merci pour le tuto. L'IA fonctionne avec la console Windows mais il ne se passe rien avec le logiciel de Chatbox qui s'est parfaitement installé et que j'ai configuré comme expliqué dans la vidéo, c'est frustrant!
@@marckaos ha ça c’est souvent lié à l’environnement meme. T’es sous Windows ? Peut être un problème d’incompatibilité
@@jacky_west Oui, je suis sur un vieux portable de douze ans d'âge que j'utilise pour tester les programmes que je télécharge sur le net pour éviter les problèmes. C'est probablement la raison de ce dysfonctionnement. merci pour ton passage ! Amicalement, Marc.
par contre un peut long a utiliser et en plus il est toujours en mode "think" se qui mets plus de temps. j'hésite a tester le prochain après le 7b et je ne sais pas si cuda est activé
Si il mets du temps c’est la puissance de la machine je pense, as tu tester la perf d’un modèle en dessous ?
@jacky_west j'ai tester ensuite le 32b il met environ 25s pour une réponse. Je pense qu'il faut vraiment une machine très puissante j'ai une carte Nvidia 6Go de VRAM et j'ai 24Go de mémoire sur un portable Asus tuf
J'avais déjà fairt fonctionner CUDA de Nvidia avec un autre projet de génération d'images vidéo dans flux1 j'avais réussi à faire fonctionner CUDA donc j'ai l'impression que tu l'as fonctionne parce que j'entends le GPU fonctionné mais je sais pas si vraiment c'est le GPU il faudrait que j'ouvre le gestionnaire de tâches
@ ha oui si tu as réussi à faire tourné flux, ce serait bien de s’assurer qu’aucune app bouffe de la mémoire
@jacky_west d'accord je vais vérifier mais c'était il y a 2mois donc normalement le Run n'est pas lancé
Je viens de créer une application et cela m'a pris 1 h presque. Conseil : n'hésitez pas à changer le prompt chaque fait que la réponse ne vous satisfait pas😊
@@vertimaron exactement !! Il ne faut pas avoir peur de tester dans tous les sens 😂
fois 😌
Si votre pc dispose d une carte graphique rtx il est vivement conseiller d installer cuda de nvidia ansi que cuDNN pour tirer parti de la carte graphique en ia tester aussi LM studio au lieu de ollama
@@linecoffee3006 Pour des tous petits modèles entre 1 et 7b et en quantisation
Avec une 1080ti je peux faire quelque chose quand même
Merci, c'est clair. par contre le chatbot ne m'affiche pas de clef API quand j'ai choisi deepseek API. Comment avoir cette clé ? Merci encore
@@facadesss il faut se connecter sur platform Deepseek pour récupérer la clé d’api. Mais le site est down pour l’instant. Le plus simple est de passer par openrouter.ai c’est une plateforme de gestion unifié
Bonjour. Donc, c'est que pour les anglophones seulement ?
Bonjour. Le processus se fait sur des applications développé en anglais mais après l’utilisation de l’IA peut se faire en français. Une fois dans chat box vous pourrez converser en français
@@jacky_west Merci. Juste pour info: J'ai testé cette IA en lui demandant par exemple de me dire combien de voitures neuves avaient été vendues en France en 2024. Elle m'a répondu qu'elle ne pouvait pas me répondre car sa base de données s’arrêtait en 2023. Or, ChatGPT lui, m'a répondu en me donnant toutes les stats. Conclusion, je reste sur ChatGPT (formule à 23 € par mois.)
@ yes pour la recherche d’information il vaut mieux le coupler à un moteur qui a accès à internet ou un services de recherche type serpapi pour être sûr d’avoir des données à jour
@@jacky_west Merci pour ta réponse. Ça me parait un peu compliqué pour moi débutant, le couplage. Un de ces jours, si t'as le temps, fais nous une vidéo tuto pour ça. Merci.
Je fais tourner la version 14b sans problème sur mon MacBook pro M1
@@inumerix Nice ! Je dois faire une mise à jour et je verrais si c’était lié à ça.
Ton écran qui pompe , cela pompe. Sinon top
@@jacky_west J'ai 16gb de RAM. En revanche ça coince avec la version 32b
Je suis surtout curieux de savoir combien de dollars et abonnés les LLM payants vont perdre à cause de la gratuité de DeepSeek. Réponse dans quelques semaines..
Nvidia a déjà perdu 500 milliards en bourse à cause de DeepSeek et j’en parle pas du reste des big tech
Les stocks mais aussi les cryptos ont senti la claque...il faudrait d'autres innovation gratos encore...histoire de rekt quelques oligarques
4:09 cyberattack made in USA
Il y a suspicion la 😅
tu a poser la question en français et il te répond en anglais. merde l'anglais partout
Yes la plupart des modèles sont entraîné en anglais. Il suffit de préciser a la requête suivante