Comment exécuter DeepSeek localement :guide d'installation
L'Intelligence Artificielle (IA) évolue rapidement, et des modèles tels que DeepSeek sont de plus en plus utilisés pour la génération de texte, l'aide à la programmation et la recherche. Exécuter DeepSeek localement présente de nombreux avantages, notamment la confidentialité, une latence plus faible et un contrôle total sur le modèle d'IA.
Toutefois, installer et exécuter DeepSeek IA localement nécessite une certaine configuration technique. Ce guide vous propose une méthode étape par étape pour installer DeepSeek sur votre ordinateur en utilisant Ollama, un outil conçu pour exécuter efficacement des modèles d'IA sur le matériel local.

Partie 1 : Conditions requises du système pour exécuter DeepSeek localement
Avant d'installer DeepSeek, vous devez vous assurer que votre système répond aux exigences matérielles et logicelles minimales.
Exigences matérielles minimales :
Processeur : Processeur multi - cœur (Intel i5/Ryzen 5 ou supérieur).
Mémoire vive (RAM) :
- 8 Go ou plus pour le modèle 5B.
- 16 Go ou plus pour le modèle 8B.
- 32 Go ou plus pour le modèle 14B+.
Stockage : Au moins 20 Go d'espace disque libre (varie selon la taille du modèle).
Carte graphique (GPU, facultatif mais recommandé) : NVIDIA RTX 3060 ou supérieure pour les grands modèles.
Systèmes d'exploitation pris en charge :
✅ Windows 10/11 (WSL recommandé pour de meilleures performances).
✅ macOS (M1/M2/M3 ou Intel).
✅ Linux (Ubuntu 20.04 ou version ultérieure recommandée).
Partie 2 : Installation d'Ollama pour exécuter DeepSeek
Ollama est un outil léger qui simplifie l'exécution de modèles d'IA localement. Voici comment l'installer sur différents systèmes d'exploitation.
Installation d'Ollama sur macOS
- Ouvrez le Terminal.
- Exécutez la commande suivante : brew install ollama
- Vérifiez l'installation en exécutant : ollama --version
Installation d'Ollama sur Windows
- Téléchargez Ollama sur le site officiel.
- Exécutez l'installateur et suivez les instructions affichées à l'écran.
- Ouvrez la ligne de commande (cmd) et tapez : ollama --version
- Si le numéro de version apparaît, Ollama est installé avec succès.
Installation d'Ollama sur Linux (basé sur Ubuntu/Debian)
- Ouvrez le Terminal.
- Exécutez la commande suivante : curl -fsSL https://ollama.com/install.sh | sh
- Confirmez l'installation : ollama --version
Partie 3 : Téléchargement et configuration de DeepSeek R1
Une fois Ollama installé, l'étape suivante consiste à télécharger et configurer DeepSeek R1.
Choix du bon modèle DeepSeek
DeepSeek propose plusieurs versions en fonction des capacités du système :
Modèle
Exigence en mémoire vive
Idéal pour
DeepSeek R1 1.5B
8 Go ou plus
Tâches d'IA légères
DeepSeek R1 8B
16 Go ou plus
Génération de texte générale, programmation
DeepSeek R1 14B
32 Go ou plus
Résolution de problèmes complexes, recherche
DeepSeek R1 32B+
64 Go ou plus
Applications d'IA avancées
Téléchargement du modèle DeepSeek avec Ollama
Pour installer DeepSeek sur votre machine locale, ouvrez le Terminal (macOS/Linux) ou la ligne de commande (Windows) et exécutez :
ollama pull deepseek-r1:8b
Remplacez 8b par la version du modèle souhaitée, par exemple 1.5b ou 14b. La taille du téléchargement varie, assurez - vous donc d'avoir suffisamment d'espace disque.
Partie 4 : Exécution de DeepSeek localement
Après avoir téléchargé le modèle, vous pouvez démarrer DeepSeek avec la commande suivante : ollama run deepseek-r1:8b
Tester DeepSeek avec une instruction de base
Essayez d'exécuter ceci pour vérifier le modèle : echo "Quelle est la capitale de la France?"| ollama run deepseek-r1:8b
Si DeepSeek répond correctement, la configuration est réussie !
Partie 5 : Optimisation de DeepSeek pour de meilleures performances
Si DeepSeek s'exécute lentement ou avec du lag, essayez les optimisations suivantes :
✅ Augmenter le nombre de threads du processeur
Par défaut, Ollama attribue un nombre limité de threads de processeur. Pour augmenter les performances, exécutez : ollama run deepseek-r1:8b --num-threads=4
Remplacez 4 par le nombre de coeurs de processeur disponibles.
✅ Utiliser l'accélération GPU (si disponible)
Pour les cartes graphiques NVIDIA, activez la prise en charge CUDA : ollama run deepseek-r1:8b --use-gpu
Cela améliore considérablement les performances pour les modèles plus gros.
✅ Réduire la latence de réponse
Utilisez le drapeau max - response - tokens pour limiter la longueur de la réponse et accélérer la sortie : ollama run deepseek-r1:8b --max-response-tokens=100
Partie 6 : Dépannage des problèmes courants
Si vous rencontrez des erreurs, essayez les solutions suivantes :
❌ Erreur : "Ollama non reconnu" (Windows)
✅ Redémarrez votre système après avoir installé Ollama.
✅ Assurez - vous que Ollama est ajouté aux variables PATH du système.
❌ Erreur : "Mémoire insuffisante"
✅ Fermez les applications inutiles pour libérer de la mémoire vive.
✅ Utilisez un modèle plus petit (par exemple, passez du modèle 14B au modèle 8B).
❌ Erreur : "Dispositif CUDA non trouvé"
✅ Assurez - vous d'avoir installé les pilotes NVIDIA CUDA.
✅ Exécutez nvidia - smi dans le terminal pour vérifier l'état de la carte graphique.
Conclusion
Exécuter DeepSeek localement offre de la confidentialité, de l'efficacité et un meilleur contrôle sur le traitement d'IA. En suivant ce guide, vous pouvez configurer et optimiser DeepSeek sur votre machine, ce qui assure des tâches assistées par l'IA fluides pour la programmation, l'écriture et la recherche.
Si vous avez trouvé ce guide utile, faites - le nous savoir dans les commentaires !
Partager cet article :
Donnez une note du produit :
Clément Poulain
Auteur en chef
Je travaille en freelance depuis plus de 7 ans. Cela m'impressionne toujours quand je trouve de nouvelles choses et les dernières connaissances. Je pense que la vie est illimitée mais je ne connais pas de limites.
Voir tous les articlesLaissez un avis
Donnez votre avis pour les articles HitPaw