DeepSeek-R1:14B¶
Dans cet article
Information
DeepSeek-R1:14b est un modèle de langage puissant optimisé pour les exécutions locales à travers le cadre Ollama. Cette solution combine la haute performance du modèle avec une facilité d'utilisation grâce au Web UI Open. Le modèle nécessite des ressources informatiques significatives pour fonctionner efficacement mais offre une génération de texte de haute qualité tout en maintenant un contrôle total sur le traitement des données et des requêtes. Le déploiement est effectué sur Ubuntu 22.04 à l'aide d'accélérateurs graphiques modernes NVIDIA ou Radeon.
Caractéristiques principales de DeepSeek-R1:14B¶
-
Haute Performance : Avec son architecture comprenant 14 milliards de paramètres, DeepSeek-R1:14B peut rapidement traiter et générer des données textuelles, assurant une exécution rapide des tâches liées au traitement du langage naturel (NLP).
-
Support Multilingue : Le modèle peut comprendre et générer du texte dans plusieurs langues, ce qui en fait un outil universel pour les projets internationaux et les applications multilingues.
-
Apprentissage Flexible : Supporte l'apprentissage par quelques exemples et l'apprentissage à zéro exemple, permettant de résoudre des tâches même avec peu d'exemples ou sans formation préalable sur des données spécifiques.
-
Large Éventail de Tâches : Le modèle peut effectuer diverses tâches telles que la génération de texte, la traduction, l'analyse de données, la rédaction de code, la résolution de problèmes mathématiques et bien plus encore.
-
Intégration dans des Applications : DeepSeek-R1:14B peut être facilement intégré à différentes applications via une API, ce qui le rend pratique pour l'utilisation dans des chatbots, des assistants virtuels, des systèmes d'automatisation et des outils analytiques.
-
Adaptabilité et Affinage : Le modèle peut être affiné pour des tâches ou des domaines spécifiques tels que la médecine, la finance, le droit ou l'informatique, permettant une personnalisation pour répondre à des besoins spécifiques.
-
Éthique et Sécurité : DeepSeek-R1:14B est développé avec les normes modernes d'éthique et de sécurité à l'esprit, y compris la filtration du contenu toxique et la minimisation des biais dans les réponses.
-
Efficacité Énergétique : Par rapport aux modèles plus grands, DeepSeek-R1:14B offre une haute performance avec un coût moindre en ressources, ce qui le rend économiquement viable pour un usage commercial.
-
Support de Type Données : Le modèle peut travailler avec des données textuelles, du code, des données structurées et semi-structurées, élargissant son applicabilité dans divers domaines.
-
Exemples d'Utilisation :
-
Support Client : Automatisation des réponses aux requêtes des utilisateurs.
- Éducation : Création de matériel pédagogique, assistance pour résoudre des tâches.
- Marketing : Génération de textes publicitaires, analyse des avis.
- Développement Logiciel : Rédaction et documentation du code.
Fonctionnalités de déploiement¶
ID | Système d'exploitation compatible | VM | BM | VGPU | GPU | Min CPU (Cœurs) | Min RAM (Go) | Min HDD/SSD (Go) | Actif |
---|---|---|---|---|---|---|---|---|---|
247 | Ubuntu 22.04 | - | - | + | + | 4 | 16 | - | Oui |
-
Le temps d'installation est de 15 à 30 minutes avec le système d’exploitation ;
-
Le serveur Ollama charge et exécute le LLM en mémoire ;
-
Open WebUI est déployé comme une application web connectée au serveur Ollama ;
-
Les utilisateurs interagissent avec le LLM via l'interface WebUI du Web, envoyant des requêtes et recevant des réponses ;
-
Toutes les calculs et traitements de données se produisent localement sur le serveur. Les administrateurs peuvent configurer le LLM pour des tâches spécifiques à l'aide d'outils OpenWebUI.
Exigences système et spécifications techniques¶
-
Système d’Exploitation : Ubuntu 22.04 ;
-
RAM : Au moins 16 Go ;
-
Accélérateur Graphique : NVIDIA A4000 ou supérieur avec 16 Go de mémoire vidéo ;
-
Espace Disque : Suffisant pour installer le système, les pilotes et le modèle ;
-
Pilotes : Pilotes NVIDIA et CUDA pour un fonctionnement correct du GPU ;
-
Consommation de Mémoire Vidéo : 12 Go à un contexte de 2K tokens ;
-
Redémarrage Automatique : Un redémarrage automatique du conteneur est configuré en cas d'échec ;
-
Support GPU : Intégration complète avec NVIDIA CUDA pour une performance maximale.
Mise en route après le déploiement de DeepSeek-R1:14B¶
Après paiement, un email sera envoyé à l'adresse spécifiée lors de l'enregistrement vous informant que le serveur est prêt. Il inclura l'adresse IP du VPS ainsi que les identifiants de connexion pour accéder au serveur et un lien pour accéder au panneau de contrôle OpenWebUI. Les clients de notre entreprise gèrent l'équipement via le panneau de gestion des serveurs et API — Invapi.
-
Identifiants d'Accès pour la Connexion au Système d’Exploitation du Serveur (par exemple, via SSH) vous seront envoyés par email.
-
Lien pour Accéder au Panneau de Contrôle Ollama avec l'Interface WebUI Open: Dans le tag webpanel sous la rubrique Info >> Tags du panneau de contrôle Invapi. Le lien exact au format
https://deepseek<Server_ID_from_Invapi>.hostkey.in
vous sera envoyé par email lorsque le serveur est livré.
Après avoir cliqué sur le lien depuis l'icône webpanel, une fenêtre de connexion Get started with Open WebUI s'ouvrira, où vous devez créer un nom d'utilisateur administrateur, un e-mail et un mot de passe pour votre chatbot, puis appuyer sur le Create Admin Account bouton:
Attention
Après l'enregistrement du premier utilisateur, le système leur attribue automatiquement un rôle d'administrateur. Pour garantir la sécurité et le contrôle sur le processus de création de compte, toutes les demandes d'enregistrement ultérieures doivent être approuvées dans OpenWebUI depuis le compte administrateur.
Note
Des informations détaillées sur les fonctionnalités du travail avec le panneau de contrôle Ollama avec l'interface WebUI Open peuvent être trouvées dans l'article Chatbot IA sur Votre Propre Serveur.
Note
Pour une performance optimale, il est recommandé d'utiliser un GPU avec plus que le minimum requis de 16 Go de mémoire vidéo. Cela assure de la marge pour traiter des contextes plus importants et des requêtes parallèles. Des informations détaillées sur les paramètres principaux d'Ollama et Open WebUI peuvent être trouvées dans la documentation des développeurs d'Ollama et dans la documentation des développeurs de Open WebUI.
Commande d'un serveur avec DeepSeek-R1:14B via API¶
Pour installer ce logiciel en utilisant l'API, suivez les instructions suivantes.
Une partie du contenu de cette page a été créée ou traduite à l'aide d'une IA.