Plateforme IA Modèles LLM d'IA préinstallés sur des instances GPU haute performance : DeepSeek, Gemma, Llama, Phi
Currency:
EUR – €
Choose a currency
  • Euro EUR – €
  • United States dollar USD – $
VAT:
OT OT 0%
Choose your country (VAT)
  • OT All others 0%
Choose a language
  • Choose a currency
    Choose you country (VAT)
    Serveurs dédiés
  • Serveurs instantanés
  • Personnalisation
  • Serveurs Mono Processeur
  • Serveurs Double Processeur
  • Serveurs avec processeurs de 4ème génération
  • Serveurs avec AMD Ryzen et Intel Core i9
  • Serveurs de stockage
  • Serveurs avec ports 10Gbps
  • Serveur Dédiés Optimisés pour Virtualisation
  • GPU
  • Promotions
  • VPS
    GPU
  • Serveur Dédié GPU
  • VM avec GPU
  • Serveurs Tesla A100 80GB & H100
  • Promotions
    Services
  • Protection DDoS L3-L4 (couches 3 et 4)
  • Équipements réseau
  • Adresses IPv4 et IPv6
  • Offres SLA d’assistance technique
  • Contrôle et Suivi
  • VLAN
  • Conservez votre adresse IP ou votre système autonome (AS) grâce au BYOIP (Bring Your Own IP)
  • Trafic
  • IA Chatbot Lite
  • Plateforme d'IA
  • À propos
  • Tableau de bord du serveur & API
  • Data Centers
  • Réseau
  • Test de débit (speed test)
  • Offres du moment
  • Contactez le service des Ventes
  • Conditions et moyens de paiements
  • Abus
  • Looking Glass
  • La procédure de vérification des nouveaux clients
  • Plateforme d'IA

    Modèles AI LLM préinstallés sur des instances GPU hautes performances

    • Préinstallé — commencez simplement à utiliser LLM préinstallé, sans perdre de temps lors du déploiement
    • Serveur optimisé — configurations GPU hautes performances optimisées pour les LLM
    • Stabilité de la version — vous contrôlez la version LLM, sans modifications ni mises à jour inattendues
    • Sécurité et confidentialité des données — toutes vos données sont stockées et traitées sur votre serveur, garantissant qu'elles ne quittent jamais votre environnement
    • Tarification transparente — vous ne payez que la location du serveur ; le fonctionnement et la charge du réseau neuronal ne sont pas facturés et sont entièrement gratuits.
    4.3/5
    4.8/5
    SERVERS In action right now 5 000+

    Les meilleurs LLM sur les instances GPU hautes performances

    DeepSeek-r1-14b

    DeepSeek-r1-14b

    LLM open source Chinois - la première génération de modèles de raisonnement avec des performances comparables à OpenAI-o1.

    Gemma-2-27b-it

    Gemma-2-27b-it

    Google Gemma 2 est un modèle performant et efficace disponible en trois tailles : 2B, 9B et 27B.

    Llama-3.3-70B

    meta-llama/Llama-3.3-70B

    Nouveau modèle 70B à la pointe de la technologie. Le Llama 3.3 70B offre des performances similaires à celles du modèle Llama 3.1 405B.

    Phi-4-14b

    Phi-4-14b

    Phi-4 est un paramètre 14B modèle ouvert de pointe de Microsoft.

    Solutions IA, Frameworks et outils

    PyTorch

    PyTorch

    Un framework complet pour créer des modèles de deep learning.

    TensorFlow

    TensorFlow

    Une bibliothèque de logiciels gratuite et open source pour l'apprentissage automatique et l'intelligence artificielle.

    Apache Spark

    Apache Spark

    Un moteur multilingue permettant d'exécuter l'ingénierie des données, la science des données et l'apprentissage automatique sur des machines à nœud unique ou des clusters.

    Choisissez parmi une large gamme d'instances GPU

    LLMs and AI Solutions available

    Open-source LLMs

    • gemma-2-27b-it — Google Gemma 2 is a high-performing and efficient model available in three sizes: 2B, 9B, and 27B.
    • DeepSeek-r1-14b — Open source LLM from China - the first-generation of reasoning models with performance comparable to OpenAI-o1.
    • meta-llama/Llama-3.3-70B — New state of the art 70B model. Llama 3.3 70B offers similar performance compared to the Llama 3.1 405B model.
    • Phi-4-14b — Phi-4 is a 14B parameter, state-of-the-art open model from Microsoft.

    Image generation

    • ComfyUI — An open source, node-based program for image generation from a series of text prompts.

    AI Solutions, Frameworks and Tools

    • Self-hosted AI Chatbot — Free and self-hosted AI Chatbot built on Ollama, Lllama3 LLM model and OpenWebUI interface.
    • PyTorch — A fully featured framework for building deep learning models.
    • TensorFlow — A free and open-source software library for machine learning and artificial intelligence.
    • Apache Spark — A multi-language engine for executing data engineering, data science, and machine learning on single-node machines or clusters.
    Préinstallé
    Nous fournissons des LLM sous forme de logiciel préinstallé, ce qui vous permet de gagner du temps lors du téléchargement et de l'installation. Notre système de déploiement automatique gère tout pour vous : il vous suffit de passer une commande et de commencer à travailler en seulement 15 minutes.
    Serveurs optimisés
    Nos serveurs GPU hautes performances sont un choix parfait pour travailler avec des LLM. Soyez assuré que chaque LLM que vous choisirez offrira des performances de premier ordre sur les serveurs recommandés.
    Stabilité des versions
    Si votre produit logiciel fonctionne sur un modèle LLM, vous serez heureux de savoir qu'il n'y aura pas de mises à jour ou de renouvellements de version inattendus. Votre choix de version LLM ne changera pas de manière imprévisible.
    Tarification transparente
    Chez HOSTKEY, vous ne payez que la location du serveur, sans frais supplémentaires. Tous les LLM préinstallés sont gratuits et leur utilisation est illimitée. Vous n'avez aucune restriction sur le nombre de tokens, le nombre de requêtes par unité de temps, etc. - le prix dépend uniquement de la capacité du serveur loué.
    Indépendance vis-à-vis des prestataires de services informatiques
    Vous pouvez choisir l'option de réseau neuronal la plus adaptée parmi des centaines de LLM open source. Vous pouvez toujours installer des modèles alternatifs adaptés à vos besoins. La version du modèle utilisé est entièrement contrôlée par vous.
    Sécurité et confidentialité des données
    Le LLM est déployé sur notre propre infrastructure de serveurs, vos données sont entièrement protégées et sous votre contrôle. Elles ne sont ni partagées ni traitées dans l'environnement externe.

    Obtenez les meilleurs modèles LLM sur des instances GPU hautes performances

    FAQ

    Puis-je louer un serveur virtuel à l’heure ?

    Vous pouvez louer les serveurs suivants à l’heure :

    • serveurs dédiés préconfigurés, y compris ceux dotés de cartes GPU,
    • serveurs GPU virtuels,
    • VPS.

    Puis-je louer un serveur GPU virtuel à l’heure ?

    Oui, tous les serveurs GPU dédiés virtuels et préconfigurés sont disponibles à la location sur une base horaire.

    Quelles méthodes de paiement sont disponibles ?

    Tous nos services sont payés à l’avance. Nous acceptons les paiements par carte de crédit, PayPal, les paiements P2P en crypto-monnaies à partir de n’importe quel portefeuille, application ou échange via BitPay. Nous acceptons aussi WebMoney, Alipay et les virements bancaires. En savoir plus sur nos conditions et méthodes de paiement.

    Quelle est votre politique de remboursement ?

    Nous avons toute confiance en nos produits et nos services. Nous fournissons un service rapide, fiable et complet, dont vous serez complètement satisfait.

    Vous pouvez demander un serveur test pour 3-4 jours gratuitement.

    Un remboursement est uniquement possible dans le cas d’un accident de notre côté, ayant provoqué un temps d’arrêt de votre serveur d’au moins 24 heures.

    En savoir plus à propos de notre procédure de remboursement.

    Quelles méthodes de paiement sont disponibles ?

    Les clients dont les serveurs sont dotés d’une bande passante illimitée s’engagent à une utilisation équitable.

    Cela signifie que les serveurs avec un port 1Gbps ne peuvent pas utiliser plus de 70% de la bande passante allouée pendant plus de 3 heures par jour.

    HOSTKEY Dedicated servers and cloud solutions Pre-configured and custom dedicated servers. AMD, Intel, GPU cards, Free DDoS protection amd 1Gbps unmetered port 30
    4.3 67 67
    Upload