Plateforme IA Modèles LLM d'IA préinstallés sur des instances GPU haute performance : DeepSeek, Gemma, Llama, Phi
Currency:
EUR – €
Choose a currency
  • Euro EUR – €
  • United States dollar USD – $
VAT:
OT OT 0%
Choose your country (VAT)
  • OT All others 0%
Choose a language
  • Choose a currency
    Choose you country (VAT)
    Serveurs dédiés
  • Serveurs instantanés
  • Personnalisation
  • Serveurs Mono Processeur
  • Serveurs Double Processeur
  • Serveurs avec processeurs de 4ème génération
  • Serveurs avec AMD Ryzen et Intel Core i9
  • Serveurs de stockage
  • Serveurs avec ports 10Gbps
  • Serveur Dédiés Optimisés pour Virtualisation
  • GPU
  • Promotions
  • VPS
    GPU
  • Serveur Dédié GPU
  • VM avec GPU
  • Serveurs Tesla A100 80GB & H100
  • Promotions
    Services
  • Protection DDoS L3-L4 (couches 3 et 4)
  • Équipements réseau
  • Adresses IPv4 et IPv6
  • Offres SLA d’assistance technique
  • Contrôle et Suivi
  • VLAN
  • Conservez votre adresse IP ou votre système autonome (AS) grâce au BYOIP (Bring Your Own IP)
  • Trafic
  • IA Chatbot Lite
  • Plateforme d'IA
  • À propos
  • Tableau de bord du serveur & API
  • Data Centers
  • Réseau
  • Test de débit (speed test)
  • Offres du moment
  • Contactez le service des Ventes
  • Conditions et moyens de paiements
  • Abus
  • Looking Glass
  • La procédure de vérification des nouveaux clients
  • Louez un serveur GPU avec Nvidia Tesla H100 80GB & A100 à partir de 1,53 € / heure

    Louez des serveurs GPU haute performance H100 et A100 équipés des dernières cartes graphiques Nvidia Tesla. Ces serveurs sont idéaux pour les applications exigeantes comme l’accélération IA, le traitement de larges datasets, et pour s’attaquer aux tâches complexes du calcul de haute performance (HPC). Expérimentez une vitesse et une efficacité incomparables pour vos besoins informatiques avancés.

    Performance incomparable, modulabilité et sécurité

    ⏱️
    Les serveurs GPU sont disponibles en paiement soit à l’heure, soit au mois. Renseignez vous sur le fonctionnement de nos locations de serveur à l’heure.

    Technical error. Try to reload the page or contact support.

    GPU Nvidia H100 Tensor Core

    NVIDIA H100, grâce à la nouvelle architecture Hopper, est un chef d'œuvre des GPU, qui fournit une accélération IA puissante, le traitement de big data, et du calcul de haute performance (HPC).

    L’architecture Hopper introduit des cœurs tensor de quatrième génération qui sont jusqu’à neuf fois plus rapides que leurs prédécesseurs, avec pour résultat une performance améliorée sur une large gamme de tâches de machine learning et de deep learning.
    Avec 80GB de mémoire de grande vitesse HBM2e, ce GPU peut prendre facilement en charge de vastes modèles de langage (LLS) ou tâches IA.

    GPU Nvidia A100 80GB

    La carte GPU Nvidia A100 80GB est un accélérateur de data center qui est conçu pour accélérer le training et l’inférence IA, ainsi que les applications de calcul de haute performance (HPC).

    Le GPU A100 80GB dispose aussi de la plus grande capacité de mémoire et la bande passante mémoire la plus rapide de tous les GPU sur le marché. Cela le rend idéal pour le training et le déploiement des modèles IA les plus vastes, ainsi que pour l’accélération d’applications de HPC qui nécessitent des datasets importants.

    Fonctionnalités des cartes GPU

    Nvidia H100 Tensor Core

    Performance incomparable pour l’IA et le calcul haute performance (HPC)

    Le GPU H100 est l’accélérateur le plus puissant jamais construit, avec une performance jusqu’à 4 fois plus rapide pour le training IA, et 7 fois plus rapide pour les applications HPC, par rapport à la génération précédente.

    Polyvalent et modulable

    L’architecture H100 est suralimentée pour les charges de travail les plus importantes, depuis les grands modèles de langage jusqu’aux applications de calcul scientifique. Elle est aussi hautement modulable, prenant en charge jusqu’à 18 interconnexions NVLink pour une communication à large bande passante entre les GPU.

    Utilisation adaptée aux entreprises

    Le GPU H100 est conçu pour une utilisation par les entreprises, avec des fonctionnalités telles que la prise en charge de PCIe Gen5, un réseau NDR Quantum-2 InfiniBand, et un logiciel NVIDIA Magnum IO pour une modulabilité efficace.

    Carte Nvidia A100 80GB

    Coeurs Tensor de Troisième génération

    Ces coeurs sont spécifiquement conçus pour accélérer les charges de travail IA, et offrent des performances jusqu’à 2 fois plus rapides pour la précision FP8, par rapport à la génération précédente

    Gestion de la dispersion structurelle

    Cette fonctionnalité permet au GPU A100 de passer outre les portions inutilisées d’une matrice, ce qui peut améliorer la performance jusqu’à x2 pour certaines charges de travail IA.

    Capacité GPU multi-instances (MIG)

    Cette fonctionnalité permet au GPU A100 d’être divisé en sept (au maximum) instances GPU plus petites, qui peuvent être utilisées pour accélérer de multiples charges de travail simultanément.

    Comparateurs des GPU A100 et H100 : un niveau inédit de performance des applications

    Voici plusieurs comparateurs pour les GPU Nvidia A100 80GB et H100, vis à vis d’autres GPU pour IA et HPC :

    Comparateur IA

    Comparateur A100 80GB H100 A40 V100
    ResNet-50 Inference (Images/s) 13 128 24 576 6 756 3 391
    BERT Large Training (Steps/s) 1 123 2 231 561 279
    GPT-3 Training (Tokens/s) : 175B 400B 87.5B 43.75B

    Comparateur HPC

    Comparateur A100 80GB H100 A40 V100
    HPL DP (TFLOPS) 40 90 20 10
    HPCG (GFLOPS) 45 100 22.5 11.25
    LAMMPS (Atoms/day) : 115T 250T 57,5T 28,75T

    Le GPU Nvidia H100 est considérablement plus rapide que le GPU A100 qu’il s’agisse d’IA ou de HPC. Il est aussi plus rapide que d’autres GPU comme le A40 et le V100. Cependant, le GPU Nvidia A100 est moins onéreux et pourrait être plus rentable pour des tâches importantes en matière d'IA et de calcul de HPC.

    Comparateur NVIDIA H100

    • Un cluster de 3 585 GPU H100 a réalisé un test de comparaison massif avec GPT-3 en seulement 11 minutes chez un fournisseur de services cloud, mettant en avant les capacités du H100 à prendre en charge des modèles IA à grande échelle comme GPT-3.
    • Les GPU H100 ont établi de nouveaux records sur les huit tests des comparateurs MLPerf training, indiquant une performance IA de premier ordre, particulièrement avec les grands modèles de langage qui alimentent l’IA.
    • Ils accomplissent les plus hautes performances sur tous les tests, notamment les tâches impliquant de grands modèles de langage, des recommenders, de la vision par ordinateur, de l’imagerie médicale, et de la reconnaissance vocale, mettant en avant leur modulabilité dans différentes disciplines IA.
    • Les performances des GPU H100 augmentent de façon presque linéaire lorsque le nombre de GPU passe de centaines à des milliers, ce qui est essentiel pour déployer des solutions d'IA modulables.​
    • Le réseau NVIDIA Quantum-2 InfiniBand utilisé par CoreWeave permet de fournir une performance depuis le cloud comparable à celle d’un superordinateur IA fonctionnant dans un data center local, soulignant l'importance des réseaux à faible latence pour les tâches d'IA.
    • NVIDIA était la seule entreprise à soumettre des résultats sur le comparateur MLPerf amélioré, ce qui reflète les défis modernes auxquels les fournisseurs de service cloud font face avec de plus vastes datasets et des modèles IA plus avancés.

    GPU NVIDIA A100

    • Le GPU NVIDIA A100 excelle à des charges de travail de machine learning comme IA, et à des tâches de calcul scientifique, particulièrement celles requérant un algèbre linéaire numérique à haute performance.
    • Il offre des performances exceptionnelles en matière de calcul numérique en double précision (FP64), et ses performances en basse précision (FP32, FP16) sont également excellentes. Cela inclut l'utilisation de Tensor Cores 32 bits (TF32) qui augmentent les performances lorsqu'ils sont utilisés avec une précision mixte, tout en maintenant une précision acceptable pour de nombreuses applications, telles que le training de modèles de machine learning et d’IA.
    • La performance mémoire est un avantage significatif de l'A100, qui peut fournir cinq fois la performance des meilleurs systèmes CPU dual socket pour les applications nécessitant de la mémoire. L'A100 est livré avec 40 ou 80 Go de mémoire, ce qui est considérable pour les tâches nécessitant de grands volumes de données.​
    • L’A100 a fourni des performances exceptionnellement bonnes sur les comparateurs utilisés pour classer les plus grands clusters de superordinateurs du monde, notamment le comparateur HPL Linpack pour des performances en virgule flottante double précision, le comparateur HPL-AI précision mixte, et le comparateur HPCG, qui est très lié à la mémoire et à l'interface utilisateur.
    • Un système équipé de quatre GPU A100 a surpassé le meilleur système à double CPU par un facteur de 14 sur le problème HPL Linpack.
    Caractéristiques du produit
    H100 pour les Serveurs PCIe A100 80GB PCIe
    FP64 26 teraFLOPS 9.7 TFLOPS
    FP64 Tensor Core 51 teraFLOPS 19.5 TFLOPS
    FP32 51 teraFLOPS 19.5 TFLOPS
    TF32 Tensor Core 756 teraFLOPS 156 TFLOPS | 312 TFLOPS
    BFLOAT16 Tensor Core 1,513 teraFLOPS 312 TFLOPS | 624 TFLOPS
    FP16 Tensor Core 1,513 teraFLOPS 312 TFLOPS | 624 TFLOPS
    FP8 Tensor Core 3,026 teraFLOPS
    INT8 Tensor Core 3,026 TOPS 624 TOPS | 1248 TOPS
    Mémoire GPU 80GB 80GB HBM2e
    Bande passante mémoire GPU 2TB/s 1,935 GB/s
    Décodeurs 7 NVDEC
    7 JPEG
    Enveloppe thermique (TDP) maximum 300-350W (configurable) 300W
    GPU multi instances Jusqu’à 7 MIGS @ 10GB chacun Jusqu’à 7 MIGs @ 10GB
    Facteur de forme PCIe
    refroidissement à air dual-slot
    PCIe
    refroidissement à air dual-slot ou refroidissement liquide single-slot
    Interconnexion NVLink: 600GB/s
    PCIe Gen5: 128GB/s
    NVIDIA® NVLink® Bridge
    for 2 GPUs: 600 GB/s
    PCIe Gen4: 64 GB/s
    Options serveur Systèmes certifiés Partner and NVIDIA™ avec 1-8 GPUs Systèmes certifiés Partner and NVIDIA™ avec 1-8 GPUs
    NVIDIA AI Enterprise Inclus

    Contactez notre service des ventes pour revoir les conditions générales de vente et d’utilisation avant de passer commande de serveurs GPU équipés de cartes Nvidia Tesla H100 ou A100.

    Nos avantages

    • Data Centers TIER III Data Centers TIER III
      Une fiabilité et une sécurité maximales assurent un fonctionnement stable de vos serveurs et un uptime de 99,982% par an.
    • Protection DDoS Protection DDoS
      Le service est organisé grâce à des solutions logicielles et matérielles de protection contre les attaques Flood TCP-SYN (SYN, ACK, RST, FIN, PUSH).
    • Connectivité Internet à haut-débit Connectivité Internet à haut-débit
      Nous fournissons un port 1Gbps illimité. Vous pouvez transférer d’immenses volumes de données en quelques minutes.
    • Contrôle total Contrôle total
      Gestion à distance des serveurs via iDRAC, KVM, etc.
    • Écologique Écologique
      Hébergement dans le data center le plus respectueux de l’environnement en Europe.
    • Un serveur de remplacement est toujours disponible Un serveur de remplacement est toujours disponible
      Un parc de serveurs de substitution réduira le temps d’arrêt (downtime) lors des migrations et des mises à jour.
    • Remplacement rapide des composants. Remplacement rapide des composants.
      En cas de défaillance d’un composant, nous les remplacerons rapidement.
    • Assistance technique 7j/7, 24h/24 Assistance technique 7j/7, 24h/24
      Le formulaire de demande vous permet d’obtenir une assistance technique à toute heure du jour ou de la nuit. Première réponse dans les 15 minutes.

    Ce qui est inclus

    • Trafic
      L'importance du trafic dépend de la localisation géographique.
      Tous les serveurs sont déployés avec un port 1Gbps, le trafic entrant est gratuit (pour une utilisation équitable). Les limites et taux de trafic sortant dépendent de l’offre choisie.
    • Protection DDoS gratuite
      Nous offrons gratuitement une protection DDoS de base sur tous nos serveurs aux Pays-Bas.
    • Assistance client 24h/24, 7j/7
      Notre service d’assistance client et technique garantit que nos clients recevront une assistance technique chaque fois que cela est nécessaire.

    Ce qu'en disent nos clients

    Crytek
    Après le lancement d’une autre IP — HUNT: Showdown avec succès, un jeu de chasse à la prime compétitif first-person PvP avec de lourds éléments PvE, Crytek a souhaité mettre ce formidable jeu à la disposition de ses utilisateurs finaux. Nous avions besoin d’un fournisseur d’hébergement qui pouvait nous offrir des serveurs haute performance avec une excellente vitesse de réseau, une excellente latence, et une assistance 24h/24 et 7j/7.
    Stefan Neykov Crytek
    1 /3

    Nos évaluations

    4.3 out of 5
    4.8 out of 5

    Configurez votre serveur

    Solutions

    Serveurs GPU pour data science

    Serveurs GPU pour data science

    Hébergement e-Commerce

    Hébergement e-Commerce

    Finance et FinTech

    Finance et FinTech

    Cloud privé

    Rendering, Design 3D et visualisation

    Rendering, Design 3D et visualisation

    Colocation managée

    Colocation managée

    Data Centers

    Data Centers

    Découvrez nos data centers TIER III
    En savoir plus

    Test de débit (speedtest)

    Déterminez les performances de votre réseau
    En savoir plus

    Essayez avant d’acheter

    Soyez juge. Essayez nos serveurs pour un tour de test
    Contactez-nous

    Large gamme de serveurs préconfigurés avec livraison instantanée et promotion

    Ressources

    Base de documentation

    Base de documentation

    Vous pouvez toujours trouver des réponses et des conseils utiles dans notre Base de Documentation.
    En savoir plus
    1 /3

    actualités

    09.02.2025

    HOSTKEY étend sa présence avec un nouveau centre d'hébergement au DC2SCALE PAR3 à Paris, France

    HOSTKEY étend son empreinte mondiale avec une installation d'hébergement de pointe chez DC2SCALE PAR3 en France.

    tout afficher actualités / blogs
    1 /4

    Vous avez besoin d’informations supplémentaires ou vous avez des questions ?

    Ou contactez-nous par le canal que vous préférez.

    Upload