Valuta:
EUR – €
Kies een valuta
  • Euro EUR – €
  • United States dollar USD – $
BTW:
OT 0%
Kies je land (btw)
  • OT All others 0%

AI Platform voor High-Performance AI & LLM Workloads

Voorgeïnstalleerde AI LLM-modellen op high-performance GPU-instances

  • Al geïnstalleerd — start direct zonder tijd te verliezen aan deployment
  • Geoptimaliseerde server — krachtige GPU-configuraties speciaal afgestemd op LLM's
  • Versiecontrole — jij bepaalt de LLM-versie, geen onverwachte wijzigingen of updates
  • Veiligheid en dataprivacy — al je data wordt opgeslagen en verwerkt op jouw server en verlaat nooit jouw omgeving
  • Transparante prijzen — je betaalt alleen voor de serverhuur; het draaien van het neurale netwerk is volledig gratis.
4.3/5
4.8/5
SERVERS In action right now 5 000+

Top LLM's op high-performance GPU-instances

DeepSeek-r1-14b

DeepSeek-r1-14b

Open source LLM uit China — de eerste generatie redeneermodellen met prestaties vergelijkbaar met OpenAI-o1.

Gemma-2-27b-it

Gemma-2-27b-it

Google Gemma 2 is een krachtig en efficiënt model beschikbaar in drie formaten: 2B, 9B en 27B.

Llama-3.3-70B

Llama-3.3-70B

Nieuw state-of-the-art 70B-model. Llama 3.3 70B biedt vergelijkbare prestaties als het Llama 3.1 405B-model.

Phi-4-14b

Phi-4-14b

Phi-4 is een state-of-the-art open model van Microsoft met 14B parameters.

AI & Machine Learning Tools

PyTorch

PyTorch

PyTorch is een volledig uitgerust framework voor het bouwen van deep learning-modellen.

TensorFlow

TensorFlow

TensorFlow is een gratis open-source softwarebibliotheek voor machine learning en kunstmatige intelligentie.

Apache Spark

Apache Spark

Apache Spark is een multi-language engine voor data engineering, data science en machine learning op één machine of in clusters.

Anaconda

Anaconda

Open ecosysteem voor data science en AI-ontwikkeling.

Kies uit een breed scala aan GPU-instances

GPU servers are available on both hourly and monthly payment plans. Read about how the hourly server rental works.

The selected collocation region is applied for all components below.

Beschikbare LLM's en AI-oplossingen

Open-source LLM's

  • gemma-2-27b-it — Google Gemma 2 is een krachtig en efficiënt model beschikbaar in drie formaten: 2B, 9B en 27B.
  • DeepSeek-r1-14b — Open source LLM uit China — de eerste generatie redeneermodellen met prestaties vergelijkbaar met OpenAI-o1.
  • meta-llama/Llama-3.3-70B — Nieuw state-of-the-art 70B-model. Llama 3.3 70B biedt vergelijkbare prestaties als het Llama 3.1 405B-model.
  • Phi-4-14b — Phi-4 is een state-of-the-art open model van Microsoft met 14B parameters.

Beeldgeneratie

  • ComfyUI — Een open source, node-gebaseerd programma voor beeldgeneratie op basis van tekstprompts.

AI-oplossingen, frameworks en tools

  • Self-hosted AI Chatbot — Gratis en zelfgehoste AI-chatbot op basis van Ollama, het Llama3 LLM-model en de OpenWebUI-interface.
  • PyTorch — Een volledig uitgerust framework voor het bouwen van deep learning-modellen.
  • TensorFlow — Een gratis open-source softwarebibliotheek voor machine learning en kunstmatige intelligentie.
  • Apache Spark — Een multi-language engine voor data engineering, data science en machine learning op één machine of in clusters.
Al geïnstalleerd
We leveren LLM's als voorgeïnstalleerde software, zodat je geen tijd kwijt bent aan downloaden en installeren. Ons auto-deploymentsysteem regelt alles voor je, plaats gewoon een bestelling en start binnen 15 minuten.
Geoptimaliseerde servers
Onze high-performance GPU-servers zijn perfect geschikt voor het werken met LLM's. Elke LLM die je kiest levert topprestaties op aanbevolen servers.
Versiecontrole
Als je softwareproduct op een LLM-model draait, hoef je je geen zorgen te maken over onverwachte updates of versiewijzigingen. De door jou gekozen LLM-versie verandert niet zomaar.
Transparante prijzen
Bij HOSTKEY betaal je alleen voor de serverhuur, geen extra kosten. Alle voorgeïnstalleerde LLM's zijn gratis, zonder limieten op gebruik. Geen restricties op aantal tokens of verzoeken per tijdseenheid, de prijs hangt uitsluitend af van de gehuurde servercapaciteit.
Onafhankelijk van IT-dienstverleners
Kies het neurale netwerk dat het best bij je past uit honderden open source LLM's. Je kunt altijd alternatieve modellen installeren die aansluiten op jouw behoeften. De versie van het gebruikte model bepaal jij volledig zelf.
Veiligheid en dataprivacy
De LLM draait op onze eigen serverinfrastructuur. Je data is volledig beschermd en onder jouw controle, niet gedeeld of verwerkt in een externe omgeving.

Haal top LLM-modellen op high-performance GPU-instances

Veelgestelde vragen (FAQ)

Kan ik een virtuele server per uur huren?

Per uur zijn de volgende servers beschikbaar:

  • vooraf geconfigureerde dedicated servers, inclusief servers met GPU-kaarten;
  • virtuele GPU-servers;
  • VPS.

Kan ik een virtuele GPU-server per uur huren?

Ja, alle virtuele en vooraf geconfigureerde dedicated GPU-servers zijn beschikbaar voor uurduur.

Welke betaalmethoden zijn beschikbaar?

Al onze services worden vooraf betaald. Je kunt betalen via creditcard, PayPal, P2P cryptocurrency via BitPay, WebMoney, Alipay of bankoverschrijving. Lees meer over onze betalingsvoorwaarden en -methoden.

Wat is een Fair Usage Policy?

Klanten met servers met onbeperkte bandbreedte zijn gebonden aan een fair-use-beleid.

Dat betekent dat servers op een 1 Gbps-poort niet meer dan 70% van de toegewezen bandbreedte mogen gebruiken gedurende meer dan 3 uur per dag.

Upload