Plataforma de IA Modelos de IA LLM preinstalados en instancias de GPU de alto rendimiento: DeepSeek, Gemma, Llama, Phi
Currency:
EUR – €
Choose a currency
  • Euro EUR – €
  • United States dollar USD – $
VAT:
OT OT 0%
Choose your country (VAT)
  • OT All others 0%
Choose a language
  • Choose a currency
    Choose you country (VAT)
    Servidores dedicados
  • Instante
  • Personalizados
  • Servidores de una CPU
  • Servidores de CPU dual
  • Servidores con CPU de 4.ª generación
  • Servidores con AMD Ryzen e Intel Core i9
  • Servidores de almacenamiento
  • Puerto de 10 Gbps para servidor dedicado en los Países Bajos
  • Hosting virtualization nodes
  • GPU
  • Venta
  • VPS
    GPU
  • Servidor GPU dedicado
  • VM con GPU
  • Servidores Tesla A100 de 80 GB y H100
  • Venta
    Servicios
  • Protección contra DDoS L3-L4
  • Equipos de red
  • Direcciones IPv4 e IPv6
  • Paquetes SLA para soporte técnico
  • Monitoreo
  • VLAN
  • Anunciar su IP o AS (BYOIP)
  • Tráfico
  • Chatbot con IA Lite
  • Plataforma de IA
  • Acerca de
  • Panel de control del servidor y API
  • Centros de datos
  • Red
  • Prueba de velocidad
  • Ofertas especiales
  • Contacto de ventas
  • Condiciones y métodos de pago
  • Abuso
  • Looking Glass
  • La verificación KYC
  • Plataforma de IA

    Modelos AI LLM preinstalados en instancias de GPU de alto rendimiento

    • Ya instalado: simplemente comience a utilizar el LLM preinstalado, sin perder tiempo en la implementación
    • Servidor optimizado: configuraciones de GPU de alto rendimiento optimizadas para LLM
    • Estabilidad de la versión: usted controla la versión de LLM y no tiene cambios ni actualizaciones inesperados
    • Seguridad y privacidad de datos: todos sus datos se almacenan y procesan en su servidor, lo que garantiza que nunca abandonen su entorno
    • Precios transparentes: usted solo paga el alquiler del servidor; el funcionamiento y la carga de la red neuronal no se cobran y son completamente gratuitos.
    4.3/5
    4.8/5
    SERVERS In action right now 5 000+

    Principales LLM en instancias de GPU de alto rendimiento

    DeepSeek-r1-14b

    DeepSeek-r1-14b

    LLM de código abierto de China: la primera generación de modelos de razonamiento con un rendimiento comparable a OpenAI-o1.

    Gemma-2-27b-it

    Gemma-2-27b-it

    Google Gemma 2 es un modelo de alto rendimiento y eficiencia disponible en tres tamaños: 2B, 9B y 27B.

    Llama-3.3-70B

    Llama-3.3-70B

    Nuevo modelo 70B de última generación. Llama 3.3 70B ofrece un rendimiento similar al del modelo Llama 3.1 405B.

    Phi-4-14b

    Phi-4-14b

    Phi-4 es un modelo abierto de última generación con parámetros 14B de Microsoft.

    Soluciones, marcos y herramientas de inteligencia artificial

    PyTorch

    PyTorch

    PyTorch: un marco con todas las funciones para crear modelos de aprendizaje profundo.

    TensorFlow

    TensorFlow

    TensorFlow: una biblioteca de software gratuita y de código abierto para aprendizaje automático e inteligencia artificial.

    Apache Spark

    Apache Spark

    Apache Spark: un motor multilenguaje para ejecutar ingeniería de datos, ciencia de datos y aprendizaje automático en máquinas de un solo nodo o clústeres.

    Elija entre una amplia gama de instancias de GPU

    ⏱️
    Los servidores GPU están disponibles con planes de pago por hora y por mes. Obtenga más información sobre cómo funciona el alquiler de servidores por hora.

    La región de colocación seleccionada se aplica a todos los componentes a continuación.

    Technical error. Try to reload the page or contact support.

    LLM y soluciones de IA disponibles

    LLM de código abierto

    • gemma-2-27b-it — Google Gemma 2 es un modelo de alto rendimiento y eficiencia disponible en tres tamaños: 2B, 9B y 27B.
    • DeepSeek-r1-14b — LLM de código abierto de China: la primera generación de modelos de razonamiento con un rendimiento comparable a OpenAI-o1.
    • meta-llama/Llama-3.3-70B — Nuevo modelo 70B de última generación. Llama 3.3 70B ofrece un rendimiento similar al del modelo Llama 3.1 405B.
    • Phi-4-14b — Phi-4 es un modelo abierto de última generación con parámetros 14B de Microsoft.

    Generación de imágenes

    • ComfyUI: un programa de código abierto basado en nodos para la generación de imágenes a partir de una serie de indicaciones de texto.

    Soluciones, marcos y herramientas de inteligencia artificial

    • Chatbot de IA autohospedado: chatbot de IA gratuito y autohospedado creado con Ollama, modelo Lllama3 LLM e interfaz OpenWebUI.
    • PyTorch: un marco con todas las funciones para crear modelos de aprendizaje profundo.
    • TensorFlow: una biblioteca de software gratuita y de código abierto para aprendizaje automático e inteligencia artificial.
    • Apache Spark: un motor multilenguaje para ejecutar ingeniería de datos, ciencia de datos y aprendizaje automático en máquinas de un solo nodo o clústeres.
    Ya instalado
    Ofrecemos LLM como software preinstalado, lo que le permite ahorrar tiempo en la descarga e instalación. Nuestro sistema de implementación automática se encarga de todo por usted —simplemente haga un pedido y comience a trabajar en tan solo 15 minutos.
    Servidores optimizados
    Nuestros servidores GPU de alto rendimiento son una opción perfecta para trabajar con LLM. Tenga la seguridad de que cada LLM que elija le ofrecerá un rendimiento de primer nivel en los servidores recomendados.
    Estabilidad de la versión
    Si su producto de software se ejecuta en un modelo LLM, le alegrará saber que no habrá actualizaciones inesperadas ni renovaciones de versiones. Su elección de la versión LLM no cambiará de manera impredecible.
    Precios transparentes
    En HOSTKEY pagas solo por el alquiler del servidor, sin cargos adicionales. Todos los LLM preinstalados son gratuitos y no hay límites en su uso. No tienes restricciones en cuanto a la cantidad de tokens, la cantidad de solicitudes por unidad de tiempo, etc. El precio depende únicamente de la capacidad del servidor alquilado.
    Independencia de los proveedores de servicios de TI
    Puede elegir la opción de red neuronal más adecuada entre cientos de LLM de código abierto. Siempre puede instalar modelos alternativos adaptados a sus necesidades. La versión del modelo utilizado está completamente controlada por usted.
    Seguridad y privacidad de datos
    El LLM se implementa en nuestra propia infraestructura de servidores, por lo que sus datos están completamente protegidos y bajo su control. No se comparten ni se procesan en el entorno externo.

    Obtenga los mejores modelos LLM en instancias de GPU de alto rendimiento

    Preguntas frecuentes

    ¿Puedo alquilar un servidor virtual por horas?

    Podrás alquilar los siguientes servidores por horas:

    • servidores dedicados preconfigurados, incluidos aquellos con tarjetas GPU;
    • servidores GPU virtuales;
    • Servidor privado virtual (SPV).

    ¿Puedo alquilar un servidor GPU virtual por horas?

    Sí, todos los servidores GPU dedicados virtuales y preconfigurados están disponibles para alquiler por horas.

    ¿Qué métodos de pago están disponibles?

    Todos nuestros servicios se pagan por adelantado. Aceptamos pagos con tarjeta de crédito, PayPal, pagos de criptomonedas P2P desde cualquier billetera, aplicación o intercambio a través de BitPay. También aceptamos WebMoney, Alipay y transferencias bancarias. Lea más sobre nuestros términos y métodos de pago. Lea más sobre los términos y métodos de pago.

    ¿Cuál es su política de reembolso?

    Confiamos plenamente en nuestros productos y servicios. Ofrecemos un servicio rápido, fiable e integral y creemos que quedará completamente satisfecho.

    Puedes solicitar un servidor de prueba de 3 a 4 días de forma gratuita.

    El reembolso solo es posible en caso de un accidente de nuestra parte y que su servidor esté fuera de línea durante 24 horas o más debido a eso.

    Lea más sobre el procedimiento de reembolso.

    ¿Qué es una política de uso justo?

    Los clientes cuyos servidores cuentan con ancho de banda ilimitado están comprometidos con una política de uso justo.

    Esto significa que los servidores en el puerto de 1 Gbps no pueden usar más del 70% del ancho de banda asignado durante más de 3 horas al día.

    Upload