Currency:
EUR – €
Choose a currency
  • Euro EUR – €
  • United States dollar USD – $
VAT:
OT 0%
Choose your country (VAT)
  • OT All others 0%
Choose a language
  • Choose a currency
    Choose you country (VAT)
    专用服务器
  • 即时服务器
  • 定制专用服务器
  • 单CPU服务器
  • 双CPU服务器
  • 第四代CPU的服务器
  • 配备AMD Ryzen和Intel Core i9的服务器
  • 存储服务器
  • Servers with 10Gbps ports
  • 托管虚拟化节点
  • GPU
  • 特惠专区
  • VPS
    GPU
  • 专用GPU服务器
  • VM 和 GPU
  • Tesla A100 80GB & H100 服务器
  • 销售
    服务
  • L3-L4 DDoS保护
  • 网络设备
  • IPv4 和 IPv6 地址
  • 技术支持SLA套餐
  • 监控
  • VLAN
  • 宣布您的 IP 或 AS(BYOIP)
  • 流量
  • AI 平台
  • 关于
  • 服务器控制面板 & API
  • 数据中心
  • 网络
  • 速度测试
  • 最新热卖
  • 销售联系方式
  • 支付条款与方法
  • 滥用
  • Looking Glass视窗
  • KYC验证
  • AI 平台

    预装 AI 大语言模型(LLM)的高性能 GPU 实例

    • 开箱即用:预装 LLM,无需部署,立即开始使用,节省时间。
    • 优化服务器:专为 LLM 优化的高性能 GPU 配置。
    • 版本稳定性:您可完全控制 LLM 版本,避免意外更改或更新。
    • 安全与数据隐私:所有数据均在您的服务器上存储和处理,确保数据绝不离开您的环境。
    • 透明定价:您只需支付服务器租赁费用;神经网络的操作和负载完全免费,不收取额外费用。
    4.3/5
    4.8/5
    SERVERS In action right now 5 000+

    顶级大语言模型(LLMs)在高性能 GPU 实例上运行

    DeepSeek-r1-14b

    DeepSeek-r1-14b

    DeepSeek-r1-14b - 来自中国的开源 LLM,是第一代推理模型,性能可与 OpenAI-o1 相媲美。

    Gemma-2-27b-it

    gemma-2-27b-it

    gemma-2-27b-it - Google Gemma 2 是一款高性能且高效的模型,提供三种规格:2B、9B 和 27B。

    Llama-3.3-70B

    Llama-3.3-70B

    Llama-3.3-70B - 新一代顶尖 70B 模型。Llama 3.3 70B 的性能与 Llama 3.1 405B 模型相当。

    Phi-4-14b

    Phi-4-14b

    Phi-4-14b - Phi-4 是微软推出的 14B 参数开源模型,处于行业领先地位。

    AI 解决方案、框架和工具

    PyTorch

    PyTorch

    PyTorch - 一个功能齐全的框架,用于构建深度学习模型。

    TensorFlow

    TensorFlow

    TensorFlow - 一个免费开源的软件库,用于机器学习和人工智能。

    Apache Spark

    Apache Spark

    Apache Spark - 一种多语言引擎,可在单节点机器或集群上执行数据工程、数据科学和机器学习任务。

    多种 GPU 实例供您选择

    可用的 LLMs 和 AI 解决方案

    Open-source LLMs

    • gemma-2-27b-it - Google Gemma 2 是一款高性能且高效的模型,提供三种规格:2B、9B 和 27B。
    • DeepSeek-r1-14b - 来自中国的开源 LLM,是第一代推理模型,性能可与 OpenAI-o1 相媲美。
    • meta-llama/Llama-3.3-70B - 新一代顶尖 70B 模型。Llama 3.3 70B 的性能与 Llama 3.1 405B 模型相当。
    • Phi-4-14b - Phi-4 是微软推出的 14B 参数开源模型,处于行业领先地位。

    图像生成

    • ComfyUI - 一个开源的、基于节点的程序,可通过一系列文本提示生成图像。

    AI 解决方案、框架和工具

    • 自托管 AI 聊天机器人 - 基于 Ollama、Lllama3 LLM 模型和 OpenWebUI 界面构建的免费自托管 AI 聊天机器人。
    • PyTorch - 一个功能齐全的框架,用于构建深度学习模型。
    • TensorFlow - 一个免费开源的软件库,用于机器学习和人工智能。
    • Apache Spark - 一种多语言引擎,可在单节点机器或集群上执行数据工程、数据科学和机器学习任务。
    预装即用
    我们提供预装的大语言模型(LLMs)软件,为您节省下载和安装时间。我们的自动部署系统为您处理一切——只需下单,15 分钟内即可开始工作。
    优化服务器
    我们的高性能 GPU 服务器是运行 LLMs 的理想选择。请放心,您选择的每一个 LLM 都能在推荐的服务器上发挥顶级性能。
    版本稳定性
    如果您的软件产品基于 LLM 模型运行,您会很高兴知道,不会出现意外的更新或版本更换。您选择的 LLM 版本不会不可预测地更改。
    透明定价
    在 HOSTKEY,您只需支付服务器租赁费用——无额外费用。所有预装的 LLMs 均免费提供,且无使用限制。您不会受到令牌数量、单位时间请求次数等限制——价格完全取决于租赁的服务器容量。
    独立于 IT 服务提供商
    您可以从数百个开源大语言模型(LLMs)中选择最适合的神经网络选项。您随时可以安装根据您需求定制的替代模型。所使用的模型版本完全由您掌控。
    安全与数据隐私
    LLM 部署在我们自有的服务器基础设施上,您的数据得到完全保护并处于您的控制之下。数据不会在外部环境中共享或处理。

    在高性能 GPU 实例上获取顶级大语言模型(LLMs)

    常见问题解答

    我可以按小时租用虚拟服务器吗?

    按小时计算,您可以租用以下服务器:

    • 预配置的专用服务器,包括带有GPU卡的服务器;
    • 虚拟GPU服务器;
    • VPS。

    我可以按小时租用虚拟GPU服务器吗?

    是的,所有虚拟和预配置的专用GPU服务器都可以按小时租用。

    哪些支付方式可用?

    我们的所有服务都需要预付。我们接受以下支付方: 信用卡PayPal通过 BitPay 进行的 P2P 加密货币支付(支持任何钱包、应用程序或交易所)WebMoney 支付宝银行转账 了解更多关于我们的 支付条款和方法的信息.

    您的退款政策是什么?

    我们对自己的产品和服务非常有信心。我们提供快速、可靠和全面的服务,相信您会完全满意。

    您可以申请免费使用测试服务器 3-4 天。

    只有在我们方面出现事故,导致您的服务器因此而离线 24 小时或更长时间时,才可能退款。

    了解更多关于退款程序的信息

    什么是合理使用政策?

    对于带有无限带宽的服务器,客户需遵守合理使用政策。

    这意味着使用 1 Gbps 端口的服务器,每天不能超过 3 小时使用超过分配带宽的 70%。

    Upload