预装 AI 大语言模型(LLM)的高性能 GPU 实例
DeepSeek-r1-14b - 来自中国的开源 LLM,是第一代推理模型,性能可与 OpenAI-o1 相媲美。
gemma-2-27b-it - Google Gemma 2 是一款高性能且高效的模型,提供三种规格:2B、9B 和 27B。
Llama-3.3-70B - 新一代顶尖 70B 模型。Llama 3.3 70B 的性能与 Llama 3.1 405B 模型相当。
Phi-4-14b - Phi-4 是微软推出的 14B 参数开源模型,处于行业领先地位。
PyTorch - 一个功能齐全的框架,用于构建深度学习模型。
TensorFlow - 一个免费开源的软件库,用于机器学习和人工智能。
Apache Spark - 一种多语言引擎,可在单节点机器或集群上执行数据工程、数据科学和机器学习任务。
在高性能 GPU 实例上获取顶级大语言模型(LLMs)
按小时计算,您可以租用以下服务器:
是的,所有虚拟和预配置的专用GPU服务器都可以按小时租用。
我们的所有服务都需要预付。我们接受以下支付方: 信用卡PayPal通过 BitPay 进行的 P2P 加密货币支付(支持任何钱包、应用程序或交易所)WebMoney 支付宝银行转账 了解更多关于我们的 支付条款和方法的信息.
我们对自己的产品和服务非常有信心。我们提供快速、可靠和全面的服务,相信您会完全满意。
您可以申请免费使用测试服务器 3-4 天。
只有在我们方面出现事故,导致您的服务器因此而离线 24 小时或更长时间时,才可能退款。
了解更多关于退款程序的信息。
对于带有无限带宽的服务器,客户需遵守合理使用政策。
这意味着使用 1 Gbps 端口的服务器,每天不能超过 3 小时使用超过分配带宽的 70%。