使用 GPU 开发

最近更新时间:2025-03-21 15:41:22

我的收藏
Cloud Studio 现已支持 GPU 连接,背后采用高性能应用服务 HAI 作为算力支持。关于高性能应用服务 HAI 的介绍,可访问 此地址 了解更多。

开始:创建 GPU 工作空间

空间模板 选择标记了“高性能”的模板创建工作空间,即可使用 GPU 算力。



选择模板后,根据弹窗提示选择合适的规格。默认提供两种 GPU 空间规格:免费基础型与 HAI 进阶型。收费情况可前往 购买指南 了解详情。



注意:
免费基础型设置了平台共享的一定额度的预热量,创建后即可获得已开机的 HAI GPU 工作空间。若额度用完,则需要等待 HAI GPU 启动后方可使用,通常需要2 - 5分钟。
由于 HAI GPU 算力数量有限,可能会出现无法创建或开机的情况。可以选择 HAI 进阶型创建,切换不同地域查看算力库存情况。

编写代码

大部分模板在空间创建后有预设实例代码,可跟随 Readme 文档使用。空间内的文件结构基本遵循如下规则:
root/
├── workspace/ # Cloud Studio 内置示例文件,仅该文件夹变更支持持久化
│ └── Readme.md
│ └── examples/ # Cloud Studio 示例代码
│ ├── ...
│ └── ...
├── qcloud_hai/ # HAI 其他进程,如ComfyUI、WebUI等
│ └── ...
├── root/ # 一般模型文件存放在该文件夹
│ └── llama3 # 仅示例,不同模版内容不同
│ └── ...
├── ...
以 Pytorch 模板为例:




查看 web 预览效果

方法一:通过公网 IP 拼接端口号访问

可以通过指定 IP 及端口号创建服务后,通过公网 IP 拼接端口号查看 web 预览效果。
注意:
由于目前仅 HAI 进阶型及其他非免费版本可自定义开放端口,以下方法仅限 HAI 进阶型及其他非免费版本可用。

配置端口

前往 高性能工作空间 列表,单击

查看机器来源,前往 HAI 控制台:



HAI 控制台的端口配置入口查看是否有公网 IP 的开放:



腾讯云私有网络控制台,进入安全组页面,放通对应的 IP 与端口号。




启动服务

以创建 TensorBoard 服务为例,在启动服务时指定 host 与 port:
tensorboard --logdir=runs --host=0.0.0.0 --port=8080
回到 HAI 控制台或使用curl ifconfig.mecurl https://api.ipify.org/查询当前机器的公网 IP。并前往浏览器输入公网 IP与端口号,访问服务。
{公网IP}:{port}
如:127.0.0.1:8080

方法二:通过 Cloud Studio 提供的端口转发服务访问

如果仅需要短时间预览,可使用下方规格拼接:
https://${X_IDE_SPACE_KEY}--${PORT}.${REGION}.cloudstudio.work/ # 举例:hfrsgm--8434.ap-guangzhou.cloudstudio.work/
其中${X_IDE_SPACE_KEY}${REGION}可以通过浏览器地址查询到,${PORT}为启动服务的端口号。
#假设浏览器地址为
https://hfrsgm.ap-guangzhou.cloudstudio.work/

#启动了一个AnythingLLM的服务并使用6889端口,则预览地址为
https://hfrsgm--6889.ap-guangzhou.cloudstudio.work/
以 DeepSeek 模板为例,端口号如下:
ollama —— 6399
AnythingLLM 预览页面 —— 6889
Open WebUI 预览页面 —— 6699

其他常见问题

可前往查看 高性能工作空间常见问题 文档。