首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >哭死,几年前重金购买的 AI PC,竟然还比不上免费的云端 GPU 的算力

哭死,几年前重金购买的 AI PC,竟然还比不上免费的云端 GPU 的算力

作者头像
云水木石
发布2025-02-05 11:26:43
发布2025-02-05 11:26:43
4430
举报
文章被收录于专栏:信创系统开发信创系统开发

五年前,大模型还没有爆发,也没有 AI PC 的概念,但 AI 的苗头已经开始显现。正好那个时候工作比较清闲,就决定学一学 AI。记得当时学的是《机器学习》和《深度学习》这两本书。为了能够更好地实践,花了将近两万块钱,买了一台带独立显卡的台式机。在这之前,我买电脑都是用的集成显卡,因为我不玩游戏,也没有机会做 3D 建模相关的工作。这次为了AI学习,花了血本,买的电脑配置如下:

  • 处理器:Intel Core i9-9900K
  • 显卡:NVIDIA GeForce RTX 2080 Ti(11GB显存)
  • 内存:32GB
  • 硬盘:256 GB SSD + 1TB HDD

但是,我的 AI 之路并没有那么顺利。当时死磕《机器学习》和《深度学习》这两本书,但实在磕不动。太难了,简直是看天书,一个个字都认识,但组合在一起却完全不知所云。本来,我对自己的学习能力还挺有信心的,但这次真的被打击到了。这种理论学习,没有极高的智商加持,真的没法学进去。难怪现在那些 AI 天才,刚毕业就能拿到百万年薪。

在那之后,我有一段时间几乎放弃了对AI的探索。然而,随着ChatGPT的爆火,我逐渐想通了:搞不懂AI的理论也没关系,我可以专注于应用开发。如今的大模型都提供了API接口,将其集成到自己的产品中,同样能发挥巨大价值。

如果只是集成大模型,对电脑硬件的要求其实并不高;但如果要自己部署开源模型,那就需要一台性能更强的机器了。然而,我悲哀地发现,当年我花重金购置的台式机如今已经严重落伍,甚至比不上现在免费的云端GPU算力。

这几天无意中浏览到腾讯推出了 Cloud Studio 在线应用开发平台,除了可以开发 C/C++、Java 等应用外,还可以免费使用云端 GPU 来做 AI 开发。当然,免费版本有时长限制,不过每个月 1 万分钟,还是挺良心的。

使用 Cloud Studio 之前需要注册腾讯云账号,这个就不赘述了。登录后,点击上图中的 “前往专业版” 按钮,就可以进入 “云端 IDE” 界面。

然后再点击 “免费创建 GPU 空间”。

一般情况下,我们可以选择模板创建空间,当然,如果你希望一切由自己控制,也可以 “直接创建”。这里我选择模板。

这里模板很多,请根据需求选择,我希望使用 ollama 部署 DeepSeek 开源大模型,所以选择了 “Ollama” 模板。出现“空间规格”的选择界面。

可以看到,免费版本提供了 16 GB+ 的显存,8 核 CPU 和 32 GB 的内存,真的比我这电脑配置还强。这里没有列出硬盘空间大小,后来我进入到实例,查了一下,总共提供大约 50 GB 的空间。

代码语言:javascript
复制
(base) root@VM-9-56-ubuntu:/workspace# df
Filesystem     1K-blocks     Used Available Use% Mounted on
overlay         51290592 26192784  22459984  54% /
tmpfs              65536        0     65536   0% /dev
tmpfs           16041936        0  16041936   0% /sys/fs/cgroup
/dev/vdb        51290592 26192784  22459984  54% /etc/.hai
tmpfs           16041936       24  16041912   1% /dev/shm
tmpfs           16041936       12  16041924   1% /proc/driver/nvidia
/dev/vda2       30856076 19287576  10215316  66% /usr/bin/nvidia-smi
tmpfs            3208388      852   3207536   1% /run/nvidia-persistenced/socket
udev            15991728        0  15991728   0% /dev/nvidia0
tmpfs           16041936        0  16041936   0% /proc/asound
tmpfs           16041936        0  16041936   0% /proc/acpi
tmpfs           16041936        0  16041936   0% /proc/scsi
tmpfs           16041936        0  16041936   0% /sys/firmware

除掉系统所占用的空间,大小勉强够用。

接下来会显示所创建的实例。

点击其中的一个实例,可以看到我们非常熟悉的界面:一个在浏览器中仿真的 Visual Studio Code 编辑器。

试用了一下,和在本地使用 VS Code 没什么区别,也能安装各种插件。

如果要操作创建的主机实例,官方没有提供 ssh 之类的登录方法。但我们可以在 VS Code 中打开中端,比如我要用 ollama 安装 DeepSeek 大模型:

还可以在 VS Code 中创建多个终端。DeepkSeek 大模型安装好后,就可以对话了。

如果你想踏入AI开发领域,完全没有必要购买昂贵的AI专用电脑。利用线上资源,一台普通的电脑就足以满足你的需求。关键是,买了昂贵的电脑也不能干啥,因为随着大模型的不断发展,其规模和复杂度已经远远超出了个人消费级电脑的处理能力,自行进行模型训练或调优几乎是不可能的。

相比之下,云端GPU不仅性能强大,还能根据你的需求灵活选择免费或付费版本。付费使用云端GPU,本质上就像是租用一台高性能的GPU电脑,既能满足开发需求,又无需担心硬件过时的问题。这样,你不仅能节省前期的硬件投资,还能避免几年后电脑性能落伍的尴尬局面。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-01-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 云水木石 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档