
豆包要收费冲上了热搜,而且价格还不便宜呢!所以是时候搭建一个本地AI了

我们都知道,豆包App一直是可以免费使用的,而且它的泛用性特别广,在国内AI应用里也非常靠前
根据QuestMobile数据显示,豆包月活已达3.45亿,日活约1.4亿,妥妥的国民级软件!

不过前几天,豆包在APP Store的更新日志里面悄悄加了收费模式。AI在如火如荼的烧钱近2年后,终于还是迎来了收费,毕竟那些AI公司可不是为了什么全人类的发展而努力,在商业世界里,利益才是永恒的真理
既然豆包正在逐步转为收费模式,以后应该会有越来越多的AI会走向付费模式。这招在国内太常见了:先免费圈人,再慢慢收费,商业模式成熟得很。所以小编建议,大家在自己电脑上先安装一个本地AI作为备份。万一哪天所有大模型都要钱了,也不至于抓瞎。话说回来,每年两千多块,你愿意为AI付费吗?
不啰嗦了,咱们直接开搞!现在安装本地AI非常简单,和安装微信一模一样
首先我们下载一个AI客户端,这里推荐LM Studio(相比Ollama,它能让AI跑得更快)
官网在这里👉 :https://lmstudio.ai/
点击下载,然后双击安装即可

打开软件,我们先去设置 → 语言,改成中文简体

不过软件的汉化一般,很多地方还是中英文混合,但毕竟免费,是不是觉得也可以接受了😂

点击“Model Search”,我们来下载需要的本地AI大模型

LM Studio可以检测适合你电脑配置的AI模型
如图:显示“可能能够完全加载进GPU显存”的绿色提示,就说明这个AI在你的电脑上面完全能够正常运行,不必担心

不合适的模型会提示“对于此设备可能过大”,不建议小伙伴们强行使用这种比较大的模型。它对电脑配置的要求非常高,即使安装了也会发热卡顿,无法正常使用

AI模型的选择就看我们自己的喜好和电脑的配置了
小Tips:小编推荐千问的Qwen3.5 9B模型。如果想看各家模型的能力大比拼,可以在评论区留言,人多的话我单独出一期哈

然后点击”Download“,我们等待下载即可

下载完成后,点击“use in New Chat”,本地AI就跑起来了

之后就是大家最熟悉的聊天对话界面了

毕竟是跑在自己电脑上的小模型,靠的是本地算力,所以它的准确度和解决问题的能力肯定比云端联网大模型要弱
经典的“洗车问题”,翻车翻得很厉害😂

但在最新的千问网页端,“洗车问题”已经完美解决了(希望本地模型也赶紧跟上吧)

说到底,下载一个本地小模型大概占用电脑7G左右空间,不能指望它跟云端大模型一样聪明。但完全可以作为备份使用——简单问题本地AI没问题,难题再用那些付费烧token的AI,这样可以让钱包的压力小一点点
想了解更多关于AI的教程,记得关注我们。下期再见,拜拜👋