今天我给大家带来一个小小的教程,教大家如何在安卓手机上使用Termux和Ollama安装DeepSeek模型,解锁移动端人工智能的力量。
可能你会想:手机上运行AI模型?是不是开玩笑?但如果你有一台性能不错的安卓手机,并且对命令行操作不反感,那么这篇教程绝对能满足你的需求。让我们一起看看具体怎么做吧!
第1步:安装Termux
首先,你需要在安卓设备上安装一个叫做Termux的工具。Termux为安卓提供了一个类Linux的终端环境,允许你执行Linux命令和脚本。
这里我已经把安装包整理到网盘里,下载的时候选择适合你的版本。
点击下方公众号卡片,回复关键字:deepseek,获取网盘链接。
获取存储权限:
一旦安装好Termux,打开它,记得打开它并输入以下命令来获取手机的存储权限:
termux-setup-storage
这个权限是必须的,因为我们需要下载和保存模型文件。
第二步:安装环境依赖
接下来,我们需要为DeepSeek安装一些必要的环境依赖。这里会用到git、cmake和golang等工具,这些是构建和运行DeepSeek模型所需要的基础环境。
直接在termux中输入以下命令:
pkg install git cmake golang
如果这些工具正确安装,接下来的步骤应该不会有问题。
第三步:下载并安装Ollama
接下来,我们需要下载并安装Ollama,它是一个支持多种模型(包括DeepSeek)的AI框架。由于Ollama官方并没有直接发布安卓版本,我们需要手动下载其源码并进行编译。
下载Ollama源码:在Termux中,使用git命令克隆Ollama的源码:
git clone --depth 1 https://github.com/ollama/ollama.gitcd ollamago generate ./...go build .
注意:这个过程可能会比较慢,特别是你手机的配置不够强大时,耐心等一下。也可能会遇到网络问题,这时候你可以尝试使用代理工具来加速下载。
第四步:启动Ollama
安装完成后,我们就可以启动Ollama服务了,它会在后台运行,随时准备接收模型任务。
启动Ollama:使用以下命令启动Ollama服务:
./ollama serve &
检查是否启动成功:如果服务启动成功,应该会看到类似“服务已启动”的提示。这时候,Ollama就开始工作了,你可以准备开始使用DeepSeek模型了。
第五步:下载并运行DeepSeek-R1模型
最后,咱们就要下载并运行DeepSeek-R1模型了。DeepSeek是一个强大的AI模型,能够做出非常精准的预测和分析,非常适合需要大量计算的任务。
下载DeepSeek-R1模型:你可以通过Ollama的命令来下载DeepSeek-R1模型,下载完成后,使用以下命令来运行模型:
./ollama run deepseek-r1:1.5b --verbose
如果一切顺利,你应该能够看到模型开始执行的消息。
试着给它一些输入,看看它是如何回应的。
注意事项
手机性能要求:运行深度学习模型可不是小事,尤其是DeepSeek这样的大型模型。所以建议使用较新的安卓手机,至少具备较高的内存和CPU性能。
存储空间:这些模型文件大小相当可观,确保你的手机有足够的存储空间来存放它们。DeepSeek-R1模型可能会占用几GB的空间。
网络连接:下载过程中需要稳定的网络连接。如果你的网络不太稳定,可能会导致下载失败或者中断。
好了,今天的教程就到这里。总的来说,虽然在安卓手机上跑DeepSeek不算一件特别简单的事,但它完全是可以实现的。
只要按照步骤来,耐心一点,性能不差的安卓设备也能完成任务,感受一下手机跑AI模型的乐趣。
同时,也欢迎加入下方的交流群,一起研究deepseek的最新玩法
领取专属 10元无门槛券
私享最新 技术干货