正常的大模型部署都是在服务器上的
但是最近我看到一个手机上可以运行的大模型
分享给大家
MiniCPM是基于 MLC-LLM 开发,将 MiniCPM 和 MiniCPM-V 在 Android 手机端上运行。
使用起来很简单,下载好安装包后
按照教程安装好
下载2个模型
一个是MiniCPM
一个是MiniCPM-v
MiniCPM-v是可以处理图像的
下载好后,点击模型的进行对话即可
MiniCPM只占2GB空间
意味着你手机只要有2g以上空间即可安装
注意模型在部署到手机时使用了 4-bit 量化,可能会损失一定的性能. 性能请参考 原版模型.
公众号回复MiniCPM