首先,需从Ollama的GitHub仓库下载并安装Ollama,具体步骤包括运行下载的程序、验证安装及拉取所需模型如deepseek-r1:1.5b和nomic-embed-text。模型拉取后,将在localhost:11434上自动启动,需注意本地硬件能力,建议CPU Memory > 8GB。接着,通过命令行部署模型。
详细链接获取方式:
微信公众号“大模型科技说”回复关键字“dol25”获取下载地址。
此外,还需安装langchain、langchain_community、langchain_chroma和langchain_ollama等依赖。完成这些前期准备后,即可开始构建基于LangChain、Ollama和DeepSeek R1的本地RAG应用,包括加载并切分PDF文档为适当大小的文本块。
领取专属 10元无门槛券
私享最新 技术干货