首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

手把手用DeepSeek-R1和Ollama搭建本地应用,一文搞定!

首先,需从Ollama的GitHub仓库下载并安装Ollama,具体步骤包括运行下载的程序、验证安装及拉取所需模型如deepseek-r1:1.5b和nomic-embed-text。模型拉取后,将在localhost:11434上自动启动,需注意本地硬件能力,建议CPU Memory > 8GB。接着,通过命令行部署模型。

详细链接获取方式:

微信公众号“大模型科技说”回复关键字“dol25”获取下载地址。

此外,还需安装langchain、langchain_community、langchain_chroma和langchain_ollama等依赖。完成这些前期准备后,即可开始构建基于LangChain、Ollama和DeepSeek R1的本地RAG应用,包括加载并切分PDF文档为适当大小的文本块。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Ob10zBpEHrbTu8nbSl4hY14A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券