首页
学习
活动
专区
工具
TVP
发布

山行AI

山行AI(原开发架构二三事),后续专注于AI应用领域
专栏成员
303
文章
761890
阅读量
57
订阅数
Lumos——一款由大模型Ollama提供的本地LLM浏览网页Chrome扩展
春节在家,翻了很多优秀的AI开源项目,这里选几款和大家分享一下。Lumos是一款由本地LLM驱动(也就是大模型本地布署),用于浏览网页的RAG LLM协助工具。
山行AI
2024-02-26
2K0
热门开源的AI简历制作工具—RxResume
一个免费且开源的简历制作工具,结合了AI的处理能力,简化了创建、更新和分享简历的过程。
山行AI
2024-01-29
3720
大型语言模型(LLMS)、可检索式增强生成(RAG)和AI缺失的存储层
在人工智能迅速发展的背景下,尤其是语言模型机器(LLMs)已成为许多应用的真正支柱,从自然语言处理和机器翻译到虚拟助手和内容生成。GPT-3及其继任者的出现标志着AI发展的一个重要里程碑,开启了一个时代,在这个时代中,机器不仅能理解,还能以惊人的熟练度生成类似人类的文本。然而,在这场AI革命的表面之下,隐藏着一个关键的缺失元素,这个元素有潜力解锁更大的AI能力:存储层。
山行AI
2024-01-12
4540
如何用知识图谱和Llama-Index来实现RAG?
幻觉是与大型语言模型(LLM)一起工作时常见的问题。LLM能够生成流畅连贯的文本,但往往会产生不准确或不一致的信息。避免LLM产生幻觉的方法之一是使用外部知识源,如数据库或知识图谱,提供事实信息。
山行AI
2023-12-19
2.2K0
将文本输入或网址转换为知识图谱的AI应用—instagraph
大家好,欢迎来到 InstaGraph,这是一款将文本或网址转换为富有洞察力的知识图谱的应用程序。对复杂主题中实体之间的关系感到好奇吗?只需将文本输入 InstaGraph,即刻呈现出一张精美的知识图谱。
山行AI
2023-12-14
4560
langchain中的召回增强生成(RAG)一览
RAG是一种通过额外的、通常是私有或实时的数据来增强LLM知识的技术。LLM能够推理各种广泛的主题,但它们的知识仅限于它们训练时的公共数据,到达其特定时间节点为止。如果你想构建可以推理私人数据或在模型截止日期之后引入的数据的人工智能应用程序,你需要用特定信息增强模型的知识。将适当的信息带入并插入到模型提示中的过程被称为“检索增强生成”(RAG)。
山行AI
2023-12-12
3.5K0
使用Chainlit、Qdrant和Zephyr构建用于文档问答的大型语言模型应用程序
该博客介绍了一种利用Zephyr-7B Beta模型作为大型语言模型的应用,以及Langchain和Chainlit。在这里,我将调查它们各自的能力,并展示它们在开发交互式聊天应用程序中的潜力。我将概述用户界面(UI)的设计,后端处理的建立,以及创建一个完全可操作的问答应用程序所涉及的无缝集成过程。
山行AI
2023-11-23
1.4K0
搭建本地知识库的开源利器之DocsGPT
DocsGPT 是一款前沿的开源解决方案,可以简化在项目文档中查找信息的过程。通过集成强大的 GPT 模型,开发人员可以轻松地向项目提出问题并获得准确的答案。
山行AI
2023-10-09
3.1K0
LangChain +Streamlit+ Llama :将对话式人工智能引入您的本地设备
在过去的几个月中,大型语言模型(LLMs)得到了广泛的关注,吸引了全球开发者的兴趣。这些模型为正在开发聊天机器人、个人助理和内容创作的开发者带来了令人兴奋的前景。LLMs带来的可能性在开发者|人工智能|自然语言处理社区引发了热潮。
山行AI
2023-08-10
1.4K0
h2oGPT——具备文档和图像问答功能且100%私密且可商用的大模型
这里直接选用h2oGPT的论文摘要部分:建立在大型语言模型 (LLM) 之上的应用程序,如 GPT-4,由于其在自然语言处理方面的人类水平的能力,代表着人工智能的一场革命。然而,它们也带来了许多重大风险,例如存在有偏见的、私人的或有害的文本,以及未经授权包含受版权保护的材料。我们介绍了 h2oGPT,这是一套开放源代码的代码库,用于基于生成性预训练transformer (GPT) 创建和使用 LLM。该项目的目标是创建世界上最好的、真正的开源方法,以替代封闭源代码方法。作为令人难以置信和不可阻挡的开源社区的一部分,我们与令人难以置信的和不可阻挡的开源社区合作,开源了几个经过微调的 h2oGPT 模型,参数从 70 亿到 400 亿,准备在完全许可的 Apache2.0 许可证下用于商业使用。我们的版本中包括使用自然语言的 100 XMATHX PC 私人文档搜索。开源语言模型有助于推动人工智能的发展,使其更容易获得和值得信任。它们降低了进入门槛,允许个人和团体根据自己的需求定制这些模式。这种公开性增加了创新、透明度和公平性。需要一个开源战略来公平地分享人工智能的好处,而 H.O.ai 将继续使人工智能和 LLMS 民主化。
山行AI
2023-08-10
8990
LangChain系列教程之项目结构
"LangChain 系列" 是一系列全面的文章和教程,探索了 LangChain 库的各种功能和特性。LangChain 是由 SoosWeb3 开发的 Python 库,为自然语言处理(NLP)任务提供了一系列强大的工具和功能。
山行AI
2023-08-10
5130
AI跑车引擎——向量数据库第二篇
在AI盛行的当下,Vector Search结合LLM的应用模式已经在应用领域逐渐成为主流,要想开好AI这辆跑车,那么首先需要有一款衬手的引擎,它就是向量数据库。这也是ChatGPT曝火后,很多向量数据库公司获得了数亿美元的融资的原因。
山行AI
2023-06-14
1.6K0
privatGPT——私有化GPT模型的全新应用
借助大型语言模型(LLMs)的力量,无需网络连接,即可对文档提出问题。100%私有化,数据在任何时候都不会离开您的执行环境。您可以摄入文档并提出问题,而无需网络连接!
山行AI
2023-06-14
1.5K0
一文读懂比BitMap有更好性能的Roaring Bitmap
1.什么是bitmap?为什么使用bitmap?Roaring bitmap与其他bitmap编码技术相比有哪些优势?2.Roaring bitmap将32位无符号整数按照高16位分容器,即最多可能有216=65536个容器(container),存储数据时,按照数据的高16位找到container(找不到就会新建一个),再将低16位放入container中。高16位又称为共享有效位,它用于索引应该到哪个容器中查找对应的数值,属于roaring bitmap的一级索引。3.Roaring bitmaps以紧凑高效的两级索引数据结构存储32位整数。高密度块使用位图存储;稀疏块使用16位整数的压缩数组。当一个块包含不超过4096个整数时,我们使用一个排好序的16位整数数组。当有超过4096个整数时,我们使用2^16 位的位图。为什么按4096作为阀值呢?仅仅是因为当数据块中的整数数量超过这个值之后,bitmap将比数组的内存使用率更高。
山行AI
2020-11-26
8.8K0
springboot quartz定时任务调度
在我们添加spring-boot-starter-quartz依赖后就不需要主动声明工厂类,因为spring-boot-starter-quartz已经为我们自动化配置好了。展开spring-boot-autoconfigure-2.0.0.RELEASE.jar,找到org.springframework.boot.autoconfigure.quartz,该目录就是SpringBoot为我们提供的Quartz自动化配置源码实现,在该目录下有如下所示几个类:
山行AI
2019-08-30
2K0
springboot使用quartz的配置
在实例化StdSchedulerFactory的时候可以注册一个全局的监听器到Scheduler中,全局监听器会监听每一个Job和Trigger的触发事件。全局监听器必选有一个无参的构造函数,并且属性值只能是基本类型(包括String)。
山行AI
2019-08-30
8.4K0
Rocketmq消息中间件中通过message key找消息的问题
参考:http://rocketmq.apache.org/docs/quick-start/
山行AI
2019-06-28
7.4K0
没有更多了
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档