知识引擎原子能力(LLM Knowledge Engine Atomic Power)基于知识引擎研发的知识问答全链路能力,面向企业及开发者,提供灵活组建及开发模型应用的能力。您可通过多款原子能力组建您专属的模型服务,调用文档解析、拆分、embedding、多轮改写等服务进行组装,定制企业专属 AI 业务。
知识引擎原子能力(LLM Knowledge Engine Atomic Power)目前已提供多项检索增强生成(RAG)框架所需配套 API ,以下为各个原子能力的简要介绍,可作为业务接入时选择的参考依据。
原子能力
提供 RAG 链路中解耦的各个能力,包括解析、拆分、embedding、多轮改写、重排序等。
原子能力名称 | 能力和特征 | 相关接口 |
文档解析(同步) | 支持将多种格式文件转换成 Markdown 格式文件,可解析包括表格、公式、图片、标题、段落、页眉、页脚等内容元素,并将内容智能转换成阅读顺序。适用于对耗时要求较高的解析场景,如实时文档问答,支持的文件较小,耗时较短。 | ReconstructDocument 文档解析 ReconstructDocumentSSE 文档解析 SSE |
文档解析(异步) | 支持将多种格式文件转换成 Markdown 格式文件,可解析包括表格、公式、图片、标题、段落、页眉、页脚等内容元素,并将内容智能转换成阅读顺序。适用于知识库问答等对耗时没有严格要求的场景,支持更大的文件。 | CreateReconstructDocumentFlow 创建文档解析任务 GetReconstructDocumentResult 查询文档解析任务结果 |
文档解析拆分 | 支持将多种格式文件转换成 Markdown 格式文件并进行多级语义拆分,返回文件拆分后的结果。可用于后续的检索片段召回和阅读理解等。使用拆分模型后的相比传统正则切分方式,回答完整性提升20%。 | CreateSplitDocumentFlow 创建文档拆分任务 GetSplitDocumentResult 查询文档拆分任务结果 |
embedding | 支持调用文本表示模型,将文本转化为用数值表示的向量形式,可用于文本检索、信息推荐、知识挖掘等场景。 | GetEmbedding 获取特征向量 |
多轮改写 | 该接口主要用于多轮对话中,进行指代消解和省略补全。使用本接口,无需输入 prompt 描述,根据对话历史即可生成更精确的用户查询语句。在应用场景上,本接口可应用于智能问答、对话式搜索等多种场景。 | QueryRewrite 多轮改写 |
重排序 | 重排序服务 ( ranker ) 提供 query 和切片片段之间的相关性排序服务,在 RAG 及搜索场景中,可通过排序服务找到相关性更高的内容并依次返回,引入排序服务可有效提升检索及大模型生成的准确率。 | RunReRank 重排序 |
RAG 综合能力
检索增强生成 RAG(Retrieval-Augmented Generation)技术结合了检索系统的强大能力和生成模型的灵活性,可以解决更复杂的语言理解问题。知识引擎原子能力(LLM Knowledge Engine Atomic Power)基于大模型知识引擎 研发的知识问答全链路能力,面向企业及开发者,提供灵活组建及开发模型应用的组件化服务,可以基于此快速搭建一套效果更佳的 RAG 链路。
RAG 流程图
RAG 综合能力套件
提供 RAG 链路中的文件上传-解析-拆分- embedding -检索- rerank 的一站式全链路综合能力,您可综合使用各个接口获得 RAG 的检索结果,通过结合检索和生成模型的优势,实现高效的文档内容检索和精确的问答生成。详情请查看 操作指南。

