基于腾讯云 ES 引擎和生态优势,帮助客户通过更轻量的研发和运维投入,轻松构建 RAG、AI 搜索等应用。本文档将详细说明各原子服务的计费方式和单价策略,遵循按需付费原则,帮助客户根据实际业务场景精细化成本管理。
免费额度
原子服务定价明细
原子服务计费模式当前仅支持后付费,按照实际调用接口消耗的资源量进行计费,每小时对腾讯云账户进行结算和扣费,正式使用前请保证账户处于非欠费状态。
文档解析(Document Parsing)
文档解析服务按原始文档成功解析的页数计费,单价如下:
服务 | 刊例(元/页) |
doc-llm | 0.2 |
说明:
doc-llm 文档解析服务是按页收费,对不同文档计费规则如下:
doc、docx、ppt、pptx、pdf 按页计量。
jpeg、png等图片格式以一张图为一页。
xlsx、txt、md、csv 以 1 份为一页。
文本切片(Text Chunking)
文本切片服务按千 token 计费,单价如下:
服务 | 刊例(元/千 tokens) |
doc-tree-chunk | 0.03 |
doc-chunk | 0.00002 |
说明:
doc-tree-chunk 服务是基于 doc-llm 文档解析服务实现的文档切片,默认会分为解析和分片的两种费用,具体如下:
输入文件为 pdf/docx/doc/ppt/pptx 文档格式和 jpg/png 等图片格式时,需要计算文档解析费用(按页计费)。
输入文件为 txt/md/xlsx/xls 格式时,仅需工程解析,不需要付费。
两种方式输入的文件都需要计算拆分消耗的费用,按 token 消耗数量计费。
doc-chunk 服务是基于分隔符、文本长度进行切片,适用于规则性较强的文本,这里统计的 token 为原始文本的字符长度。
向量化(Embedding)
向量化服务按千 token 计费,单价如下:
模型 | 维度 | token 限制 | 语言 | 刊例(元/千 tokens) |
bge-base-zh-v1.5 | 768 | 512 | 中文 | 0.0005 |
KaLM-embedding-multilingual-mini-v1 | 896 | 131072 | 多语言 | 0.0005 |
bge-m3 | 1024 | 8194 | 多语言 | 0.0005 |
conan-embedding-v1 | 1792 | 512 | 中文 | 0.0005 |
重排序(Rerank)
重排序服务按千 token 计费,单价如下:
模型 | token 限制 | 语言 | 刊例(元/千 tokens) |
bge-reranker-large | 514 | 中文、英文 | 0.0001 |
bge-reranker-v2-m3 | 8194 | 多语言 | 0.0005 |
大模型生成(LLM)
大模型生成服务按千 token 计费,单价如下:
系列 | 模型 | token 限制 | 刊例(元/千 tokens) |
deepseek | deepseek-r1 | 最大输入128k 最大输出8k | 输入:0.004 输出:0.016 |
| deepseek-v3(0324) | 最大输入128k 最大输出8k | 输入:0.002 输出:0.008 |
| deepseek-r1-distill-qwen-32b | 最大输入128k 最大输出8k | 输入:0.002 输出:0.006 |
hunyuan | hunyuan-turbo | 最大输入28k 最大输出4k | 输入:0.0024 输出:0.0096 |
| hunyuan-large | 最大输入28k 最大输出4k | 输入:0.004 输出:0.012 |
| hunyuan-large-longcontext | 最大输入128k 最大输出6k | 输入:0.006 输出:0.018 |
| hunyuan-standard | 最大输入30k 最大输出2k | 输入:0.0008 输出:0.002 |
| hunyuan-standard-256K | 最大输入250k 最大输出6k | 输入:0.0005 输出:0.002 |
联网搜索
联网搜索服务按调用次数计费,可结合大模型进行使用,单价如下:
服务 | 刊例(元/千次) |
sogou | 65 |
bing | 65 |
baidu | 65 |
说明:
推荐您使用 sogou 服务,提供稳定的联网搜索服务,bing 和 baidu 服务由三方服务厂商提供,受限于三方服务,有关停风险,请酌情使用。