首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

月之暗面 Kimi 开放平台将启动 Context Caching 内测

IT之家 6 月 19 日消息,月之暗面官宣 Kimi 开放平台 Context Caching 功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能

据介绍,Context Caching(上下文缓存)是由 Kimi 开放平台提供的一项高级功能,可通过缓存重复的 Tokens 内容,降低用户在请求相同内容时的成本,原理如下:

官方表示,Context Caching 可提升 API 的接口响应速度(或首字返回速度)。在规模化、重复度高的 prompt 场景,Context Caching 功能带来的收益越大。

Context Caching 适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:

提供大量预设内容的 QA Bot,例如 Kimi API 小助手。

针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。

对静态代码库或知识库的周期性分析,例如各类 Copilot Agent。

瞬时流量巨大的爆款 AI 应用,例如哄哄模拟器,LLM Riddles。

交互规则复杂的 Agent 类应用,例如什么值得买 Kimi+ 等。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OXmE7eswCYYqxlMZsT184ZWA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券