前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >国内大模型 T1 —— Kimi,解析二百万上下文无压力

国内大模型 T1 —— Kimi,解析二百万上下文无压力

作者头像
掘金安东尼
发布2024-03-23 07:46:51
1.2K0
发布2024-03-23 07:46:51
举报
文章被收录于专栏:掘金安东尼掘金安东尼

两位百万?怎么做到的?

前段时间写过一篇文章:# GPT4-Turbor 128k ? 还不够?还不够!记得 GPT4-T 的上下文参数量 128k,也就大概 100 万英文字符、50 万汉字字符,kimi 是如何做到 double 的?

真的能做到吗?

上下文的扩充有尽头吗?

在前面文章里提到了 RAG 技术,即 生成式检索增强,它能通过 API 调用,请求页面或读取文件,优化检索数据,缩小文本或标记梳理,同时保留必要信息;然后使用文本分割器,将文档转换为段落、代码块,确定每段落大小;接着进行语义索引、并存储在向量数据库;在回复用户生成的内容前,选择与用户初始请求语义相关的段落块,插入到提示中。

白话来说就是将上下文提示语分块、分析、加权重、插入到提示,那么:如果能无限扩充上下文长度,RAG 技术还有意义吗?

image.png
image.png

Kimi 背后原理,官网做出了解释:# Kimi Chat 公布“大海捞针”长文本压测结果

这里的“针”就是“大上下文提示语”的核心,我们需要提取的、解析的核心:

有几个有意思的数据:

1、GPT-4 Turbo(128K)在语料长度超过 72K 且句子(“针”)藏在文本头部的时候,准确率不佳。(这也是我们前面提到过的)

2、而Claude 2.1似乎在语料长度超过20K 之后就开始准确率不佳,而且句子( 针)藏在语料靠前的位置时,准确率尤其差。

而 Kimi Chat 在“大海捞针”实验中的测试结果是这样的:

kimi 的测试结果好的让人意外!

那... kimi 究竟做对了什么?

官方也没明说,只是最后给了个这样的结论:

具体技术实现细节,背后是大量复杂的工程优化和算法创新设计,这也是 kimi 团队核心技术壁垒,不得而知。

内部成员的回复:

思考:

以后的大模型比拼什么?两点:

1、数据的精准性-各行业

2、计算能力、解析能力-这里的大文本上下文解析就算!

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2024-03-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
对象存储
对象存储(Cloud Object Storage,COS)是由腾讯云推出的无目录层次结构、无数据格式限制,可容纳海量数据且支持 HTTP/HTTPS 协议访问的分布式存储服务。腾讯云 COS 的存储桶空间无容量上限,无需分区管理,适用于 CDN 数据分发、数据万象处理或大数据计算与分析的数据湖等多种场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档