首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

CacheGen:语言模型应用程序的快速上下文加载

凭借其令人印象深刻的生成能力,大语言模型(LLM)被广泛应用于各个领域。公共LLM的API(例如GPT-4)和应用框架(例如Langchain)的广泛使用,结合开源的满足工业应用质量要求的LLM(例如Llama),进一步提高了LLM的受欢迎程度。随着LLM越来越多地被用于复杂任务,许多应用程序通过使用包含至少数千个标记的长上下文LLM来增强它们的输入(即提示)。例如,某些上下文用领域知识文本补充用户提示,以便LLM可以使用LLM本身嵌入的信息之外的领域知识来生成响应。另一个例子是,一些上下文利用用户和LLM之间交互过程中积累的对话历史来补充用户提示。这种长上下文的趋势很好地反映在最近训练接受更长上下文输入的LLM的竞赛中,从ChatGPT中的2K Tokens到Claude中的100K(见图1)。虽然较短上下文输入能力的LLM仍然有用,但许多研究表明,较长的上下文输入通常有助于提高模型响应的质量和一致性。

01

CVPR 2022 | 关注文本阅读顺序,蚂蚁集团、上海交通大学提出多模态文档理解模型XYLayoutLM

机器之心专栏 作者:蚂蚁集团-大安全-机器智能 来自蚂蚁集团 - 大安全 - 机器智能和上海交通大学的研究者提出了一种多模态文档理解新模型 XYLayoutLM。 近年来,多模态文档理解在各类场景得到了广泛的应用。它要求我们结合图像,文本和布局信息对扫描件或者 pdf 文件进行理解。在常见的表单理解的任务中,多模态数据如图 1 所示。 图 1:多模态文档理解数据示例(来自 XFUN 数据集) 除此之外,多模态的模型还被应用于文档自动处理,文本关系提取和网页分类定性等等一系列应用。然而,需要强调的是,这个问

03
领券