前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ICL的时候,更多sample好还是更多prompt好呢?

ICL的时候,更多sample好还是更多prompt好呢?

作者头像
zenRRan
发布2023-11-22 13:58:07
2780
发布2023-11-22 13:58:07
举报

深度学习自然语言处理 原创 作者:cola

虽然大多数现有的LLM提示工程只专注于如何在单个提示输入中选择一组更好的数据样本(In-Context Learning或ICL),但为什么我们不能设计和利用多个提示输入来进一步提高LLM性能?本文提出上下文采样(ICS),一种低资源LLM提示工程技术,通过优化多个ICL提示输入的结构来产生最有置信度的预测结果。

论文: More Samples or More Prompt Inputs? Exploring Effective In-Context Sampling for LLM Few-Shot Prompt Engineering 地址: https://arxiv.org/pdf/2311.09782.pdf nice!这是一个快速了解LLM时代下最新研究的学术分享平台

介绍

指令微调的LLMs,如Flan-T5、LLaMA和Mistral展示了通用的自然语言理解(NLI)和生成(NLG)能力。然而,解决实际任务需要广泛的领域专业知识,这对LLM来说仍然具有挑战性。研究人员提出了各种激励策略来探索LLM的能力。一个突出的方法是少样本上下文学习(ICL),通过向提示输入插入一些数据示例,特别是对未见任务的能力提高了LLM的任务解释和解决能力。最近的几项工作研究了不同ICL设置的影响,包括数量、顺序和组合。然而,最好的ICL策略还没有共识。

本文假设不同的ICL为LLM提供了关于任务的不同知识,导致对相同数据的不同理解和预测。因此,一个直接的研究问题出现了:llm能否用多个ICL提示输入来增强,以提供最可信的预测?为解决这个问题,本文提出上下文采样(ICS)。ICS遵循三步流程:采样、增强和验证,如图1所示。

ICS策略

给定一个自然语言任务指令

I

和一个数据

x∈D

,指令微调的SOTA可以接受输入

\{I + (x_{d1}, y_{d1}) +…+ (x_{dm}, y_{dm}) + x\}

,生成一个输出

y

,其中

(x_{dm}, y_{dm})

表示上下文中的注释示例,

y

是预测结果。

示例可以为LLM提供:

  • 直接理解任务指令(I)和预期输出
(y_{d1},y_{dm})
  • 间接指导如何解决任务
(x_{dm}→y_{dm})

本文假设不同的ICL示例集为LLM提供了关于该任务的不同知识。因此,LLM可以根据不同的ICL提示输入改变对相同数据

x

的预测,但预测的变化最终将收敛到一个最可信的预测。

ICS的框架如图1所示。

1️⃣从未标记的数据池中采样示例候选集并获取注释,

2️⃣用不同的ICL组合增加标签,

3️⃣验证置信度最高的标签作为增强标签的最终预测。

ICS方法是模型无关的且“即插即用”,可以以最小的工作量切换到不同的采样、增强和验证算法。

示例候选集采样

从许多未标记的数据中采样少量数据作为ICL示例,通常分为两种类型:基于数据多样性和基于模型概率。我们的策略坚持基于集群的策略(即核心集),旨在识别代表所有未标记数据的示例,同时最大化这些选定实例的多样性。该策略用句子转换器编码

s(x_i,D)=\cos \left(\operatorname{embed}\left(x_i\right), \frac{1}{|\mathcal{D}|} \sum_{j=1}^{|\mathcal{D}|} \operatorname{embed}\left(x_j\right)\right)

计算每个数据

x_i

的余弦相似度,其中embed表示句Transformer Embedding。然后,根据相似度得分对候选样本进行排序,并检索

n

个相同间隔的样本集,以保证样本集的多样性。本文试图确定样本量和增强的ICL组合数量,在下面三个角度上取得平衡:

1️⃣包含足够的多样性充分表示基础数据,

2️⃣置信预测具有鲁棒性,

3️⃣最小化注释成本。

ICL组合增强

如图1所示,ICS通过为要预测的相同数据构建不同的ICL组合来增强标签,然后获得所有标签中置信度最高的标签。然而,如果要求LLM预测候选的每个组合,计算量可能会很大。我们认为,ICS不需要每个ICL组合来找到模型的最可信的标签。类似于人类投票,少数代表代表更多的人口投票,我们计划调查合理数量的“代表”,即及时的输入。用一个随机和基于数据多样性的算法作为基准,用于示例增强,并研究了策略差异的影响。两种方法都是从候选列表中迭代采样

k

m-示例集

,其中基于多样性的增强策略使用上述策略。然后对相同的测试数据查询LLM

k

次,得到

k

个弱标签,记为

label_{weak}x-i, i∈[1,k]

置信标签验证

既然我们从上述ICS步骤中获得了一组标签,就可以应用一些验证算法来找到置信度最高的标签,获得了最可信的预测。可以想象ICL有潜力提供模型可信的无监督标签,以在资源匮乏的场景中迭代地微调LLM,这些场景中专家注释难以访问且昂贵。

实验

实验设置

采用了两个SOTA LLMs FLAN-T5-XL和Mistral,并在三个难度越来越大的NLI任务上进行实验:eSNLI、Multi-NLI和ANLI。排除了LLaMA-2的原因是初步实验显示了LLaMA-2在“中性”类别上有过拟合问题。我们使用vanilla ICL作为基线。利用随机抽样来构建基础ICS策略的ICS提示输入,并使用多数代表方法来找到最可信的标签。对每个提示输入使用3个示例。操作ICS的两个控制变量:采样的代表性数据

n

的大小,其中

n∈{50,100,250,500}

,以及每个待预测数据的增强示例组合

k

的数量,其中

k∈{3,5,10,20}

,其中

k = 1

是ICL基线。对于真实场景,500个注释是一个合理的预算。在10次试验中取平均值。

对LLaMA-2进行分析

利用三种不同的自然语言指令,在ANLI上对LLaMA-2进行初始推理实验:

1️⃣确定一个假设是否是蕴涵的,中性的,矛盾的前提。

2️⃣将一对前提和假设句分为三类:蕴涵句、中性句、矛盾句。

3️⃣通过蕴涵、中性、矛盾来预测前提和假设之间的关系。

结果如表2所示,我们可以很容易地观察到,尽管改变了指令,LLaMA-2倾向于过度预测其他两个类别的"中性",而真实分布是跨类别的。因此,我们在工作中省略了LLaMA-2。可能有不同的原因导致了这个问题;例如,LLaMA-2对NLI任务或共享同一组目标类别("蕴含"、"中性"和"矛盾")的类似任务进行了过拟合。

实验结果

在图2中,我们展示了

n = 100

时,基线ICL和我们的ICS策略对每个模型和数据集的预测精度。基线和我们的策略之间的标准差变化也用右纵轴的虚线表示。以随机采样策略为基准的ICS策略,可以不断提高LLM在每个

(n, k)

组合中的预测性能,证明了所提出的ICS管道的有效性。

此外,我们观察到LLM对ICS有明显的敏感性。具体来说,对于Flan-T5来说,ICS策略提供的精度提升远小于Mistral,这可以归因于Flan-T5可能会过拟合我们实验的三个数据集或NLI任务。另一方面,Mistral证明了ICS策略对准确性的显著提升,在所有数据集上的平均提升超过5%。当

k = 10

时,两个模型的标准偏差减少得最多,当

k

超过10时,增加的

k

提供的性能改善开始逐渐减少。对于示例候选采样,一旦

n

超过100,精度的提高就不显著。样本量超过100可以被认为具有足够的多样性和代表性。

表3和表4报告了对FlanT5XL和Mistral-7b的完整评估结果。

消融实验

使用Mistral-7B和性能最佳的设置:

n = 100

k = 10

。从3个NLI数据集中随机采样3000和1000数据作为训练集和测试集。我们共进行了4种情况下的10次试验,记为

ICS^{sampling strategy}_{combination strategy}

组合策略,其中RD为随机策略,DS为基于数据相似性的策略。实验结果如表1所示:

基于多样性的示例候选采样和组合增强策略可以有效提高ICL的性能。

总结

本文提出上下文采样(ICS),一种新的基于ICL的范式,用于探测LLM的最高置信度预测。实验结果表明,与传统的ICL方法相比,ICS方法提高了ICL的准确性,降低了标准偏差。还研究了不同样本数量和ICL组合量的影响,然后进一步进行消融实验,以说明基于ICS简单但有效的数据多样性采样策略的有用性。

限制

本文的主要重点是提出并证明ICS的有效性。然而,尽管对不同的nk 组合进行了广泛的实验,但仍有几个潜在变量需要进一步分析。例如,尽管我们考虑了3个不同难度的数据集,并且每个ICL组合是任意的,但3个数据集都是NLI任务。此外,只进行了一项基于数据多样性的候选采样和组合增强策略的小规模消融研究。并且我们的实验原本打算由三个SOTA LLM组成,但由于LLaMA-2倾向于预测“中性”类别,因此不包括它。我们仍有各种其他的指令微调LLM没有包括在这项工作中,如InstructGPT。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-11-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 介绍
  • ICS策略
    • 示例候选集采样
      • ICL组合增强
        • 置信标签验证
        • 实验
          • 实验设置
            • 对LLaMA-2进行分析
          • 实验结果
            • 消融实验
            • 总结
            • 限制
            相关产品与服务
            NLP 服务
            NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档