腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
小七的各种胡思乱想
专栏作者
举报
92
文章
162193
阅读量
40
订阅数
订阅专栏
申请加入专栏
全部文章(92)
NLP 服务(52)
prompt(20)
nlp(19)
机器学习(18)
chatgpt(12)
tensorflow(11)
深度学习(11)
LLM(11)
自然语言处理(10)
数据挖掘(6)
推荐系统(6)
github(4)
决策树(4)
神经网络(3)
编程算法(3)
pytorch(3)
第二期热点征文-人工智能(3)
git(2)
人工智能(2)
serverless(2)
开源(2)
数据分析(2)
https(2)
agent(2)
token(2)
2023腾讯·技术创作特训营 第二期(2)
2023腾讯·技术创作特训营 第三期(2)
2023腾讯·技术创作特训营 第四期(2)
python(1)
bootstrap(1)
apt-get(1)
命令行工具(1)
网络安全(1)
强化学习(1)
正则表达式(1)
markdown(1)
大数据(1)
数据可视化(1)
腾讯云开发者社区(1)
entity(1)
hidden(1)
key(1)
label(1)
lm(1)
mask(1)
pipeline(1)
size(1)
text(1)
title(1)
搜索文章
搜索
搜索
关闭
解密Prompt系列21. LLM Agent之再谈RAG的召回信息密度和质量
chatgpt
nlp
LLM
2023腾讯·技术创作特训营 第四期
NLP 服务
话接上文的召回多样性优化,多路索引的召回方案可以提供更多的潜在候选内容。但候选越多,如何对这些内容进行筛选和排序就变得更加重要。这一章我们唠唠召回的信息密度和质量。同样参考经典搜索和推荐框架,这一章对应排序+重排环节,考虑排序中粗排和精排的区分主要是针对低延时的工程优化,这里不再进一步区分,统一算作排序模块。让我们先对比下重排和排序模块在经典框架和RAG中的异同
风雨中的小七
2023-12-13
1.2K
2
解密Prompt系列20. LLM Agent 之再谈RAG的召回多样性优化
NLP 服务
LLM
2023腾讯·技术创作特训营 第三期
几个月前我们就聊过RAG的经典方案解密Prompt系列14. LLM Agent之搜索应用设计。前几天刚看完openAI在DevDay闭门会议上介绍的RAG相关的经验,有些新的感悟,借此机会再梳理下RAG相关的优化方案。推荐直接看原视频(需科学上网)A Survey of Techniques for Maximizing LLM Performance
风雨中的小七
2023-11-29
1.9K
0
解密Prompt系列19. LLM Agent之数据分析领域的应用:Data-Copilot & InsightPilot
2023腾讯·技术创作特训营 第三期
NLP 服务
prompt
LLM
第二期热点征文-人工智能
在之前的 LLM Agent+DB 的章节我们已经谈论过如何使用大模型接入数据库并获取数据,这一章我们聊聊大模型代理在数据分析领域的应用。数据分析主要是指在获取数据之后的数据清洗,数据处理,数据建模,数据洞察和数据可视化的步骤。可以为经常和数据打交道,但是并不需要太过艰深的数据分析能力的同学提供日常工作的支持,已看到很多 BI 平台在尝试类似的方案。这里我们聊两篇论文:Data-Copilot 和 InsightPilot, 主要参考一些有意思的思路~
风雨中的小七
2023-11-15
1.8K
0
解密Prompt系列18. LLM Agent之只有智能体的世界
NLP 服务
chatgpt
prompt
自然语言处理
第二期热点征文-人工智能
重新回来聊Agent,前四章的LLM Agent,不论是和数据库和模型还是和搜索引擎交互,更多还是大模型和人之间的交互。这一章我们来唠唠只有大模型智能体的世界!分别介绍斯坦福小镇和Chatdev两篇论文。它们的共同特点是使用多个大模型智能体协同完成任务。
风雨中的小七
2023-10-26
1.1K
3
解密Prompt系列17. LLM对齐方案再升级 WizardLM & BackTranslation & SELF-ALIGN
自然语言处理
2023腾讯·技术创作特训营 第二期
第二期热点征文-人工智能
NLP 服务
prompt
话接上文的指令微调的样本优化方案,上一章是通过多样性筛选和质量过滤,对样本量进行缩减,主打经济实惠。这一章是通过扩写,改写,以及回译等半监督样本挖掘方案对种子样本进行扩充,提高种子指令样本的多样性和复杂度,这里我们分别介绍Microsoft,Meta和IBM提出的三个方案。
风雨中的小七
2023-10-12
908
0
解密Prompt系列16.LLM对齐经验之数据越少越好?LTD & LIMA & AlpaGasus
NLP 服务
prompt
自然语言处理
2023腾讯·技术创作特训营 第二期
LLM Agent中间插个队,总结下指令微调、对齐数据相关的方案,已经凑够7篇论文可以召唤神龙啦!Data-Centric的观点比较一致:指令微调也就是对齐阶段的数据质量>>数量,少量+多样+高质量的对齐数据,就能让你快速拥有效果杠杠的模型。注意以上三者是充分必要关系,不是说数据越少越好,是三者的有机统一。
风雨中的小七
2023-09-27
825
0
解密Prompt系列15. LLM Agent之数据库应用设计:DIN & C3 & SQL-Palm & BIRD
chatgpt
prompt
NLP 服务
agent
上一章我们主要讲搜索引擎和LLM的应用设计,这一章我们来唠唠大模型和DB数据库之间的交互方案。有很多数据平台已经接入,可以先去玩玩再来看下面的实现方案,推荐
风雨中的小七
2023-09-14
1.9K
0
解密Prompt系列14. LLM Agent之搜索应用设计:WebGPT & WebGLM & WebCPM
NLP 服务
agent
nlp
prompt
前两章,我们分别介绍了基于微调和prompt的工具调用方案,核心都是如何让大模型和工具进行交互,包括生成工具调用语句和处理工具调用请求。不过在实际应用中,想要设计一个可以落地的LLM Agent,需要更全面整体的系统设计。本章我们以搜索工具为例,介绍如何更好和搜索引擎进行交互的LLM Agent。
风雨中的小七
2023-08-31
2K
0
解密Prompt系列13. LLM Agent指令微调方案: Toolformer & Gorilla
NLP 服务
nlp
prompt
LLM
上一章我们介绍了基于Prompt范式的工具调用方案,这一章介绍基于模型微调,支持任意多工具组合调用,复杂调用的方案。多工具调用核心需要解决3个问题,在哪个位置进行工具调用(where), 从众多工具中选择哪一个(Which), 工具的输入是什么(What)。Where + Which + What,我称之为3W原则,3H它兄弟哈哈哈哈~
风雨中的小七
2023-08-15
1.8K
0
解密Prompt系列12. LLM Agent零微调范式 ReAct & Self Ask
NLP 服务
chatgpt
nlp
prompt
自然语言处理
其次是模型赋能我们,Agent加持的大模型,作为更优的数据和任务中介/代理,赋予了我们和任意数据类型交互的能力,大模型正在重构数据和信息的处理方式。从之前的结构化数据为主向更多的非结构化数据转变。
风雨中的小七
2023-07-27
3.5K
0
解密Prompt系列11. 小模型也能思维链推理
nlp
自然语言处理
NLP 服务
prompt
前两章我们分别介绍了思维链的多种使用方法以及思维链(COT)的影响因素。这一章更多面向应用,既现实场景中考虑成本和推理延时,大家还是希望能用6B的模型就不用100B的大模型。但是在思维链基础和进阶玩法中反复提到不论是few-shot还是zero-shot的思维链能力似乎都是100B左右的大模型才有的涌现能力,而在小模型上使用思维链甚至会带来准确率的下降。
风雨中的小七
2023-07-13
1.6K
0
解密Prompt系列10. 思维链COT原理探究
nlp
prompt
自然语言处理
NLP 服务
前一章思维链基础和进阶玩法我们介绍了如何写Chain-of-thought Prompt来激活生成逐步推理,并提高模型解决复杂问题的能力,这一章我们追本溯源,讨论下COT的哪些元素是提升模型表现的核心?
风雨中的小七
2023-06-29
1.7K
0
解密Prompt系列9. 模型复杂推理-思维链基础和进阶玩法
nlp
自然语言处理
prompt
NLP 服务
这一篇真的是解密prompt!我们会讨论下思维链(chain-of-Thought)提示词究竟要如何写,如何写的更高级。COT其实是Self-ASK,ReACT等利用大模型进行工具调用方案的底层逻辑,因此在Agent调用章节之前我们会有两章来讲思维链
风雨中的小七
2023-06-14
4.2K
5
解密Prompt系列8. 无需训练让LLM支持超长输入:知识库 & Unlimiformer & PCW & NBCE
nlp
prompt
自然语言处理
NLP 服务
这一章我们聊聊有哪些方案可以不用微调直接让大模型支持超长文本输入,注意这里主要针对无限输入场景。之前在BERT系列中我们就介绍过稀疏注意力和片段递归的一些长文本建模方案长文本建模 BigBird & Longformer & Reformer & Performer,不过以上方案无一例外都需要在训练阶段引入。针对当前大模型微调成本高的问题,更多研究放到如何在模型外部支持长文本输入。先讨论下为啥当前的大模型会在推理时存在输入长度的限制,主要有以下几点原因
风雨中的小七
2023-06-12
4.4K
0
解密prompt系列5. APE+SELF=自动化指令集构建代码实现
prompt
nlp
NLP 服务
上一章我们介绍了不同的指令微调方案, 这一章我们介绍如何降低指令数据集的人工标注成本!这样每个人都可以构建自己的专属指令集, 哈哈当然我也在造数据集进行时~
风雨中的小七
2023-04-09
2.6K
0
解密Prompt系列4. 升级Instruction Tuning:Flan/T0/InstructGPT/TKInstruct
nlp
NLP 服务
prompt
这一章我们聊聊指令微调,指令微调和前3章介绍的prompt有什么关系呢?哈哈只要你细品,你就会发现大家对prompt和instruction的定义存在些出入,部分认为instruction是prompt的子集,部分认为instruction是句子类型的prompt。
风雨中的小七
2023-03-24
18.6K
2
解密Prompt系列3. 冻结LM微调Prompt: Prefix-tuning & Prompt-tuning & P-tuning
NLP 服务
github
git
开源
这一章我们介绍在下游任务微调中固定LM参数,只微调Prompt的相关模型。这类模型的优势很直观就是微调的参数量小,能大幅降低LLM的微调参数量,是轻量级的微调替代品。和前两章微调LM和全部冻结的prompt模板相比,微调Prompt范式最大的区别就是prompt模板都是连续型(Embedding),而非和Token对应的离散型模板。核心在于我们并不关心prompt本身是否是自然语言,只关心prompt作为探针能否引导出预训练模型在下游任务上的特定能力。
风雨中的小七
2023-03-10
4.1K
0
解密Prompt系列1. Tunning-Free Prompt:GPT2 & GPT3 & LAMA & AutoPrompt
NLP 服务
借着ChatGPT的东风,我们来梳理下prompt范式的相关模型。本系列会以A Systematic Survey of Prompting Methods in Natural Language Processing这篇综述为基础,分门别类的整理下这几年比较有代表性的prompt模型。或许你还以其他形式看到过prompt概念,例如Demonstration,Instruction,In-Context learning,few-shot learning等等
风雨中的小七
2023-03-06
1K
0
解密Prompt系列2. 冻结Prompt微调LM: T5 & PET & LM-BFF
NLP 服务
这一章我们介绍固定prompt微调LM的相关模型,他们的特点都是针对不同的下游任务设计不同的prompt模板,在微调过程中固定模板对预训练模型进行微调。以下按时间顺序介绍,支持任意NLP任务的T5,针对文本分类的两篇PET和LM-BFF。
风雨中的小七
2023-02-24
1.9K
0
解密Prompt系列2. 冻结Prompt微调LM: T5 & PET & LM-BFF
NLP 服务
这一章我们介绍固定prompt微调LM的相关模型,他们的特点都是针对不同的下游任务设计不同的prompt模板,在微调过程中固定模板对预训练模型进行微调。以下按时间顺序介绍,支持任意NLP任务的T5,针对文本分类的两篇PET和LM-BFF。
风雨中的小七
2023-02-24
1.9K
0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档