腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度学习自然语言处理
专栏作者
举报
1012
文章
1189635
阅读量
161
订阅数
订阅专栏
申请加入专栏
全部文章(999+)
NLP 服务(293)
深度学习(232)
神经网络(221)
机器学习(206)
编程算法(181)
模型(168)
人工智能(134)
https(122)
数据(115)
网络安全(96)
性能(76)
论文(74)
其他(60)
python(43)
开源(41)
LLM(37)
linux(36)
github(34)
机器翻译(32)
测试(32)
腾讯云开发者社区(31)
知识图谱(29)
监督学习(28)
批量计算(26)
git(24)
框架(24)
强化学习(23)
数据结构(23)
pytorch(20)
http(19)
卷积神经网络(19)
tcp/ip(19)
系统(19)
css(18)
决策树(17)
优化(17)
图像处理(15)
数据分析(15)
ide(14)
迁移学习(14)
工作(14)
大数据(13)
nlp(13)
设计(13)
微信(11)
chatgpt(11)
token(11)
基础(11)
html(10)
图像识别(10)
学习方法(10)
gpt(10)
腾讯云测试服务(9)
内存(9)
LoRa(9)
云直播(8)
游戏(8)
编码(8)
代理(8)
函数(8)
架构(8)
数学(8)
算法(8)
tensorflow(7)
数据库(7)
网站(7)
推荐系统(7)
无监督学习(7)
机器人(7)
工具(7)
网络(7)
sql(6)
正则表达式(6)
教育(6)
agent(6)
量化(6)
视频(6)
搜索(6)
效率(6)
语音识别(5)
数据挖掘(5)
go(5)
node.js(5)
apache(5)
文件存储(5)
缓存(5)
processing(5)
meta(5)
openai(5)
word(5)
区块链(4)
bash(4)
unix(4)
医疗(4)
nat(4)
nest(4)
data(4)
embedding(4)
function(4)
self(4)
部署(4)
排序(4)
压缩(4)
自然语言处理(4)
java(3)
.net(3)
硬件开发(3)
api(3)
搜索引擎(3)
bash 指令(3)
电商(3)
存储(3)
分布式(3)
shell(3)
spark(3)
gui(3)
线性回归(3)
keras(3)
grep(3)
安全(3)
数据处理(3)
windows(3)
架构设计(3)
迁移(3)
联邦学习(3)
ls(3)
memory(3)
model(3)
prompt(3)
翻译(3)
华为(3)
解决方案(3)
苹果(3)
索引(3)
语法(3)
人脸识别(2)
官方文档(2)
数字货币(2)
自动驾驶(2)
javascript(2)
jquery ui(2)
android(2)
NAT 网关(2)
大数据处理套件 TBDS(2)
企业(2)
自动化(2)
爬虫(2)
无人驾驶(2)
numpy(2)
信息流(2)
云计算(2)
对话机器人(2)
特征工程(2)
聚类算法(2)
隐私计算(2)
智能客服机器人(2)
error(2)
label(2)
lstm(2)
mean(2)
network(2)
object(2)
sample(2)
sequence(2)
target(2)
tree(2)
变量(2)
程序(2)
服务(2)
集合(2)
技巧(2)
路由(2)
实践(2)
统计(2)
音频(2)
费用中心(1)
云点播(1)
对象存储(1)
负载均衡(1)
腾讯云学堂(1)
c 语言(1)
c++(1)
perl(1)
lua(1)
scala(1)
r 语言(1)
react(1)
json(1)
ajax(1)
oracle(1)
打包(1)
matlab(1)
中文分词(1)
apt-get(1)
mapreduce(1)
黑石物理服务器(1)
短视频(1)
访问管理(1)
SSL 证书(1)
数据加密服务(1)
文字识别(1)
内容理解(1)
金融(1)
kubernetes(1)
ssh(1)
面向对象编程(1)
opencv(1)
unity(1)
自动化测试(1)
二叉树(1)
单元测试(1)
kernel(1)
scikit-learn(1)
模式识别(1)
物联网(1)
微服务(1)
raft(1)
云课堂(1)
智能音乐(1)
基础教育(1)
alarm(1)
analysis(1)
apple(1)
bat(1)
behavior(1)
bit(1)
blender(1)
branch(1)
cat(1)
chat(1)
com(1)
decode(1)
distance(1)
dst(1)
encoding(1)
entity(1)
eval(1)
fixed(1)
google(1)
graph(1)
hidden(1)
history(1)
input(1)
it(1)
jupyter(1)
kaggle(1)
layer(1)
lift(1)
lisp(1)
lm(1)
marker(1)
microsoft(1)
modeling(1)
models(1)
next(1)
pdf(1)
perfect(1)
pivot(1)
plot(1)
position(1)
prediction(1)
ps(1)
random(1)
state(1)
table(1)
tabular(1)
text(1)
title(1)
torch(1)
translation(1)
twitter(1)
video(1)
vr(1)
youtube(1)
编程(1)
表格(1)
并发(1)
程序设计(1)
创业(1)
动画(1)
二维码(1)
工程师(1)
公众号(1)
工作流(1)
行业(1)
集群(1)
兼容性(1)
接口(1)
开发(1)
开发者(1)
科技(1)
可视化(1)
连接(1)
漏洞(1)
面试(1)
配置(1)
入门(1)
事件(1)
数据存储(1)
数据科学(1)
思维导图(1)
通信(1)
图表(1)
协议(1)
研发(1)
异常(1)
语音(1)
重构(1)
城市交通(1)
搜索文章
搜索
搜索
关闭
OpenAI最新研究——利用指令层次结构应对LLM攻击
openai
模型
数据
系统
LLM
今天要给大家介绍一篇OpenAI的在今年4月19日发表的一篇研究,该研究提出了一种指令层次结构(instruction hierarchy),以减少LLM被攻击的风险,提高模型的鲁棒性。
zenRRan
2024-04-30
132
0
Bert类模型也具备指令遵循能力吗?
模型
数据
算法
性能
架构
BERT模型,依托Transformer架构及其大规模预训练,为自然语言处理领域带来了深远的影响。BERT模型架构包含多层双向Transformer编码器,通过这种结构,BERT及其家族成员,如RoBERTa、ELECTRA、DeBERTa和XLM-R,能够深入学习并理解语言的上下文,尤其在自然语言理解任务上表现卓越。
zenRRan
2024-04-30
105
0
LLM能否依据角色的过去预测未来?一篇有趣的研究
LLM
模型
内存
数据
性能
你是否想过,如果有一天,当你面临人生重大抉择时,有一个AI助手能够为你提供决策甚至能帮你做出决定?
zenRRan
2024-04-25
105
0
最强MOE开源:Mixtral 8x22B 发布!
数学
效率
性能
开源
模型
权重地址:https://huggingface.co/mistral-community/Mixtral-8x22B-v0.1
zenRRan
2024-04-19
335
0
Meta无限长文本大模型来了:参数仅7B,已开源
模型
性能
开源
meta
架构
Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案,但从以往的经验来看,它们在预训练效率和下游任务准确性方面表现不佳。
zenRRan
2024-04-19
88
0
《跨语言大模型》最新综述
数据
网站
开源
工作
模型
跨语言大模型(MLLMs)能够利用强大的大型语言模型处理和回应多种语言的查询,在多语言自然语言处理任务中取得了显著的成功。尽管取得了这些突破,但仍然缺乏一份全面的调查总结该领域现有方法和最新发展。因此,在本文中,我们进行了深入的综述,并提供了一个统一的视角,总结了多语言大型语言模型领域的最新进展和新兴趋势。本文的贡献可以总结如下:(1)首次综述:据我们所知,我们首次按照多语言对齐的方式对MLLMs研究领域进行了深入综述;(2)新分类法:我们提供了一个新的统一视角,总结了MLLMs的当前进展;(3)前沿与挑战:我们重点介绍了几个新兴领域并讨论了相应的挑战;(4)丰富资源:我们收集了丰富的开源资源,包括相关论文、数据语料库和排行榜。我们希望我们的工作能够推动MLLMs领域的突破性研究。
zenRRan
2024-04-19
119
0
对谷歌最新提出的Infini-transformer模型进行代码复现
开源
论文
模型
数据
优化
这篇文章主要内容为我个人对谷歌最新提出的Infini-transformer模型的个人见解,复现代码以及训练细节。
zenRRan
2024-04-18
162
0
每日论文速递 | DeepMind提出SAFE,用LLM Agent作为事实评估器
性能
LLM
agent
论文
模型
摘要:大语言模型(LLM)在回答开放式话题的事实搜索提示时,经常会生成包含事实错误的内容。为了对模型在开放域中的长式事实性进行基准测试,我们首先使用 GPT-4 生成了 LongFact,这是一个由跨越 38 个主题的数千个问题组成的提示集。然后,我们提出可以通过一种我们称之为 "搜索增强事实性评估器"(Search-Augmented Factuality Evaluator,SAFE)的方法,将 LLM 代理用作长式事实性的自动评估器。SAFE 利用 LLM 将长式回复分解为一组单独的事实,并通过一个多步骤推理过程来评估每个事实的准确性,该过程包括向谷歌搜索发送搜索查询,并确定搜索结果是否支持某个事实。此外,我们还建议将 F1 分数扩展为长表事实性的综合指标。为此,我们平衡了回复中支持事实的百分比(精确度)和所提供事实相对于代表用户首选回复长度的超参数的百分比(召回率)。根据经验,我们证明了 LLM 代理可以实现超人的评级性能--在一组约 16k 的单个事实上,SAFE 与众包人类注释者的一致率为 72%,而在 100 个分歧案例的随机子集上,SAFE 的胜率为 76%。同时,SAFE 的成本比人类注释者低 20 多倍。我们还在 LongFact 上对四个模型系列(Gemini、GPT、Claude 和 PaLM-2)的 13 个语言模型进行了基准测试,发现较大的语言模型通常能获得更好的长格式事实性。LongFact、SAFE 和所有实验代码开源。
zenRRan
2024-04-11
116
0
每日论文速递 | sDPO-不要一次就把对齐数据用完
论文
模型
数据
性能
优化
A:这篇论文试图解决的问题是如何在大型语言模型(LLMs)的训练过程中,更有效地与人类偏好对齐。具体来说,它提出了一种名为逐步直接偏好优化(stepwise Direct Preference Optimization,简称sDPO)的方法,用于改进现有的直接偏好优化(DPO)方法。这个方法通过分步使用可用的偏好数据集,而不是一次性使用全部数据,从而在DPO训练框架中使用更精确对齐的参考模型。通过这种方法,论文展示了如何训练出一个性能更佳的最终模型,甚至在某些情况下,其性能超过了参数更多的其他流行的大型语言模型。
zenRRan
2024-04-11
194
0
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免
gpt
漏洞
论文
模型
安全
刚刚,人工智能初创公司 Anthropic 宣布了一种「越狱」技术(Many-shot Jailbreaking)—— 这种技术可以用来逃避大型语言模型(LLM)开发人员设置的安全护栏。
zenRRan
2024-04-11
160
0
每日论文速递 | RLRF: 从反思反馈中不断迭代进行强化学习对齐
强化学习
框架
论文
模型
性能
摘要:尽管 RLHF 在使 LLM 与人类偏好相一致方面大有可为,但它往往会导致表面上的一致,优先考虑风格上的变化,而不是改善 LLM 的下游性能。不明确的偏好可能会模糊调整模型的方向。缺乏探索会限制识别理想输出以改进模型。为了克服这些挑战,我们提出了一个新颖的框架:从反思反馈中强化学习Reinforcement Learning from Reflective Feedback (RLRF),它利用基于详细标准的细粒度反馈来提高 LLM 的核心能力。RLRF 采用自我反思机制来系统地探索和完善 LLM 的反应,然后通过 RL 算法对模型进行微调,同时对有前途的反应进行微调。我们在 "公正-评价"、"事实性 "和 "数学推理 "方面的实验证明,RLRF 的功效和变革潜力超出了表面的调整。
zenRRan
2024-04-11
181
0
每日论文速递 | 一次编码平行解码:高效Transformer解码
编码
论文
模型
效率
性能
摘要:基于Transformer的 NLP 模型功能强大,但计算成本较高,限制了应用场景。经过微调的编码器-解码器模型在专业领域很受欢迎,其性能优于 GPT-4 等大型通用解码器模型。我们为编码器-解码器模型引入了一种新的配置,它能提高结构化输出和问题解答任务的效率,在这些任务中,一个输入需要多个输出。我们的方法,即提示中解码器(PiD),对输入进行一次编码,对输出进行并行解码,通过避免重复输入编码来提高训练和推理效率,从而减少解码器的内存占用。在对话状态跟踪、总结和问题解答任务方面,我们实现了与子任务数量大致成比例的计算量减少,与性能相当或更好的一流模型相比,速度提高了 4.6 倍。
zenRRan
2024-04-11
121
0
每日论文速递 | NAACL'24:自生成翻译记忆缓解翻译持续学习遗忘问题
系统
性能
翻译
论文
模型
摘要:现代神经机器翻译系统在几种不同的语言中表现出强劲的性能,并在不断改进。然而,它们的持续学习能力仍然受到灾难性遗忘问题的严重限制。在这项工作中,我们利用encoder-decoder transformer的一个关键特性,即它们的生成能力,提出了一种持续学习神经机器翻译系统的新方法。我们展示了如何利用重放记忆,将模型本身作为并行句子的生成器,从而有效地学习由不同语言组成的经验流。我们通过实证证明,我们的方法可以抵消灾难性遗忘,而无需明确记忆训练数据。代码将在发表后公开。
zenRRan
2024-04-11
87
0
首个符号大模型!Symbol- LLM:探索自然语言与符号之间的能力平衡
LLM
测试
工作
模型
数据
当前,大型语言模型 (Large Language Model, LLM) 大多强调以自然语言 (Natural Language, NL)为媒介进行交互、推理以及反馈修正。然而,LLM对符号语言的处理能力如何?如何增强LLM的符号交互能力? Symbol-LLM这项目工作给出了答案,并开源了涵盖超20种符号类型的训练数据集,以及统一符号的开源基座大模型 (7B/13B)
zenRRan
2024-04-11
160
0
LA-Light:大语言模型开始接管城市交通了
城市交通
框架
模型
设计
数据
LA-Light框架将大型语言模型用于改善城市交通管理,城市交通管理的难度在于这是一个动态而复杂决策机制。
zenRRan
2024-04-11
114
0
每日论文速递 | InsCL: Data-efficient 持续指令学习
论文
模型
数据
性能
data
摘要:Instruction tuning 可有效优化大型语言模型(LLM),使其适用于下游任务。由于实际应用中的环境不断变化,LLMs 需要在不发生灾难性遗忘的情况下,针对特定任务进行持续适应。考虑到沉重的计算成本,基于重放的持续学习(CL)方法是解决遗忘问题的最简单、最广泛的 LLM 方法。然而,传统的基于重放的方法不能充分利用指令来定制重放策略。在这项工作中,我们提出了一种名为基于指令的持续学习(InsCL)的新模式。InsCL 基于任务相似性动态重放之前的数据,任务相似性由带有指令的 Wasserstein Distance 计算得出。此外,我们还进一步引入了指令信息度量(InsInfo)来量化指令的复杂性和多样性。根据 InsInfo,InsCL 引导重放过程更倾向于高质量数据。我们在 16 个任务中以不同的训练顺序进行了大量实验,观察到 InsCL 在性能上的持续改进。当所有任务都训练完毕后,InsCL 与随机重放相比实现了 3.0 的相对性能增益,与无重放相比实现了 27.96 的相对性能增益。
zenRRan
2024-04-11
103
0
每日论文速递 | BiLoRA: 基于双极优化消除LoRA过拟合
论文
模型
数据
优化
LoRa
摘要:低秩适应(LoRA)是在下游任务中通过学习低秩增量矩阵对大规模预训练模型进行微调的一种流行方法。虽然与完全微调方法相比,LoRA 及其变体能有效减少可训练参数的数量,但它们经常会对训练数据进行过拟合,导致测试数据的泛化效果不理想。为了解决这个问题,我们引入了 BiLoRA,这是一种基于双级优化(BLO)的消除过拟合的微调方法。BiLoRA 采用伪奇异值分解来参数化低秩增量矩阵,并将伪奇异向量和伪奇异值的训练分成两个不同的训练数据子集。这种分割嵌入了 BLO 框架的不同层次,降低了对单一数据集过度拟合的风险。BiLoRA 在涵盖自然语言理解和生成任务的十个数据集上进行了测试,并应用于各种著名的大型预训练模型,在可训练参数数量相似的情况下,BiLoRA 明显优于 LoRA 方法和其他微调方法。
zenRRan
2024-04-11
224
0
每日论文速递 | [COLING'24] 探索数据多样性对LLM对齐的影响
论文
模型
数据
性能
LLM
摘要:与人类偏好对齐可以防止大型语言模型(LLMs)产生误导性或有毒内容,但同时需要高成本的人类反馈。假设人工标注的资源有限,可以考虑两种不同的分配方式:标注更多样化的 "指令"(PROMPTS)或更多样化的 "回应"(RESPONSES)。然而,这两种方式的影响还没有直接的比较。在这项工作中,我们首先根据样本数量控制双方的多样性,以便进行微调,这可以直接反映出它们的影响。我们发现,对于人类对齐而言,更多的response和更少的提示反而能更好地触发 LLM。此外,提示语多样性的概念可能比通常以个位数量化的回答更为复杂。因此,我们提出了一种新的提示多样性表述方式,进一步揭示了微调后 LLM 的最终性能与提示多样性呈线性相关。我们还将其用于数据增强,并通过实验展示其对不同算法的影响。
zenRRan
2024-04-11
148
0
每日论文速递 | ReAct Meets ActRe: Agent规划自主解释
react
agent
代理
框架
论文
摘要:语言代理通过对基础模型进行推理,展示了自主决策能力。最近,人们开始利用多步骤推理和行动轨迹作为训练数据,努力训练语言代理以提高其性能。然而,收集这些轨迹仍然需要大量人力,要么需要人工注释,要么需要实现各种提示框架。在这项工作中,我们提出了 A
zenRRan
2024-04-11
153
0
6行代码,1行命令!轻松实现多模态(视觉)模型离线推理&在线服务
配置
服务
接口
模型
内存
早在去年年底,LMDeploy 已经悄悄地支持了多模态(视觉)模型(下文简称 VLM)推理,只不过它静静地躺在仓库的 examples/vl 角落里,未曾与大家正式照面。
zenRRan
2024-04-11
115
0
点击加载更多
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战,赢鹅厂证书、公仔好礼!
立即学习
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档