腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度学习自然语言处理
专栏作者
举报
1009
文章
1167803
阅读量
160
订阅数
订阅专栏
申请加入专栏
全部文章
NLP 服务
深度学习
神经网络
机器学习
编程算法
模型
人工智能
https
数据
网络安全
论文
性能
其他
python
开源
linux
LLM
github
机器翻译
测试
腾讯云开发者社区
知识图谱
监督学习
批量计算
git
框架
强化学习
数据结构
pytorch
http
卷积神经网络
tcp/ip
css
系统
决策树
优化
图像处理
数据分析
ide
迁移学习
工作
大数据
nlp
设计
微信
chatgpt
token
基础
html
图像识别
学习方法
gpt
腾讯云测试服务
LoRa
云直播
游戏
编码
代理
函数
内存
数学
tensorflow
数据库
网站
推荐系统
无监督学习
机器人
工具
架构
算法
网络
sql
正则表达式
教育
agent
量化
视频
搜索
效率
语音识别
数据挖掘
go
node.js
apache
文件存储
缓存
processing
meta
word
区块链
bash
unix
医疗
nat
nest
data
embedding
function
openai
self
部署
排序
压缩
自然语言处理
java
.net
硬件开发
api
搜索引擎
bash 指令
电商
存储
分布式
shell
spark
gui
线性回归
keras
grep
安全
数据处理
windows
架构设计
迁移
联邦学习
ls
memory
model
prompt
翻译
华为
解决方案
苹果
索引
语法
人脸识别
官方文档
数字货币
自动驾驶
javascript
jquery ui
android
NAT 网关
大数据处理套件 TBDS
企业
自动化
爬虫
无人驾驶
numpy
信息流
云计算
对话机器人
特征工程
聚类算法
隐私计算
智能客服机器人
error
label
lstm
mean
network
object
sample
sequence
target
tree
变量
程序
服务
集合
技巧
路由
实践
统计
音频
费用中心
云点播
对象存储
负载均衡
腾讯云学堂
c 语言
c++
perl
lua
scala
r 语言
react
json
ajax
oracle
打包
matlab
中文分词
apt-get
mapreduce
黑石物理服务器
短视频
访问管理
SSL 证书
数据加密服务
文字识别
内容理解
金融
kubernetes
ssh
面向对象编程
opencv
unity
自动化测试
二叉树
单元测试
kernel
scikit-learn
模式识别
物联网
微服务
raft
云课堂
智能音乐
基础教育
alarm
analysis
apple
bat
behavior
bit
blender
branch
cat
chat
com
decode
distance
dst
encoding
entity
eval
fixed
google
graph
hidden
history
input
it
jupyter
kaggle
layer
lift
lisp
lm
marker
microsoft
modeling
models
next
pdf
perfect
pivot
plot
position
prediction
ps
random
state
table
tabular
text
title
torch
translation
twitter
video
vr
youtube
编程
表格
并发
程序设计
创业
动画
二维码
工程师
公众号
工作流
行业
集群
兼容性
接口
开发
开发者
科技
可视化
连接
漏洞
面试
配置
入门
事件
数据存储
数据科学
思维导图
通信
图表
协议
研发
异常
语音
重构
城市交通
搜索文章
搜索
搜索
关闭
最强MOE开源:Mixtral 8x22B 发布!
数学
效率
性能
开源
模型
权重地址:https://huggingface.co/mistral-community/Mixtral-8x22B-v0.1
zenRRan
2024-04-19
67
0
Meta无限长文本大模型来了:参数仅7B,已开源
模型
性能
开源
meta
架构
Transformers 的二次复杂度和弱长度外推限制了它们扩展到长序列的能力,虽然存在线性注意力和状态空间模型等次二次解决方案,但从以往的经验来看,它们在预训练效率和下游任务准确性方面表现不佳。
zenRRan
2024-04-19
46
0
《跨语言大模型》最新综述
数据
网站
开源
工作
模型
跨语言大模型(MLLMs)能够利用强大的大型语言模型处理和回应多种语言的查询,在多语言自然语言处理任务中取得了显著的成功。尽管取得了这些突破,但仍然缺乏一份全面的调查总结该领域现有方法和最新发展。因此,在本文中,我们进行了深入的综述,并提供了一个统一的视角,总结了多语言大型语言模型领域的最新进展和新兴趋势。本文的贡献可以总结如下:(1)首次综述:据我们所知,我们首次按照多语言对齐的方式对MLLMs研究领域进行了深入综述;(2)新分类法:我们提供了一个新的统一视角,总结了MLLMs的当前进展;(3)前沿与挑战:我们重点介绍了几个新兴领域并讨论了相应的挑战;(4)丰富资源:我们收集了丰富的开源资源,包括相关论文、数据语料库和排行榜。我们希望我们的工作能够推动MLLMs领域的突破性研究。
zenRRan
2024-04-19
38
0
对谷歌最新提出的Infini-transformer模型进行代码复现
开源
论文
模型
数据
优化
这篇文章主要内容为我个人对谷歌最新提出的Infini-transformer模型的个人见解,复现代码以及训练细节。
zenRRan
2024-04-18
63
0
每日论文速递 | DeepMind提出SAFE,用LLM Agent作为事实评估器
性能
LLM
agent
论文
模型
摘要:大语言模型(LLM)在回答开放式话题的事实搜索提示时,经常会生成包含事实错误的内容。为了对模型在开放域中的长式事实性进行基准测试,我们首先使用 GPT-4 生成了 LongFact,这是一个由跨越 38 个主题的数千个问题组成的提示集。然后,我们提出可以通过一种我们称之为 "搜索增强事实性评估器"(Search-Augmented Factuality Evaluator,SAFE)的方法,将 LLM 代理用作长式事实性的自动评估器。SAFE 利用 LLM 将长式回复分解为一组单独的事实,并通过一个多步骤推理过程来评估每个事实的准确性,该过程包括向谷歌搜索发送搜索查询,并确定搜索结果是否支持某个事实。此外,我们还建议将 F1 分数扩展为长表事实性的综合指标。为此,我们平衡了回复中支持事实的百分比(精确度)和所提供事实相对于代表用户首选回复长度的超参数的百分比(召回率)。根据经验,我们证明了 LLM 代理可以实现超人的评级性能--在一组约 16k 的单个事实上,SAFE 与众包人类注释者的一致率为 72%,而在 100 个分歧案例的随机子集上,SAFE 的胜率为 76%。同时,SAFE 的成本比人类注释者低 20 多倍。我们还在 LongFact 上对四个模型系列(Gemini、GPT、Claude 和 PaLM-2)的 13 个语言模型进行了基准测试,发现较大的语言模型通常能获得更好的长格式事实性。LongFact、SAFE 和所有实验代码开源。
zenRRan
2024-04-11
99
0
每日论文速递 | sDPO-不要一次就把对齐数据用完
论文
模型
数据
性能
优化
A:这篇论文试图解决的问题是如何在大型语言模型(LLMs)的训练过程中,更有效地与人类偏好对齐。具体来说,它提出了一种名为逐步直接偏好优化(stepwise Direct Preference Optimization,简称sDPO)的方法,用于改进现有的直接偏好优化(DPO)方法。这个方法通过分步使用可用的偏好数据集,而不是一次性使用全部数据,从而在DPO训练框架中使用更精确对齐的参考模型。通过这种方法,论文展示了如何训练出一个性能更佳的最终模型,甚至在某些情况下,其性能超过了参数更多的其他流行的大型语言模型。
zenRRan
2024-04-11
134
0
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免
gpt
漏洞
论文
模型
安全
刚刚,人工智能初创公司 Anthropic 宣布了一种「越狱」技术(Many-shot Jailbreaking)—— 这种技术可以用来逃避大型语言模型(LLM)开发人员设置的安全护栏。
zenRRan
2024-04-11
135
0
每日论文速递 | RLRF: 从反思反馈中不断迭代进行强化学习对齐
强化学习
框架
论文
模型
性能
摘要:尽管 RLHF 在使 LLM 与人类偏好相一致方面大有可为,但它往往会导致表面上的一致,优先考虑风格上的变化,而不是改善 LLM 的下游性能。不明确的偏好可能会模糊调整模型的方向。缺乏探索会限制识别理想输出以改进模型。为了克服这些挑战,我们提出了一个新颖的框架:从反思反馈中强化学习Reinforcement Learning from Reflective Feedback (RLRF),它利用基于详细标准的细粒度反馈来提高 LLM 的核心能力。RLRF 采用自我反思机制来系统地探索和完善 LLM 的反应,然后通过 RL 算法对模型进行微调,同时对有前途的反应进行微调。我们在 "公正-评价"、"事实性 "和 "数学推理 "方面的实验证明,RLRF 的功效和变革潜力超出了表面的调整。
zenRRan
2024-04-11
148
0
每日论文速递 | 一次编码平行解码:高效Transformer解码
编码
论文
模型
效率
性能
摘要:基于Transformer的 NLP 模型功能强大,但计算成本较高,限制了应用场景。经过微调的编码器-解码器模型在专业领域很受欢迎,其性能优于 GPT-4 等大型通用解码器模型。我们为编码器-解码器模型引入了一种新的配置,它能提高结构化输出和问题解答任务的效率,在这些任务中,一个输入需要多个输出。我们的方法,即提示中解码器(PiD),对输入进行一次编码,对输出进行并行解码,通过避免重复输入编码来提高训练和推理效率,从而减少解码器的内存占用。在对话状态跟踪、总结和问题解答任务方面,我们实现了与子任务数量大致成比例的计算量减少,与性能相当或更好的一流模型相比,速度提高了 4.6 倍。
zenRRan
2024-04-11
109
0
每日论文速递 | NAACL'24:自生成翻译记忆缓解翻译持续学习遗忘问题
系统
性能
翻译
论文
模型
摘要:现代神经机器翻译系统在几种不同的语言中表现出强劲的性能,并在不断改进。然而,它们的持续学习能力仍然受到灾难性遗忘问题的严重限制。在这项工作中,我们利用encoder-decoder transformer的一个关键特性,即它们的生成能力,提出了一种持续学习神经机器翻译系统的新方法。我们展示了如何利用重放记忆,将模型本身作为并行句子的生成器,从而有效地学习由不同语言组成的经验流。我们通过实证证明,我们的方法可以抵消灾难性遗忘,而无需明确记忆训练数据。代码将在发表后公开。
zenRRan
2024-04-11
77
0
首个符号大模型!Symbol- LLM:探索自然语言与符号之间的能力平衡
LLM
测试
工作
模型
数据
当前,大型语言模型 (Large Language Model, LLM) 大多强调以自然语言 (Natural Language, NL)为媒介进行交互、推理以及反馈修正。然而,LLM对符号语言的处理能力如何?如何增强LLM的符号交互能力? Symbol-LLM这项目工作给出了答案,并开源了涵盖超20种符号类型的训练数据集,以及统一符号的开源基座大模型 (7B/13B)
zenRRan
2024-04-11
120
0
LA-Light:大语言模型开始接管城市交通了
城市交通
框架
模型
设计
数据
LA-Light框架将大型语言模型用于改善城市交通管理,城市交通管理的难度在于这是一个动态而复杂决策机制。
zenRRan
2024-04-11
103
0
每日论文速递 | InsCL: Data-efficient 持续指令学习
论文
模型
数据
性能
data
摘要:Instruction tuning 可有效优化大型语言模型(LLM),使其适用于下游任务。由于实际应用中的环境不断变化,LLMs 需要在不发生灾难性遗忘的情况下,针对特定任务进行持续适应。考虑到沉重的计算成本,基于重放的持续学习(CL)方法是解决遗忘问题的最简单、最广泛的 LLM 方法。然而,传统的基于重放的方法不能充分利用指令来定制重放策略。在这项工作中,我们提出了一种名为基于指令的持续学习(InsCL)的新模式。InsCL 基于任务相似性动态重放之前的数据,任务相似性由带有指令的 Wasserstein Distance 计算得出。此外,我们还进一步引入了指令信息度量(InsInfo)来量化指令的复杂性和多样性。根据 InsInfo,InsCL 引导重放过程更倾向于高质量数据。我们在 16 个任务中以不同的训练顺序进行了大量实验,观察到 InsCL 在性能上的持续改进。当所有任务都训练完毕后,InsCL 与随机重放相比实现了 3.0 的相对性能增益,与无重放相比实现了 27.96 的相对性能增益。
zenRRan
2024-04-11
61
0
每日论文速递 | BiLoRA: 基于双极优化消除LoRA过拟合
论文
模型
数据
优化
LoRa
摘要:低秩适应(LoRA)是在下游任务中通过学习低秩增量矩阵对大规模预训练模型进行微调的一种流行方法。虽然与完全微调方法相比,LoRA 及其变体能有效减少可训练参数的数量,但它们经常会对训练数据进行过拟合,导致测试数据的泛化效果不理想。为了解决这个问题,我们引入了 BiLoRA,这是一种基于双级优化(BLO)的消除过拟合的微调方法。BiLoRA 采用伪奇异值分解来参数化低秩增量矩阵,并将伪奇异向量和伪奇异值的训练分成两个不同的训练数据子集。这种分割嵌入了 BLO 框架的不同层次,降低了对单一数据集过度拟合的风险。BiLoRA 在涵盖自然语言理解和生成任务的十个数据集上进行了测试,并应用于各种著名的大型预训练模型,在可训练参数数量相似的情况下,BiLoRA 明显优于 LoRA 方法和其他微调方法。
zenRRan
2024-04-11
204
0
每日论文速递 | [COLING'24] 探索数据多样性对LLM对齐的影响
论文
模型
数据
性能
LLM
摘要:与人类偏好对齐可以防止大型语言模型(LLMs)产生误导性或有毒内容,但同时需要高成本的人类反馈。假设人工标注的资源有限,可以考虑两种不同的分配方式:标注更多样化的 "指令"(PROMPTS)或更多样化的 "回应"(RESPONSES)。然而,这两种方式的影响还没有直接的比较。在这项工作中,我们首先根据样本数量控制双方的多样性,以便进行微调,这可以直接反映出它们的影响。我们发现,对于人类对齐而言,更多的response和更少的提示反而能更好地触发 LLM。此外,提示语多样性的概念可能比通常以个位数量化的回答更为复杂。因此,我们提出了一种新的提示多样性表述方式,进一步揭示了微调后 LLM 的最终性能与提示多样性呈线性相关。我们还将其用于数据增强,并通过实验展示其对不同算法的影响。
zenRRan
2024-04-11
133
0
每日论文速递 | ReAct Meets ActRe: Agent规划自主解释
react
agent
代理
框架
论文
摘要:语言代理通过对基础模型进行推理,展示了自主决策能力。最近,人们开始利用多步骤推理和行动轨迹作为训练数据,努力训练语言代理以提高其性能。然而,收集这些轨迹仍然需要大量人力,要么需要人工注释,要么需要实现各种提示框架。在这项工作中,我们提出了 A
zenRRan
2024-04-11
135
0
6行代码,1行命令!轻松实现多模态(视觉)模型离线推理&在线服务
配置
服务
接口
模型
内存
早在去年年底,LMDeploy 已经悄悄地支持了多模态(视觉)模型(下文简称 VLM)推理,只不过它静静地躺在仓库的 examples/vl 角落里,未曾与大家正式照面。
zenRRan
2024-04-11
103
0
自然语言生成中的解码方法汇总
token
函数
基础
模型
搜索
原文链接:https://zhuanlan.zhihu.com/p/688442704
zenRRan
2024-04-11
68
0
每日论文速递 | UCB提出RAFT-检索增强微调训练方法
性能
raft
论文
模型
数据
摘要:在大型文本数据集上预训练大型语言模型(LLM)现已成为一种标准模式。在许多下游应用中使用这些 LLM 时,通常会通过基于 RAG 的提示或微调将新知识(如时间关键新闻或私人领域知识)添加到预训练模型中。然而,模型获取此类新知识的最佳方法仍是一个未决问题。在本文中,我们提出了检索增强微调法Retrieval Augmented FineTuning(RAFT),这是一种训练方法,可提高模型在 "开卷 "领域设置中回答问题的能力。在 RAFT 中,给定一个问题和一组检索到的文档,我们训练模型忽略那些无助于回答问题的文档,我们称之为干扰文档。RAFT 通过逐字引用相关文档中有助于回答问题的正确序列来实现这一点。这与 RAFT 的思维链式响应相结合,有助于提高模型的推理能力。在特定领域的 RAG 中,RAFT 持续提高了模型在 PubMed、HotpotQA 和 Gorilla 数据集上的性能,为改进预训练 LLM 的域内 RAG 提供了一个后训练配方。RAFT 的代码和演示已开源。
zenRRan
2024-04-11
196
0
每日论文速递 | 【COLING'24】通过一致性对齐提高LLM回答鲁棒性
优化
LLM
框架
论文
模型
摘要:大型语言模型(LLM)在遵循用户指令并生成有用的响应方面取得了巨大成功。然而,它们的鲁棒性还远未达到最佳状态,因为它们可能会因为口头指令的细微变化而生成明显不一致的响应。最近有文献探讨了这一不一致性问题,强调了持续改进应答生成鲁棒性的重要性。然而,目前仍缺乏系统的分析和解决方案。在本文中,我们对不一致性问题进行了定量定义,并提出了一个由指令增强监督微调和一致性对齐训练组成的两阶段训练框架。第一阶段通过类似指令增强帮助模型泛化后续指令。在第二阶段,我们通过区分类似反应中的细微差别来提高多样性,并帮助模型理解哪些反应更符合人类的期望。训练过程由第一阶段训练好的模型推断出的自我奖励完成,无需参考外部的人类偏好资源。我们在最近公开发布的 LLM 上就指令遵循任务进行了大量实验,证明了我们的训练框架的有效性。
zenRRan
2024-04-11
115
0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档