腾讯云
开发者社区
文档
意见反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度学习自然语言处理
专栏作者
举报
922
文章
1009297
阅读量
156
订阅数
订阅专栏
申请加入专栏
全部文章
NLP 服务
深度学习
神经网络
机器学习
编程算法
人工智能
https
网络安全
模型
数据
其他
python
性能
linux
github
机器翻译
腾讯云开发者社区
知识图谱
开源
监督学习
批量计算
git
数据结构
测试
pytorch
http
卷积神经网络
tcp/ip
LLM
css
强化学习
决策树
论文
图像处理
数据分析
ide
迁移学习
大数据
nlp
系统
微信
框架
html
图像识别
学习方法
chatgpt
工作
腾讯云测试服务
设计
云直播
gpt
tensorflow
数据库
推荐系统
无监督学习
基础
sql
网站
正则表达式
token
工具
语音识别
数据挖掘
go
node.js
apache
文件存储
游戏
缓存
机器人
processing
word
视频
区块链
bash
unix
医疗
nat
nest
教育
function
编码
架构
数学
网络
效率
java
.net
硬件开发
api
搜索引擎
bash 指令
电商
存储
分布式
shell
spark
gui
线性回归
keras
grep
数据处理
windows
架构设计
迁移
联邦学习
data
embedding
ls
prompt
self
部署
代理
函数
解决方案
内存
排序
搜索
算法
优化
语法
自然语言处理
LoRa
人脸识别
官方文档
数字货币
自动驾驶
javascript
jquery ui
android
NAT 网关
大数据处理套件 TBDS
企业
自动化
爬虫
无人驾驶
numpy
安全
信息流
云计算
对话机器人
特征工程
聚类算法
隐私计算
智能客服机器人
error
label
lstm
mean
meta
model
network
object
openai
sample
sequence
target
tree
程序
华为
技巧
量化
苹果
统计
音频
费用中心
云点播
对象存储
负载均衡
腾讯云学堂
c 语言
c++
lua
scala
r 语言
json
ajax
oracle
打包
matlab
中文分词
apt-get
mapreduce
黑石物理服务器
短视频
访问管理
SSL 证书
数据加密服务
文字识别
内容理解
金融
kubernetes
ssh
面向对象编程
opencv
unity
自动化测试
二叉树
单元测试
kernel
scikit-learn
模式识别
物联网
微服务
云课堂
智能音乐
基础教育
agent
analysis
apple
bat
blender
cat
com
distance
dst
encoding
entity
fixed
graph
hidden
history
input
it
jupyter
kaggle
layer
lift
lisp
lm
marker
memory
microsoft
modeling
pdf
perfect
plot
position
ps
random
state
table
text
title
translation
twitter
video
vr
youtube
变量
并发
程序设计
创业
动画
二维码
翻译
工程师
公众号
工作流
行业
集合
集群
开发者
科技
可视化
连接
面试
实践
事件
数据科学
思维导图
索引
图表
协议
压缩
研发
搜索文章
搜索
搜索
关闭
从Karpathey那里获得灵感,推特上这位工程师居然可视化了GPT的工作流程!
gpt
动画
工程师
工作流
可视化
OpenAI创始人之一的Karpathy之前曾亲自下场教大家如何动手学习搭建一个小号的GPT模型--minGPT。而最近,推特上一位叫做Brendan Bycroft的工程师从Karpathy那里汲取到了灵感,居然将GPT在推理时候的数学过程进行了可视化(以下简称LLM-viz),还做成了可以交互的网站(https://bbycroft.net/llm)!任何人都可以轻松地跟随动画和一旁的讲解,学习到GPT内部的工作原理。
zenRRan
2023-12-05
72
0
探索无监督域自适应,释放语言模型的力量:基于检索增强的情境学习实现知识迁移
迁移
框架
模型
数据
性能
在自然语言处理(NLP)领域,如何有效地进行无监督域自适应(Unsupervised Domain Adaptation, UDA) 一直是研究的热点和挑战。无监督域自适应的目标是在目标域无标签的情况下,将源域的知识迁移到目标域,以提高模型在新领域的泛化能力。近年来,随着大规模预训练语言模型的出现,情境学习(In-Context Learning) 作为一种新兴的学习方法,已经在各种NLP任务中取得了显著的成果。然而,在实际应用场景中,我们经常面临一个问题:源领域的演示数据并不总是一目了然。这就导致了需要进行跨领域的上下文学习的问题。此外,LLMs在未知和陌生领域中仍然面临着一些挑战,尤其是在长尾知识方面。同时在无监督域自适应任务中,如何充分利用情境学习的优势进行知识迁移仍然是一个开放性问题。
zenRRan
2023-12-05
152
0
ChatGPT一周岁啦!开源LLMs正在紧紧追赶吗?
开源
chatgpt
模型
数据
性能
自2022年底ChatGPT发布以来,其已经在人工智能的整个领域带来了翻天覆地的变化。通过对大型语言模型(LLM)进行指令微调,并从人类反馈中进行监督微调和强化学习,表明模型可以回答人类问题并在广泛的任务中遵循指令。在这一成功之后,对LLM的研究兴趣增强了,新的LLM在学术界和工业界频繁蓬勃发展。虽然非开源LLM(例如,OpenAI的GPT, Anthropic的Claude)通常优于它们的开源同行,但后者的进展很快。这对研究和商业都有至关重要的影响。在ChatGPT成立一周年之际,本文对这类LLMs进行了详尽的介绍。
zenRRan
2023-12-05
72
0
大模型会输出隐式有害内容?听听清华大学研究人员怎么说!
强化学习
安全
工作
模型
数据
清华大学最新发布了一篇关于大模型安全的论文,不同于以往大部分专注于挖掘大模型可能输出的显式有害内容的工作。这篇论文将目光投向了研究更少,更难被检测到的隐式有害内容。
zenRRan
2023-12-05
123
0
LLM来模拟世界大战,会发生什么?
代理
事件
系统
协议
LLM
战争与和平一直是塑造人类历史的重要元素。最近的一项研究聚焦于用LLMs模拟国际冲突,特别是第一次世界大战、第二次世界大战以及中国古代的战国时期。通过这些历史事件的详细模拟,研究团队探索了国际关系动态和触发战争的关键因素。
zenRRan
2023-12-04
118
0
Q-Learning 在 Agent 的应用
agent
工具
模型
搜索
网络
OpenAI 宫斗告一段落,现在到处都在猜 Q* 是什么。本文没有 Q* 的新料,但是会探讨一下 Q-Learning 在 Agent 方面的可能应用。
zenRRan
2023-12-04
100
0
先遗忘后学习:基于参数计算的大模型知识更新
基础
模型
数据
性能
LoRa
最近,大型语言模型(LLMs)展示了其令人惊叹的文本理解和生成能力。然而,即使是更为强大的LLMs,仍有可能从训练语料库中学到不正确的知识,以及随时间而过时的知识。直接使用包含新知识的数据进行二次微调可能在更新知识时效果不佳,因为新旧知识之间存在冲突。在本文中,我们提出了一种新的微调范式,被称为F-Learning(先遗忘后学习),它基于参数计算,实现对旧知识的遗忘和对新知识的学习。在两个公开可用的数据集上的实验证明,我们提出的F-Learning显著改善了全量微调和LoRA微调的知识更新性能。此外,我们还发现,通过减去LoRA的参数来遗忘旧知识可以达到与减去全量微调参数相似的效果,有时甚至可以显著超越它。
zenRRan
2023-12-04
75
0
武侠小说视角:大模型对话系统的内功与外功
工作
论文
模型
数据
系统
内功和外功,作为诸多武侠小说的两大流派,有着诸多区别。内功主要是内力,外功主要是拳脚功夫,如熟知的降龙十八掌就是外家的顶峰功夫,任何武功若想发挥最大的威力都离不开内功的精深。内功是道,外功是术,道术结合,东方不败。作为一个业余的武侠小说爱好者和刚入门的科研爱好者,这次从内功和外功的两个角度出发,介绍我们我们组在 EMNLP 2023 中的两个工作,如有不当之处,敬请原谅:
zenRRan
2023-12-04
97
0
Long-Context下LLM模型架构全面介绍
缓存
架构
模型
内存
LLM
随着ChatGPT的快速发展,基于Transformer的大型语言模型(LLM)为人工通用智能(AGI)铺平了一条革命性的道路,并已应用于知识库、人机界面和动态代理等不同领域。然而,存在一个普遍的限制:当前许多LLM受资源限制,主要是在较短的文本上进行预训练,使它们对现实世界中常见的较长的上下文提示不太有效。本文对基于Transformer的LLM模型架构的进展进行了全面的介绍。
zenRRan
2023-11-29
258
0
耶鲁、交大提出“专家会诊”多智能体框架, 使用ChatGPT解决临床推理问题
医疗
chatgpt
框架
模型
数据
近来,来自耶鲁和交大的研究者借鉴并受医院专家会诊模式的启发,提出了一个名为多学科协作 (Multi-disciplinary Collaboration, MC) 的临床领域框架,目标是以无需训练、具有可解释性的方式来揭示医学智能模型的内在临床知识并提升其推理能力。
zenRRan
2023-11-29
73
0
上下文学习和指令微调之间到底有什么关系?
机器翻译
监督学习
it
基础
模型
上下文学习(ICL)和指令调优(IT)是将大型语言模型(LLM)应用于下游应用的两种主要范式。ICL推理时提供了一组示例(demonstrations),但LLM的参数没有更新。而IT的示例用于在训练时调整LLM的参数,但在推理时没有使用。虽然越来越多的文献探讨了ICL和IT,但这两种范式之间仍然是脱节的。本文通过研究LLM的隐藏状态在这两种范式中如何变化,来探索ICL和IT之间的关系。
zenRRan
2023-11-23
174
0
ICL的时候,更多sample好还是更多prompt好呢?
prompt
sample
模型
数据
性能
虽然大多数现有的LLM提示工程只专注于如何在单个提示输入中选择一组更好的数据样本(In-Context Learning或ICL),但为什么我们不能设计和利用多个提示输入来进一步提高LLM性能?本文提出上下文采样(ICS),一种低资源LLM提示工程技术,通过优化多个ICL提示输入的结构来产生最有置信度的预测结果。
zenRRan
2023-11-22
164
0
一个模板承包你所有表情包!
编码
测试
模型
视频
数据
meme是一种现代的交流形式,其模板具有基本的语义,任何人都可以在社交媒体上发布它。由于机器学习系统没有足够的上下文来理解meme,因为它比图像和文本有更丰富的内容,所以机器学习系统很难处理meme。为了让这类系统理解meme,这篇文章发布了一个相关知识库,称之为Know Your Meme Knowledge Base(KYMKB),这个知识库由54,000多张图片组成。KYMKB包括流行的meme模板、每个模板的示例以及关于模板的详细信息。
zenRRan
2023-11-21
124
0
LLMs实际上在假对齐!
安全
测试
模型
数据
性能
对大型语言模型(LLM)中安全问题的意识日益增强,引发了人们对当前研究工作中的安全性评估的极大兴趣。本研究调查了与llm评估有关的一个有趣问题,即多重选择问题和开放式问题之间的性能差异。我们发现LLM对安全这一复杂概念的理解并不全面,它只记得回答开放式安全问题,而无法解决其他形式的安全测试。我们将这种现象称为假对齐,为解决这个问题,我们提出FAEF框架和两个新指标—一致性分数(CS)和一致性安全分数(CSS),用来联合评估两种互补的评估形式,以量化假对齐并获得正确的性能估计。
zenRRan
2023-11-17
244
0
EMNLP2023 | 基于显式证据推理的few-shot关系抽取CoT
模型
设计
数据
性能
LLM
Few-shot关系提取涉及使用有限数量的注释样本识别文本中两个特定实体之间的关系类型。通过应用元学习和神经图技术,已经出现了对这个问题的各种解决方案,这些技术通常需要训练过程进行调整。
zenRRan
2023-11-17
136
0
用LLM生成反驳:首先洞察审稿人的心理,再巧妙回应!
测试
集群
模型
数据
LLM
在科研领域,同行评审(review-rebuttal)是保证学术质量的关键环节。这一过程中的辩论和反驳非常具有挑战性。传统的同行评审生成任务通常集中在表面层面的推理。 研究人员发现,考虑论点背后的态度根源和主题可以提高反驳的有效性。
zenRRan
2023-11-16
99
0
LLMs可以遵循简单的规则吗?
人工智能
测试
程序
工作
模型
由于大型语言模型在现实世界中的责任越来越大,因此如何以可靠的方式指定和约束这些系统的行为很重要。一些开发人员希望为模型设置显式规则,例如“不生成滥用内容”,但这种方式可能会被特殊技术规避。评估LLM在面对对抗性输入时遵循开发人员提供的规则的能力通常需要人工审查,这会减慢监控和方法开发的速度。
zenRRan
2023-11-16
94
0
EMNLP2023 | LLM作用下的成分句法分析基础研究
基础
数据
性能
语法
LLM
自训练已被证明是一种有效的针对跨域任务的方法。传统的自训练方法依赖于有限且低质量的源语料库。为克服这一限制,本文提出用大型语言模型(LLM)增强自训练,以迭代地生成特定领域的语料库。并针对句法成分解析,引入了指导LLM生成源语料库的语法规则,建立了选择伪实例的标准。
zenRRan
2023-11-10
145
0
情感分析与LLMs角色扮演
测试
模型
数据
性能
LLM
就像人类在做一件事情的时候,可能需要尝试多次。LLM也是如此!这对于情感分析任务尤其如此,在情感分析任务中,LLM需要深入推理来处理输入中的复杂语言现象(例如,从句组成、反讽等),单个LLM生成的单回合输出可能无法提供完美的决策。
zenRRan
2023-11-09
133
0
EMNLP2023 | 让模型学会将提示插入到合适的中间层
框架
模型
网络
性能
优化
现有的提示微调方法基本是人工选择提示层,而人工选择将提示插入到哪些层次并非一定合理,这导致了很大程度上限制提示微调发挥潜能。我们的模型(SPT)可以让模型自己学习应该在哪些中间层插入提示,从而最大化地发挥提示微调的作用。
zenRRan
2023-11-08
139
0
点击加载更多
社区活动
AI大牛助你轻松上手人工智能
参与可得官方证书、鹅厂公仔等奖励
立即参与
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档