首页
学习
活动
专区
工具
TVP
发布

深度学习自然语言处理

专栏作者
922
文章
1009297
阅读量
156
订阅数
从Karpathey那里获得灵感,推特上这位工程师居然可视化了GPT的工作流程!
OpenAI创始人之一的Karpathy之前曾亲自下场教大家如何动手学习搭建一个小号的GPT模型--minGPT。而最近,推特上一位叫做Brendan Bycroft的工程师从Karpathy那里汲取到了灵感,居然将GPT在推理时候的数学过程进行了可视化(以下简称LLM-viz),还做成了可以交互的网站(https://bbycroft.net/llm)!任何人都可以轻松地跟随动画和一旁的讲解,学习到GPT内部的工作原理。
zenRRan
2023-12-05
720
探索无监督域自适应,释放语言模型的力量:基于检索增强的情境学习实现知识迁移
在自然语言处理(NLP)领域,如何有效地进行无监督域自适应(Unsupervised Domain Adaptation, UDA) 一直是研究的热点和挑战。无监督域自适应的目标是在目标域无标签的情况下,将源域的知识迁移到目标域,以提高模型在新领域的泛化能力。近年来,随着大规模预训练语言模型的出现,情境学习(In-Context Learning) 作为一种新兴的学习方法,已经在各种NLP任务中取得了显著的成果。然而,在实际应用场景中,我们经常面临一个问题:源领域的演示数据并不总是一目了然。这就导致了需要进行跨领域的上下文学习的问题。此外,LLMs在未知和陌生领域中仍然面临着一些挑战,尤其是在长尾知识方面。同时在无监督域自适应任务中,如何充分利用情境学习的优势进行知识迁移仍然是一个开放性问题。
zenRRan
2023-12-05
1520
ChatGPT一周岁啦!开源LLMs正在紧紧追赶吗?
自2022年底ChatGPT发布以来,其已经在人工智能的整个领域带来了翻天覆地的变化。通过对大型语言模型(LLM)进行指令微调,并从人类反馈中进行监督微调和强化学习,表明模型可以回答人类问题并在广泛的任务中遵循指令。在这一成功之后,对LLM的研究兴趣增强了,新的LLM在学术界和工业界频繁蓬勃发展。虽然非开源LLM(例如,OpenAI的GPT, Anthropic的Claude)通常优于它们的开源同行,但后者的进展很快。这对研究和商业都有至关重要的影响。在ChatGPT成立一周年之际,本文对这类LLMs进行了详尽的介绍。
zenRRan
2023-12-05
720
大模型会输出隐式有害内容?听听清华大学研究人员怎么说!
清华大学最新发布了一篇关于大模型安全的论文,不同于以往大部分专注于挖掘大模型可能输出的显式有害内容的工作。这篇论文将目光投向了研究更少,更难被检测到的隐式有害内容。
zenRRan
2023-12-05
1230
LLM来模拟世界大战,会发生什么?
战争与和平一直是塑造人类历史的重要元素。最近的一项研究聚焦于用LLMs模拟国际冲突,特别是第一次世界大战、第二次世界大战以及中国古代的战国时期。通过这些历史事件的详细模拟,研究团队探索了国际关系动态和触发战争的关键因素。
zenRRan
2023-12-04
1180
Q-Learning 在 Agent 的应用
OpenAI 宫斗告一段落,现在到处都在猜 Q* 是什么。本文没有 Q* 的新料,但是会探讨一下 Q-Learning 在 Agent 方面的可能应用。
zenRRan
2023-12-04
1000
先遗忘后学习:基于参数计算的大模型知识更新
最近,大型语言模型(LLMs)展示了其令人惊叹的文本理解和生成能力。然而,即使是更为强大的LLMs,仍有可能从训练语料库中学到不正确的知识,以及随时间而过时的知识。直接使用包含新知识的数据进行二次微调可能在更新知识时效果不佳,因为新旧知识之间存在冲突。在本文中,我们提出了一种新的微调范式,被称为F-Learning(先遗忘后学习),它基于参数计算,实现对旧知识的遗忘和对新知识的学习。在两个公开可用的数据集上的实验证明,我们提出的F-Learning显著改善了全量微调和LoRA微调的知识更新性能。此外,我们还发现,通过减去LoRA的参数来遗忘旧知识可以达到与减去全量微调参数相似的效果,有时甚至可以显著超越它。
zenRRan
2023-12-04
750
武侠小说视角:大模型对话系统的内功与外功
内功和外功,作为诸多武侠小说的两大流派,有着诸多区别。内功主要是内力,外功主要是拳脚功夫,如熟知的降龙十八掌就是外家的顶峰功夫,任何武功若想发挥最大的威力都离不开内功的精深。内功是道,外功是术,道术结合,东方不败。作为一个业余的武侠小说爱好者和刚入门的科研爱好者,这次从内功和外功的两个角度出发,介绍我们我们组在 EMNLP 2023 中的两个工作,如有不当之处,敬请原谅:
zenRRan
2023-12-04
970
Long-Context下LLM模型架构全面介绍
随着ChatGPT的快速发展,基于Transformer的大型语言模型(LLM)为人工通用智能(AGI)铺平了一条革命性的道路,并已应用于知识库、人机界面和动态代理等不同领域。然而,存在一个普遍的限制:当前许多LLM受资源限制,主要是在较短的文本上进行预训练,使它们对现实世界中常见的较长的上下文提示不太有效。本文对基于Transformer的LLM模型架构的进展进行了全面的介绍。
zenRRan
2023-11-29
2580
耶鲁、交大提出“专家会诊”多智能体框架, 使用ChatGPT解决临床推理问题
近来,来自耶鲁和交大的研究者借鉴并受医院专家会诊模式的启发,提出了一个名为多学科协作 (Multi-disciplinary Collaboration, MC) 的临床领域框架,目标是以无需训练、具有可解释性的方式来揭示医学智能模型的内在临床知识并提升其推理能力。
zenRRan
2023-11-29
730
上下文学习和指令微调之间到底有什么关系?
上下文学习(ICL)和指令调优(IT)是将大型语言模型(LLM)应用于下游应用的两种主要范式。ICL推理时提供了一组示例(demonstrations),但LLM的参数没有更新。而IT的示例用于在训练时调整LLM的参数,但在推理时没有使用。虽然越来越多的文献探讨了ICL和IT,但这两种范式之间仍然是脱节的。本文通过研究LLM的隐藏状态在这两种范式中如何变化,来探索ICL和IT之间的关系。
zenRRan
2023-11-23
1740
ICL的时候,更多sample好还是更多prompt好呢?
虽然大多数现有的LLM提示工程只专注于如何在单个提示输入中选择一组更好的数据样本(In-Context Learning或ICL),但为什么我们不能设计和利用多个提示输入来进一步提高LLM性能?本文提出上下文采样(ICS),一种低资源LLM提示工程技术,通过优化多个ICL提示输入的结构来产生最有置信度的预测结果。
zenRRan
2023-11-22
1640
一个模板承包你所有表情包!
meme是一种现代的交流形式,其模板具有基本的语义,任何人都可以在社交媒体上发布它。由于机器学习系统没有足够的上下文来理解meme,因为它比图像和文本有更丰富的内容,所以机器学习系统很难处理meme。为了让这类系统理解meme,这篇文章发布了一个相关知识库,称之为Know Your Meme Knowledge Base(KYMKB),这个知识库由54,000多张图片组成。KYMKB包括流行的meme模板、每个模板的示例以及关于模板的详细信息。
zenRRan
2023-11-21
1240
LLMs实际上在假对齐!
对大型语言模型(LLM)中安全问题的意识日益增强,引发了人们对当前研究工作中的安全性评估的极大兴趣。本研究调查了与llm评估有关的一个有趣问题,即多重选择问题和开放式问题之间的性能差异。我们发现LLM对安全这一复杂概念的理解并不全面,它只记得回答开放式安全问题,而无法解决其他形式的安全测试。我们将这种现象称为假对齐,为解决这个问题,我们提出FAEF框架和两个新指标—一致性分数(CS)和一致性安全分数(CSS),用来联合评估两种互补的评估形式,以量化假对齐并获得正确的性能估计。
zenRRan
2023-11-17
2440
EMNLP2023 | 基于显式证据推理的few-shot关系抽取CoT
Few-shot关系提取涉及使用有限数量的注释样本识别文本中两个特定实体之间的关系类型。通过应用元学习和神经图技术,已经出现了对这个问题的各种解决方案,这些技术通常需要训练过程进行调整。
zenRRan
2023-11-17
1360
用LLM生成反驳:首先洞察审稿人的心理,再巧妙回应!
在科研领域,同行评审(review-rebuttal)是保证学术质量的关键环节。这一过程中的辩论和反驳非常具有挑战性。传统的同行评审生成任务通常集中在表面层面的推理。 研究人员发现,考虑论点背后的态度根源和主题可以提高反驳的有效性。
zenRRan
2023-11-16
990
LLMs可以遵循简单的规则吗?
由于大型语言模型在现实世界中的责任越来越大,因此如何以可靠的方式指定和约束这些系统的行为很重要。一些开发人员希望为模型设置显式规则,例如“不生成滥用内容”,但这种方式可能会被特殊技术规避。评估LLM在面对对抗性输入时遵循开发人员提供的规则的能力通常需要人工审查,这会减慢监控和方法开发的速度。
zenRRan
2023-11-16
940
EMNLP2023 | LLM作用下的成分句法分析基础研究
自训练已被证明是一种有效的针对跨域任务的方法。传统的自训练方法依赖于有限且低质量的源语料库。为克服这一限制,本文提出用大型语言模型(LLM)增强自训练,以迭代地生成特定领域的语料库。并针对句法成分解析,引入了指导LLM生成源语料库的语法规则,建立了选择伪实例的标准。
zenRRan
2023-11-10
1450
情感分析与LLMs角色扮演
就像人类在做一件事情的时候,可能需要尝试多次。LLM也是如此!这对于情感分析任务尤其如此,在情感分析任务中,LLM需要深入推理来处理输入中的复杂语言现象(例如,从句组成、反讽等),单个LLM生成的单回合输出可能无法提供完美的决策。
zenRRan
2023-11-09
1330
EMNLP2023 | 让模型学会将提示插入到合适的中间层
现有的提示微调方法基本是人工选择提示层,而人工选择将提示插入到哪些层次并非一定合理,这导致了很大程度上限制提示微调发挥潜能。我们的模型(SPT)可以让模型自己学习应该在哪些中间层插入提示,从而最大化地发挥提示微调的作用。
zenRRan
2023-11-08
1390
点击加载更多
社区活动
AI大牛助你轻松上手人工智能
参与可得官方证书、鹅厂公仔等奖励
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品·最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档