首页
学习
活动
专区
工具
TVP
发布

我还不懂对话

有些文章会乱码,原文见:https://www.zhihu.com/people/aaronchou_820/posts,公众号:百川NLP
专栏作者
83
文章
76559
阅读量
14
订阅数
「LLM天花板」如何利用神奇咒语让语言模型超越人类
即在询问模型答案之前,让模型认真思考等prompt,输出结果真的就要好。 这里有一个问题点:不同的模型神奇咒语是不一样的,怎么针对一个新的模型搜索出神奇咒语呢,如果有少量样本,怎么在few-shot上效果更好呢?见还在手写Prompt,自动Prompt搜索超越人类水平
百川AI
2024-04-22
1460
【多轮对话】多轮对话状态追踪综述
研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:
百川AI
2024-04-09
1670
AI评论生成,如何既相关又多样?
当前开放域的评论生成常常产生重复且无趣的回复。作者认为原因是直接使用真实用户评论会带入大量的噪音,比如同一篇文章会有多个、且可能相互矛盾的评论,并且由于检索方法会比较刻板,最终导致生成的结果问题。因此文章提出了结合检索和生成的方法,利用已有用户评论和检索出相关评论,训练一个打分器scorer(怎么训练呢?)。然后利用这些评论和文章,作为copy机制生成模型的训练数据。
百川AI
2024-04-09
1010
「论文阅读」还在手写Prompt,自动Prompt搜索超越人类水平
手写prompt确实很费脑筋,但其实本身大语言模型就是一个很好的自动prompt工具,APE文章提出自动prompt工程(Automatic Prompt Engineer),利用语言模型+蒙特卡洛搜索 自动的寻找最优的Prompt样例,最终在多项任务的效果几乎达到人类水平。
百川AI
2024-04-07
1910
「AIGC」- ChatGPT可以怎么玩?
chatGPT这么火,这几天一番体验之后,除了惊叹,同时也引发了作为程序员的担忧:我的工作是否会被AI取代?
百川AI
2023-04-02
2.7K0
【论文阅读】- 怎么快速阅读ML论文?
机器学习的论文很多,怎么从Arxiv上泛滥的文章中选择论文阅读,那么我们就需要快速地了解论文内容概要,从而决定是否精读。那么怎么快速阅读呢,作者提出只需要阅读过程中只需要回答出以下5个简单问题即可:
百川AI
2022-10-07
5220
【自学习】- 怎么让对话机器人越来越强?
对话机器人如果能够检测到服务失败的case,再强一点,最好还能够自动纠正,就和人一样,在学习中成长,在成长中学习,越来越强。理想和美好,那么怎么做呢?怎么学习呢?
百川AI
2022-07-18
1.3K0
【问答对话】kbqa?开放域问答怎么有知识地生成
问答是对话的重要任务之一,封闭的垂直领域可以构建问题库,通过检索召回、排序的方式回答,然而到了开放域,怎么既利用外部知识,又能够应对多样的问题,前有kbqa,利用结构化的知识库和语义链接,然而这是最优的么?而最近流行的大模型,如GPT-3也在开放域问答上有一定的能力,那么如何在大的语言模型基础上融合知识呢,其实主要面临两个问题,1)检索什么知识,怎么检索。2)怎么讲检索知识加入。
百川AI
2022-07-11
1.1K0
【评论生成】AI生成评论,如何既相关又多样?
当前开放域的评论生成常常产生重复且无趣的回复。作者认为原因是直接使用真实用户评论会带入大量的噪音,比如同一篇文章会有多个、且可能相互矛盾的评论,并且由于检索方法会比较刻板,最终导致生成的结果问题。因此文章提出了结合检索和生成的方法,利用已有用户评论和检索出相关评论,训练一个打分器scorer(怎么训练呢?)。然后利用这些评论和文章,作为copy机制生成模型的训练数据。
百川AI
2022-05-29
2.2K3
Fine-tuning过时啦,NLG生成任务如何Tuning?
Fine-tuning范式大家肯定都再熟悉不过,微调所有语言模型参数,而从gpt3出现之后提出的in-context learning,还是越来越火的prompt,fine-tuning 已经out of state了。而这篇文章就提出prefix-tuning的nlg训练方法。
百川AI
2022-05-16
1.2K0
『 DSSM』A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems
MULTI-VIEW-DNN联合了多个域做的丰富特征,使用multi-view DNN模型构建推荐,包括app、新闻、电影和TV,相比于最好的算法,老用户提升49%,新用户提升110%。并且可以轻松的涵盖大量用户,解决冷启动问题。
百川AI
2022-05-15
9430
『 论文阅读』XGBoost原理-XGBoost A Scalable Tree Boosting System
看了LightGBM的论文之后,在从头看XGBoost论文,之前虽然看过,现在对比看的时候又有不同。
百川AI
2022-05-15
1.4K0
【任务型对话】任务型对话中的自然语言生成
任务型对话中,一般包含ASR、语义理解、多轮状态追踪、会话策略、自然语言生成(NLG)模块,那么任务型对话中都有哪些生成的方法呢?
百川AI
2022-04-17
1.3K0
【多轮对话】多轮对话状态追踪技术综述
研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:任务型多轮对话数据集和采集方法
百川AI
2022-02-28
3.5K3
NER的过去、现在和未来综述-未来
命名实体识别(NER, Named Entity Recognition),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。
百川AI
2022-01-04
1.6K1
学习让机器学会学习-Meta Learning课程笔记-2
来源于李宏毅老师机器学习课程,笔记是其中meta learning部分,few-shot learning学习也可以观看此部分课程。
百川AI
2022-01-04
1890
NLP数据增强方法-动手实践
图像中可以通过旋转、翻转变换、rgb转灰度、加入白噪声等方式增强数据,其语义不会发生改变,但是NLP中却往往发生语义改变,针对NLP的一些数据增强方法进行了探索。
百川AI
2022-01-04
6710
BERT+实体-百度ERNIE优化了啥
如何将知识(knowledge)信息融入到模型训练中,一种方式是将知识信息作为输入,成本是其他人使用的时候也要构建知识库,并且fine-tune和pre-train的知识库分布不一致,fine-tune也会出现问题。
百川AI
2022-01-04
5820
NLP数据增强方法-(一)
问题:对于每个句子,短句相比于长句,吸收同样的n个词噪音,更可能导致类别标签发生变化。
百川AI
2022-01-04
7180
Cross-Domain Review Helpfulness Prediction -论文阅读
问题:如何估计评论的有用性并将其恰当地推荐给消费者(review helpfulness prediction)
百川AI
2022-01-04
3780
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档