首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

多轮检索式对话——【CIKM 2019】IMN

Layer,解决OOV问题采用的3种向量: 预训练词向量 训练集词向量 基于CNN的字向量 Sentence Encoding Layer 受ELMo网络的影响,作者使用了多层BiLSTM表示多个utterance...将每一层BiLSTM隐含状态根据一定权重累加: Matching Layer 将context中的n个utterance各自的表征进行concatenation: 计算每一个utterance...与候选response的匹配度: 利用匹配度信息进行utterance与response的交互并各自重构对方的表征,从而融合相互之间的匹配信息: 将匹配信息和交互信息进行融合: 将综合信息拆分成各个句子的粒度...Aggregation Layer 将匹配之后的信息通过BiLSTM进一步捕捉词粒度的时序关系: 做pooling,取隐状态各位的max 拼接上 最后一个隐状态: 通过BiLSTM进一步捕捉utterance

30420

SFFAI 分享 | 多轮对话中的上下文信息建模 【附PPT与视频资料】

一般而言,context/history是具有层次化结构的文本:一个context由不同的会话语句(utterance)组成,一个会话语句又由不同的词组成。...这个模型中有两种encoder,分别是utterance encoder和context encoder。...前者得到每个utterance对应的表示,后者将目前为止得到的句子表示再进行编码,用来建模inter-utterance的关系,然后送入decoder中。...图4 VHRED模型图 不论是HRED还是VHRED,在inter-utterance关系建模的时候,选择的是RNN模型,即把utterance encoder得到的句子表示送入context encoder...同时使用了utterance drop的方式去削弱模型的自回归性,使得隐变量可以更好地发挥作用。

2.3K20
领券