前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >NLP: Text Neural Network (Part3: Attention)

NLP: Text Neural Network (Part3: Attention)

作者头像
JiahuiZhu1998
发布2023-06-20 01:05:43
870
发布2023-06-20 01:05:43
举报
文章被收录于专栏:JiahuiZhu1998_技术笔记

Attention Definition

在传统的Encoder-Decoder中加入权重机制称为 Attention机制

Decoder 隐藏状态迭代可以表示成

状态迭代
状态迭代

Attention in Encoder-Decoder

How Attention works in Decoder to calculate Context Variable
How Attention works in Decoder to calculate Context Variable

计算Context Variable

从 function a 获得 h(t) 并且经过 softmax;然后再对每一个处理后的h(t)做加权平均,得到 Context Variable

计算t时刻Context Variable,此时 T为总时间步数,这个式子是所有状态的加权平均
计算t时刻Context Variable,此时 T为总时间步数,这个式子是所有状态的加权平均

Vector版本 Cotext Variable 计算

Context Variable in Linear Algebra
Context Variable in Linear Algebra

Update Hidden State 更新隐藏状态

以 GRU为例,展示其状态迭代,重置门,更新门,候选隐藏状态

状态迭代
状态迭代
从上到下依次是 重置门,更新门,候选隐藏状态
从上到下依次是 重置门,更新门,候选隐藏状态

Attention (More)

Attention机制就是在语料中找出重点,分配不同权重

Attention在Machine Translation 中使用

Tom chase Jerry,Encoder-Decoder框架逐步生成中文单词:“汤姆”,“追逐”,“杰瑞” 为例

为了突出 Jerry 对于 "杰瑞"更重要

使用 Attention机制给不同的词不同的probability, 例如(Tom,0.3)(Chase,0.2) (Jerry,0.5)

使用attention机制后的Machine Translation, C1,C2,C3是Attention概率
使用attention机制后的Machine Translation, C1,C2,C3是Attention概率
C代表注意力分配概率分布
C代表注意力分配概率分布
C也有可能是加权求和函数
C也有可能是加权求和函数

Attention 分配概率计算

通过F(hj,Hi-1)获取words和Attention比值的Combination
通过F(hj,Hi-1)获取words和Attention比值的Combination

Attention 物理含义

输入一条Query,计算 Query与Key的相关性,得到Key对应Value的权重系数,对Value加权求和,得到Attention Value
输入一条Query,计算 Query与Key的相关性,得到Key对应Value的权重系数,对Value加权求和,得到Attention Value
Attention公式,Lx代表Source的长度
Attention公式,Lx代表Source的长度

Self-Attention

传统 Attention 中,Source和Target是不同的,比如机器翻译;

Self-Attention中,Source和Target是相同的

Self-Attention 更容易捕捉长句相互依赖的特征

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Attention Definition
  • Attention in Encoder-Decoder
    • 计算Context Variable
      • Vector版本 Cotext Variable 计算
        • Update Hidden State 更新隐藏状态
        • Attention (More)
          • Attention在Machine Translation 中使用
            • Attention 分配概率计算
              • Attention 物理含义
              • Self-Attention
              相关产品与服务
              机器翻译
              机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档