前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >CMU Neural Nets for NLP 2019 (4):CNN for NLP

CMU Neural Nets for NLP 2019 (4):CNN for NLP

作者头像
杨熹
发布2019-05-14 15:48:12
5380
发布2019-05-14 15:48:12
举报
文章被收录于专栏:杨熹的专栏

CMU Neural Nets for NLP 2019 (4): Convolutional Neural Networks for Language

首先,让我们考虑情感分析这个文本分类问题,看看都有哪些方法可以用。

我们可以尝试下面几种方法:

  1. BOW

BOW

但这种方法不能准确地处理 “There‘s nothing” “I don’t love it” 这种带否定的观点。

  1. CBOW

CBOW

这种方法不能很好地处理有序地,共现地情况。

  1. Deep CBOW

Deep CBOW

这种方法将每个单词的词向量组合成一个,可以捕捉到 not 和 hate ,但仍然不能准确识别 “not hate” 这种组合情况。

  1. Bag of n-grams

bag of n-grams

这种方法可以识别 “don‘t love” “not the best” 这种组合句子的情感,准确率 85%, 而且这个方法简单快捷,但是它不能共享参数。


**再来简单看看 CNN **

  1. 1-D CNN

1D CNN

最早在 1989 年用于语音识别。

首先,向量经过一个 same transformation,相当于一个 soft n-grams,这样它就可以识别 “I hate” “I dislike”,因为这两个词意思相近,它们的向量表达也会是相似的。

然后经过一个 combine function,例如一个 pooling 函数。

最后经过 softmax 得到概率。

  1. 2-D CNN

2D CNN

2D 和 1D 本质上是类似的,计算都是一个方向的,只不过输入会被分成两个方向,单独计算后再组合在一起。


将 CNN 用于文本

最早将 CNN 用于文本的是 (Collobert and Weston 2011),

模型的基础的 1D CNN,但它引入了 2D 的函数。 CNN 在文本上的应用主要有两类:

Context window modeling: 例如词性标注 tagging,在考虑单个单词的标签时需要考虑上下文情况这种问题。

Sentence modeling: 可以用卷积来提取 ngrams, 用 pooling 来将整个句子组合在一起。


学习资料: https://www.youtube.com/watch?v=HBcr5jCBynI

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019.05.05 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档