腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
程序员一一涤生
同步自“程序员一一涤生”公众号。
专栏作者
举报
118
文章
199108
阅读量
43
订阅数
订阅专栏
申请加入专栏
全部文章
深度学习
编程算法
网站
神经网络
人工智能
机器学习
http
python
sql
数据库
NLP 服务
java
机器人
oracle
html
linux
网络安全
ide
json
tomcat
图像识别
https
bash
xml
access
bash 指令
开源
决策树
php
git
github
官方文档
tensorflow
node.js
ajax
flask
打包
apt-get
spring
GPU 云服务器
批量计算
访问管理
机器翻译
腾讯云测试服务
mongodb
微服务
map
费用中心
人脸识别
c++
javascript
jsp
jquery
android
mvc
api
jar
全文检索
容器镜像服务
NAT 网关
云推荐引擎
运维
jdk
卷积神经网络
erp
面向对象编程
dns
opencv
jdbc
hashmap
ftp
keras
pytorch
tcp/ip
scikit-learn
uml
windows
数据可视化
nat
虚拟化
sdk
ghost
add
char
database
ddl
error
executorservice
key
next
precision
rank
sample
size
threadpoolexecutor
队列
线程池
注解
字符串
搜索文章
搜索
搜索
关闭
用深度学习做命名实体识别(七)-CRF介绍
NLP 服务
CRF,全称 Conditional Random Fields,中文名:条件随机场。是给定一组输入序列的条件下,另一组输出序列的条件概率分布模型。
程序员一一涤生
2019-11-22
1.6K
0
BERT论文解读
NLP 服务
批量计算
BERT的设计是通过在所有层中对左右上下文进行联合调节,来预先训练来自未标记文本的深层双向表示。
程序员一一涤生
2019-10-10
797
0
用深度学习做命名实体识别(六)-BERT介绍
NLP 服务
BERT,全称是Bidirectional Encoder Representations from Transformers。可以理解为一种以Transformers为主要框架的双向编码表征模型。所以要想理解BERT的原理,还需要先理解什么是Transformers。
程序员一一涤生
2019-10-10
1.3K
0
BERT论文解读
NLP 服务
批量计算
BERT的设计是通过在所有层中对左右上下文进行联合调节,来预先训练来自未标记文本的深层双向表示。
程序员一一涤生
2019-10-10
1K
0
想研究BERT模型?先看看这篇文章吧!
机器翻译
NLP 服务
序列转换方式由基于复杂递归神经网络(RNN)和卷积神经网络(CNN)的编码器和解码器模型主导。表现最佳的模型也只是通过一个注意力机制来连接了编码器和解码器。我们提出一个新的简单网络架构——Transformer。相比表现最佳的模型,该架构仅仅基于注意力机制,完全摒弃了递归和卷积。从两个机器翻译任务的实验结果显示,Transformer的效果更优秀,同时有更好的并行性,显著的减少了训练的时间。我们的模型在WMT2014年发布的“英-德”翻译任务上达到了28.4 BLEU【注解1】,超越了该任务上现有的最好的记录2个BLEU,包括总体效果。在英-法翻译任务上,我们的模型在8块GPU上训练了3.5天,并创造了单模型最好BLEU分数——41.8。相比文献中的最佳模型,这个训练成本不高。Transformer在其它任务上也有好的泛化能力,我们将其应用于English constituency parsing(英语成分句法分析),无论在大量的训练数据上还是有限的训练数据上都获得了成功。
程序员一一涤生
2019-09-29
870
0
用深度学习做命名实体识别(五)-模型使用
深度学习
flask
tensorflow
python
NLP 服务
注意,在cpu上使用模型的时间大概在2到3秒,而如果项目部署在搭载了支持深度学习的GPU的电脑上,接口的返回会快很多很多,当然不要忘记将tensorflow改为安装tensorflow-gpu。
程序员一一涤生
2019-09-29
1.2K
0
想研究BERT模型?先看看这篇文章
机器翻译
NLP 服务
序列转换方式由基于复杂递归神经网络(RNN)和卷积神经网络(CNN)的编码器和解码器模型主导。表现最佳的模型也只是通过一个注意力机制来连接了编码器和解码器。我们提出一个新的简单网络架构——Transformer。相比表现最佳的模型,该架构仅仅基于注意力机制,完全摒弃了递归和卷积。从两个机器翻译任务的实验结果显示,Transformer的效果更优秀,同时有更好的并行性,显著的减少了训练的时间。我们的模型在WMT2014年发布的“英-德”翻译任务上达到了28.4 BLEU【注解1】,超越了该任务上现有的最好的记录2个BLEU,包括总体效果。在英-法翻译任务上,我们的模型在8块GPU上训练了3.5天,并创造了单模型最好BLEU分数——41.8。相比文献中的最佳模型,这个训练成本不高。Transformer在其它任务上也有好的泛化能力,我们将其应用于English constituency parsing(英语成分句法分析),无论在大量的训练数据上还是有限的训练数据上都获得了成功。
程序员一一涤生
2019-09-23
695
0
用深度学习做命名实体识别(五)-模型使用
深度学习
flask
python
tensorflow
NLP 服务
注意,在cpu上使用模型的时间大概在2到3秒,而如果项目部署在搭载了支持深度学习的GPU的电脑上,接口的返回会快很多很多,当然不要忘记将tensorflow改为安装tensorflow-gpu。
程序员一一涤生
2019-09-23
797
0
用深度学习做命名实体识别(四)——模型训练
深度学习
NLP 服务
下面的链接中提供了已经用brat标注好的数据文件以及brat的配置文件,因为标注内容较多放到brat里加载会比较慢,所以拆分成了10份,每份包括3000多条样本数据,将这10份文件和相应的配置文件放到brat目录/data/project路径下,然后就可以从浏览器访问文件内容以及相应的标注情况了。
程序员一一涤生
2019-09-09
2.4K
2
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档