专栏首页小鹏的专栏[语音识别] 文本加标点--训练BERT

[语音识别] 文本加标点--训练BERT

文本加标点--训练BLSTM

bert4keras==0.5.9

# -*- coding:utf-8 -*-
import os 
import re
import sys
import time
import jieba
import gensim   
import logging
import numpy as np
import pandas as pd
from tqdm import tqdm
import multiprocessing
from bert4keras.snippets import sequence_padding, DataGenerator
from bert4keras.optimizers import Adam
import warnings
warnings.filterwarnings(action='ignore', category=UserWarning, module='gensim')# 忽略警告
np.random.seed(2019)

import keras
from keras.models import *
from keras.layers import *
from keras.optimizers import *
from keras.regularizers import l2
from keras.callbacks import *
from keras.optimizers import *
from keras.callbacks import *
from keras import backend as K

from keras.layers import *

from bert4keras.backend import keras, set_gelu
from bert4keras.bert import build_bert_model
from bert4keras.optimizers import Adam
from bert4keras.snippets import seq

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • BERT适应业务遇难题?这是小米NLP的实战探索

    近年来,预训练模型在自然语言处理(Natural Language Processing, NLP)领域大放异彩,其中最重要的工作之一就是 Google 于 2...

    机器之心
  • BERT适应业务遇难题?这是小米NLP的实战探索

    近年来,预训练模型在自然语言处理(Natural Language Processing, NLP)领域大放异彩,其中最重要的工作之一就是 Google 于 2...

    yuquanle
  • WSDM Cup 2019自然语言推理任务获奖解题思路

    美美导读:美团团队在刚刚结束的WSDM Cup 2019比赛“真假新闻甄别任务”中获得了第二名的好成绩。本文将详细介绍他们本次获奖的解决方案,里面用到了很多黑科...

    美团技术团队
  • [语音识别] 文本加标点--训练LSTM

    MachineLP
  • [语音识别] 文本加标点--训练BLSTM

    MachineLP
  • NLP领域近期有哪些值得读的开源论文?(附下载)

    本文是清华大学徐葳老师组和刘知远老师组发表于 ACL 2019 的工作,论文在远程监督与弱监督融合两种技术之间搭建起了一座桥梁,既通过自动生成模式减轻了对领域专...

    数据派THU
  • 12篇文章带你进入NLP领域,掌握核心知识

    专栏《NLP》第一阶段正式完结了。在本专栏中,我们从NLP中常用的机器学习算法开始,介绍了NLP中常用的算法和模型;从朴素贝叶斯讲到XLnet,特征抽取器从RN...

    石晓文
  • 【完结】 12篇文章带你完全进入NLP领域,掌握核心技术

    专栏《NLP》第一阶段正式完结了。在本专栏中,我们从NLP中常用的机器学习算法开始,介绍了NLP中常用的算法和模型;从朴素贝叶斯讲到XLnet,特征抽取器从RN...

    用户1508658
  • 拼写、常识、语法、推理错误都能纠正,云从提出基于BART的语义纠错方法

    近些年来,随着自动语音识别(ASR)技术的发展,识别准确率有了很大的提升。但是,在 ASR 转写结果中,仍然存在一些对人类来说非常明显的错误。我们并不需要听音频...

    机器之心
  • 文本纠错与BERT的最新结合,Soft-Masked BERT

    1.http://www.doc88.com/p-8038708924257.html

    机器学习AI算法工程
  • 大幅提升ASR系统识别准确率:云从科技语义纠错模型解析

    近些年来,随着自动语音识别(ASR)技术的发展,识别准确率有了很大的提升。但是,在ASR转写结果中,仍然存在一些对人类来说非常明显的错误。我们并不需要听音频,仅...

    AI科技评论
  • AAAI 2020「自然语言处理(NLP)」【哈尔滨工业大学】多任务自监督学习的文本顺滑

    各位小伙伴,最近全国各地陆续发现新型冠状病毒感染的肺炎疫情,又赶上春节,大家出门请注意戴口罩,做好防护~~

    ShuYini
  • 谷歌最强NLP模型BERT如约开源,12小时GitHub标星破1500,即将支持中文

    BERT终于来了!今天,谷歌研究团队终于在GitHub上发布了万众期待的BERT。

    磐创AI
  • 谷歌最强NLP模型BERT如约开源,12小时GitHub标星破1500,即将支持中文

    BERT终于来了!今天,谷歌研究团队终于在GitHub上发布了万众期待的BERT。

    量子位
  • 近期必读 ICLR 2021 【模型压缩】&【预训练】相关论文】

    Task-Agnostic and Adaptive-Size BERT Compression

    zenRRan
  • 自然语言处理中的预训练模型(下)

    PTM 通常是基于大规模文本语料训练通用的语言表示,而缺乏领域特定的知识。通过外部知识库引入领域知识被证明可以提升模型结果。这些外部知识包括:语言知识、语义知识...

    口仆
  • Soft-Masked BERT:文本纠错与BERT的最新结合

    地址 | https://zhuanlan.zhihu.com/p/144995580

    朴素人工智能
  • 一文看尽2019全年AI技术突破

    最近,Analytics Vidhya发布了2019年AI技术回顾报告,总结了过去一年中,AI在不同技术领域取得的进展,并展望了2020年的新趋势。

    OpenCV学堂
  • 预训练模型超全知识点梳理与面试必备高频FAQ

    预训练模型(Pre-trained Models,PTMs)的出现将NLP带入了一个全新时代。2020年3月18日,邱锡鹏老师发表了关于NLP预训练模型的综述《...

    zenRRan

扫码关注云+社区

领取腾讯云代金券