前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【Github】2019年达观信息提取比赛第九名代码和答辩PPT

【Github】2019年达观信息提取比赛第九名代码和答辩PPT

作者头像
AINLP
发布2019-10-21 15:42:27
9530
发布2019-10-21 15:42:27
举报
文章被收录于专栏:AINLPAINLP

作者:lonePatient(AINLP技术交流&竞赛群群友)

Github地址,点击阅读原文直达:

https://github.com/lonePatient/daguan_2019_rank9

datagrand_2019_rank9

2019年达观信息提取比赛第九名代码和答辩ppt

比赛地址:官网

代码目录结构

代码语言:javascript
复制
├── pydatagrand
|  └── callback
|  |  └── lrscheduler.py  
|  |  └── trainingmonitor.py 
|  |  └── ...
|  └── config
|  |  └── basic_config.py #a configuration file for storing model parameters
|  └── dataset   
|  └── io    
|  |  └── dataset.py  
|  |  └── data_transformer.py  
|  └── model
|  |  └── nn 
|  |  └── pretrain 
|  └── output #save the ouput of model
|  └── preprocessing #text preprocessing
|  └── train #used for training a model
|  |  └── trainer.py
|  |  └── ...
|  └── common # a set of utility functions
├── prepare_fold_data.py  # 数据切分
├── prepare_lm_data_mask.py  # 随机mask
├── prepare_lm_data_ngram.py  #ngram mask
├── run_bert_crf.py        # crf结构
├── run_bert_span.py   # span结构
├── train_bert_model.py  #训练bert模型

预训练模型

主要训练了8层跟12层BERT模型,采用随机mask + ngram mask两种混合动态masking模式

方案1

方案1主要采用BERT+LSTM+CRF结构

方案2

方案2在方案1的基础上增加了MDP结构

方案3

方案3主要采用BERT+LSTM+SPAN结构

结果

最终结果如下所示:

文档

十强答辩ppt下载地址: https://pan.baidu.com/s/1yvXFf5GzyvDksdBKNp9FKQ 提取码: svr2

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-10-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AINLP 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • datagrand_2019_rank9
    • 代码目录结构
      • 预训练模型
        • 方案1
          • 方案3
            • 文档
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档