西西嘛呦

LV1
发表了文章

nlp中各中文预训练模型的输入和输出

西西嘛呦
发表了文章

numpy和Pytorch对应的数据类型

西西嘛呦
发表了文章

pytorch之对预训练的bert进行剪枝

1、加载预训练的模型; 2、提取所需要层的权重,并对其进行重命名。比如我们想要第0层和第11层的权重,那么需要将第11层的权重保留下来并且重命名为第1层的名字...

西西嘛呦
发表了文章

python关于多级包之间的引用问题

首先得明确包和模块。 包:在一个目录下存在__init__.py,那么该目录就是一个包。 模块:一个.py文件就是一个模块。 我们可以通过from 包 i...

西西嘛呦
发表了文章

如何使用Hugging Face中的datasets

https://huggingface.co/datasets 我们选择其中的一个数据集:cail2018

西西嘛呦
发表了文章

关于torch.nn.LSTM()的输入和输出

input_size:一般是词嵌入的大小 hidden_size:隐含层的维度 num_layers:默认是1,单层LSTM bias:是否使用bias ...

西西嘛呦
发表了文章

pytorch中的nn.CrossEntropyLoss()计算原理

array([[0.10786477, 0.56611762, 0.10557245], [0.4596513 , 0.13174377, 0.82373043...

西西嘛呦
发表了文章

关于bert的输出是什么

我们在使用Bert进行微调的时候,通常都会使用bert的隐含层的输出,然后再接自己的任务头,那么,我们必须先知道bert的输出都是什么,本文接下来就具体记录下b...

西西嘛呦
发表了文章

必备三件套:xshell6+xftp6+navicat

Navicat Premium 是MySQL,SQL Server,Oracle和PostgreSQL的一体化数据库管理工具,功能非常强大。

西西嘛呦
发表了文章

关于bertTokenizer

西西嘛呦
发表了文章

关于warm up(transformers.get_linear_schedule_with_warmup)

这里就不使用pytorch中的dataset和dataloader了,简单的模拟下:

西西嘛呦
发表了文章

一文弄懂pytorch搭建网络流程+多分类评价指标

讲在前面,本来想通过一个简单的多层感知机实验一下不同的优化方法的,结果写着写着就先研究起评价指标来了,之前也写过一篇:https://www.cnblogs.c...

西西嘛呦
发表了文章

如何使用flask将模型部署为服务

在某些场景下,我们需要将机器学习或者深度学习模型部署为服务给其它地方调用,本文接下来就讲解使用python的flask部署服务的基本过程。

西西嘛呦
发表了文章

哈工大LTP进阶使用-三元组事件抽取

哈工大LTP基本使用-分词、词性标注、依存句法分析、命名实体识别、角色标注 上一节我们讲了LTP的基本使用,接下来我们使用其进行事件抽取。 参考代码:htt...

西西嘛呦
发表了文章

哈工大LTP基本使用-分词、词性标注、依存句法分析、命名实体识别、角色标注

西西嘛呦
发表了文章

【自然语言处理】对句子进行预处理

西西嘛呦
发表了文章

【关系抽取-mre-in-one-pass】模型的建立

西西嘛呦
发表了文章

【关系抽取-mre-in-one-pass】加载数据(二)

先总体对这些是什么有个大概的了解: (1)res:存储的是相对位置,是一个[128,128]的数组,这里的128是句子的最大长度。这个数组记录的是实体和其它词...

西西嘛呦
发表了文章

【知识图谱】知识图谱的构建-python-neo4j

jdk、neo4j图数据库 neo4j具体的安装过程可以参考这里:https://cloud.tencent.com/developer/article/13...

西西嘛呦
发表了文章

【关系抽取-mre-in-one-pass】加载数据(一)

在run_classifier.py的main()函数中: 这里定义了一个字典,用于存放不同数据的处理器。

西西嘛呦

个人简介

个人成就

扫码关注云+社区

领取腾讯云代金券