首页
学习
活动
专区
工具
TVP
发布

杨熹的专栏

专栏作者
302
文章
365357
阅读量
55
订阅数
机器学习面试题集-如何画 ROC 曲线
Receiver Operating Characteristic Curve 是评价二值分类器的重要指标
杨熹
2019-05-24
1.6K0
机器学习面试题集-图解准确率,精确率,召回率
当样本比例非常不均衡时,比如某类别占 样本比例 80%时,分类器把所有样本都预测为这个类别,也可以获得 80%的准确率
杨熹
2019-05-19
1.7K0
《百面机器学习》笔记-特征工程相关面试题2
例如,特征a有m个取值,特别b 有n个取值,将二者组合就有m*n个组成情况。这时需要学习的参数个数就是 m×n 个
杨熹
2019-05-17
8600
CMU Neural Nets for NLP 2019 (4):CNN for NLP
CMU Neural Nets for NLP 2019 (4): Convolutional Neural Networks for Language
杨熹
2019-05-14
5170
【机器学习知识体系】- 逻辑回归篇
在面试时有时会问到 LR 为什么用 sigmoid ?在介绍模型时这个知识点经常被忽略,有时候问到了就会不知道要怎么回答,下文给出了数学的解释:
杨熹
2019-04-23
4530
【机器学习知识体系】- 机器学习问题的一般流程
今天开始会陆续将之前的文章做一下梳理,整理出一个完整的知识体系,有需要的伙伴们可以更方便地查找自己需要的知识点。
杨熹
2019-04-18
4010
TensorFlow 2.0 Tutorial: 3 - 几种 RNN 模型的实现
下面创建一个简单的 2 层 RNN,每层有 100 个神经元,输出层是单个神经元的 dense 层:
杨熹
2019-04-17
2.9K0
中文NLP笔记:14. 中文命名实体提取
  一般包括三大类(实体类、时间类和数字类)和七小类(人名、地名、机构名、时间、日期、货币和百分比)
杨熹
2019-03-06
1.5K0
中文NLP笔记:8. 基于CNN的推荐系统
  如果一段文字包含有 n 个词,每个词有 m 维的词向量,那么可以得到一个 n*m 的词向量矩阵
杨熹
2019-02-20
1.9K0
中文NLP笔记:8. 基于LSTM的文本分类
  有些句子即使把词的顺序打乱,还是可以看懂这句话在说什么,有时候词的顺序打乱,句子意思就变得面目全非
杨熹
2019-02-20
3.4K0
中文NLP笔记:6. 如何做中文短文本分类
  这里可以使用的模型有:朴素贝叶斯,SVM,决策树、随机森林、XGBoost、神经网络等
杨熹
2019-02-20
1.3K0
中文NLP笔记:5. 文本数据如何转换成计算机能够计算的数据
  把文本(段落或者文档)看作无序的集合,忽略语法和单词的顺序,计算每个单词出现的次数
杨熹
2019-02-20
1.3K0
Auto ML 一种自动完成机器学习任务的系统
在 2018 年比较火,很多大公司都开源了各自的auto ml库,例如 Cloud AutoML, AUTO KERAS, Auto Sklearn, Auto Weka 等,
杨熹
2019-02-20
4910
图解什么是 Transformer
Transformer 是 Google 团队在 17 年 6 月提出的 NLP 经典之作, 由 Ashish Vaswani 等人在 2017 年发表的论文 Attention Is All You Need 中提出。
杨熹
2019-02-20
1.8K0
情感分析的方法有哪些
情感分析也称为意见挖掘,是自然语言处理(NLP)中的一个领域,它试图在文本中识别和提取意见
杨熹
2019-02-20
1.7K0
机器学习模型算法 List
Reinforcement or Semi-Supervised Machine Learning
杨熹
2019-02-20
5360
1. 中文NLP笔记:中文自然语言处理的一般流程
    人工去重、对齐、删除和标注等,或者规则提取内容、正则表达式匹配、根据词性和命名实体提取、编写脚本或者代码批处理等。
杨熹
2019-01-28
4K1
为什么要做 batch normalization
在机器学习中,我们需要对输入的数据做预处理, 可以用 normalization 归一化 ,或者 standardization 标准化, 用来将数据的不同 feature 转换到同一范围内, normalization 归一化 :将数据转换到 [0, 1] 之间, standardization 标准化:转换后的数据符合标准正态分布
杨熹
2018-12-24
1.3K0
用对偶法求解 SVR
即 它在线性函数两侧制造了一个“间隔带”,对于所有落入到间隔带内的样本,都不计算损失;只有间隔带之外的,才计入损失函数
杨熹
2018-12-24
1.2K0
强化学习第一课:像学自行车一样的强化学习
在监督式学习中,我们有数据 x 和标签 y。我们想要找到一个函数来连接 x 和 y。可以选择决策树,线性回归等模型,然后训练这些模型使损失函数达到最小。
杨熹
2018-12-06
6020
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档