致Great

LV0
发表了文章

Datawhale 零基础入门CV赛事-Task5 模型集成

在机器学习中的集成学习可以在一定程度上提高预测精度,常见的集成学习方法有Stacking、Bagging和Boosting,同时这些集成学习方法与具体验证集划分...

致Great
发表了文章

Datawhale 零基础入门CV赛事-Task4 模型训练与验证

为此本章将从构建验证集、模型训练和验证、模型保存与加载和模型调参几个部分讲解,在部分小节中将会结合Pytorch代码进行讲解。

致Great
发表了文章

Datawhale 零基础入门CV赛事-Task3 字符识别模型

本章将会讲解卷积神经网络(Convolutional Neural Network, CNN)的常见层,并从头搭建一个字符识别模型。

致Great
发表了文章

Datawhale 零基础入门CV赛事-Task1 赛题理解

Datawhale 零基础入门CV赛事-Task1 赛题理解 本章内容将会对街景字符识别赛题进行赛题背景讲解,对赛题数据的读取进行说明,并给出集中解题思路。

致Great
发表了文章

Datawhale 零基础入门CV赛事-Task2 数据读取与数据扩增

由于赛题数据是图像数据,赛题的任务是识别图像中的字符。因此我们首先需要完成对数据的读取操作,在Python中有很多库可以完成数据读取的操作,比较常见的有Pill...

致Great
发表了文章

Task06 边缘检测

如上图所示,上图的第一幅图表示一张数字图片,我们对水平红线处进行求导,便可得到上图二中的关系,可以看到在边缘处有着较大的跳变。但是,导数也会受到噪声的影响,因此...

致Great
发表了文章

Task05 图像分割/二值化

该部分的学习内容是对经典的阈值分割算法进行回顾,图像阈值化分割是一种传统的最常用的图像分割方法,因其实现简单、计算量小、性能较稳定而成为图像分割中最基本和应用最...

致Great
发表了文章

Task02 几何变换

该部分将对基本的几何变换进行学习,几何变换的原理大多都是相似,只是变换矩阵不同,因此,我们以最常用的平移和旋转为例进行学习。在深度学习领域,我们常用平移、旋转、...

致Great
发表了文章

Task04 图像滤波

图像的实质是一种二维信号,滤波是信号处理中的一个重要概念。在图像处理中,滤波是一种非常常见的技术,它们的原理非常简单,但是其思想却十分值得借鉴,滤波是很多图像算...

致Great
发表了文章

Task03 彩色空间互转

图像彩色空间互转在图像处理中应用非常广泛,而且很多算法只对灰度图有效;另外,相比RGB,其他颜色空间(比如HSV、HSI)更具可分离性和可操作性,所以很多图像算...

致Great
发表了文章

图像插值算法和OpenCV框架

最近邻插值,是指将目标图像中的点,对应到源图像中后,找到最相邻的整数点,作为插值后的输出。

致Great
发表了文章

动手学深度学习(十四) NLP注意力机制和Seq2seq模型

在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,...

致Great
机器学习神经网络深度学习AI 人工智能
发表了文章

动手学深度学习(十三) NLP机器翻译

机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 ...

致Great
机器翻译神经网络
发表了文章

动手学深度学习(十二) NLP循环神经网络进阶

RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 RNN:

致Great
深度学习机器学习AI 人工智能神经网络
发表了文章

动手学深度学习(十一) NLP循环神经网络

本节介绍循环神经网络,下图展示了如何基于循环神经网络实现语言模型。我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量

致Great
自然语言处理神经网络机器学习深度学习AI 人工智能
发表了文章

动手学深度学习(十) NLP 语言模型与数据集

?(?1,?2,…,??)=∏?=1??(??∣?1,…,??−1)=?(?1)?(?2∣?1)⋯?(??∣?1?2⋯??−1)

致Great
自然语言处理
发表了文章

动手学深度学习(八) NLP 文本预处理

文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:

致Great
编程算法
发表了文章

动手学深度学习(八) 优化算法进阶

在 Section 11.4 中,我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest...

致Great
编程算法pytorch
发表了文章

动手学深度学习(七) 梯度下降

致Great
发表了文章

动手学深度学习(六) 凸优化

尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。

致Great
深度学习

个人简介

个人成就

扫码关注云+社区

领取腾讯云代金券