首页
学习
活动
专区
工具
TVP
发布

SnailTyan

专栏作者
717
文章
571727
阅读量
61
订阅数
即时配送的ETA问题之亿级样本特征构造实践-笔记
文章作者:Tyan 博客:noahsnail.com  |  CSDN  |  简书
Tyan
2022-08-11
6620
机器学习在美团配送系统的实践:用技术还原真实世界-笔记
文章作者:Tyan 博客:noahsnail.com  |  CSDN  |  简书
Tyan
2022-06-12
6110
即时配送的订单分配策略:从建模和优化-笔记
文章作者:Tyan 博客:noahsnail.com  |  CSDN  |  简书
Tyan
2022-06-12
1.3K0
ESRGAN - Enhanced Super-Resolution Generative Adversarial Networks论文翻译——中文版
翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translation
Tyan
2020-05-27
1K0
ESRGAN - Enhanced Super-Resolution Generative Adversarial Networks论文翻译——中英文对照
翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translation
Tyan
2020-05-27
1.1K0
Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network论文翻译——中英文对照
文章作者:Tyan 博客:noahsnail.com | CSDN | 简书
Tyan
2020-04-24
1.1K0
Photo-Realistic 论文翻译
翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translation
Tyan
2020-04-24
7390
CTPN论文翻译——中文版
文章作者:Tyan 博客:noahsnail.com | CSDN | 简书
Tyan
2019-05-25
1.3K0
动手学深度学习(二)——欠拟合和过拟合
版权声明:博客文章都是作者辛苦整理的,转载请注明出处,谢谢! https://blog.csdn.net/Quincuntial/article/details/79416240
Tyan
2019-05-25
5290
Caffe的框架
Caffe遵循了神经网络的一个假设:所有的计算都是以layer形式表示的,layer的作用就是根据输入数据,输出一些计算以后的结果。以卷积为例,就是输入一幅图像,然后与这一层的参数(filter)进行卷积运算,然后输出卷积的结果。每一个layer需要进行两种运算:1.forward,从输入计算输出;2.backward根据上面的梯度(gradient)来计算相对于输入的梯度。在每个layer都实现了这两个函数以后,我们可以将很多层连接成一个网络,这个网络做的事情就是输入我们的数据(图像或者语音或者whatever),然后来计算我们需要的输出(比如说识别的label)。在训练时,我们可以根据已有的label来计算loss和gradient,然后用gradient来update网络的参数。这个就是Caffe的一个基本流程!
Tyan
2019-05-25
7830
tensorflow的基本用法——保存神经网络参数和加载神经网络参数
本文主要是使用tensorfl保存神经网络参数和加载神经网络参数。 #!/usr/bin/env python # _*_ coding: utf-8 _*_ import tensorflow as tf import numpy as np # 保存神经网络参数 def save_para(): # 定义权重参数 W = tf.Variable([[1, 2, 3], [4, 5, 6]], dtype = tf.float32, name = 'weights') #
Tyan
2019-05-25
1.3K0
tensorflow的基本用法——使用MNIST训练神经网络
本文主要是使用tensorflow和mnist数据集来训练神经网络。 #!/usr/bin/env python # _*_ coding: utf-8 _*_ import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data # 下载mnist数据 mnist = input_data.read_data_sets('MNIST_data', one_hot=True) # 定义神经网络模型的评估
Tyan
2019-05-25
5640
tensorflow的基本用法——创建神经网络并训练
本文主要是介绍利用tensorflow创建一个简单的神经网络并进行训练。 #!/usr/bin/env python # _*_ coding: utf-8 _*_ import tensorflow as tf import numpy as np # 创建一个神经网络层 def add_layer(input, in_size, out_size, activation_function = None): """ :param input: 神经网络层的输入
Tyan
2019-05-25
5490
统计学习方法(一)——统计学习方法概论
统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测和分析的一门学科。统计学习也称为统计机器学习(statistical machine learning)。现在人们提到的机器学习往往是指统计机器学习。
Tyan
2019-05-25
7660
LeNet神经网络
LeNet神经网络由深度学习三巨头之一的Yan LeCun提出,他同时也是卷积神经网络 (CNN,Convolutional Neural Networks)之父。LeNet主要用来进行手写字符的识别与分类,并在美国的银行中投入了使用。LeNet的实现确立了CNN的结构,现在神经网络中的许多内容在LeNet的网络结构中都能看到,例如卷积层,Pooling层,ReLU层。虽然LeNet早在20世纪90年代就已经提出了,但由于当时缺乏大规模的训练数据,计算机硬件的性能也较低,因此LeNet神经网络在处理复杂问题时效果并不理想。虽然LeNet网络结构比较简单,但是刚好适合神经网络的入门学习。
Tyan
2019-05-25
1.1K0
Caffe的solver参数介绍
solver.prototxt文件是用来告诉caffe如何训练网络的。solver.prototxt的各个参数的解释如下:
Tyan
2019-05-25
7110
动手学深度学习(三)——丢弃法
一般来说,在集成学习里,我们可以对训练数据集有放回地采样若干次并分别训练若干个不同的分类器;测试时,把这些分类器的结果集成一下作为最终分类结果。事实上,丢弃法在模拟集成学习。丢弃法实质上是对每一个这样的数据集分别训练一个原神经网络子集的分类器。与一般的集成学习不同,这里每个原神经网络子集的分类器用的是同一套参数。因此丢弃法只是在模拟集成学习。使用丢弃法的神经网络实质上是对输入层和隐含层的参数做了正则化:学到的参数使得原神经网络不同子集在训练数据上都尽可能表现良好。
Tyan
2019-05-25
6010
Caffe绘制神经网络结构图
Caffe中自带绘制神经网络结构图的工具,主要是在pycaffe中,因此首先要安装pycaffe,可参考我的另一篇文章,Caffe安装,除此之外还需要安装两个依赖:pydot和graphviz。
Tyan
2019-05-25
7270
贝叶斯估计、最大似然估计、最大后验概率估计
1. 引言 贝叶斯估计、最大似然估计(MLE)、最大后验概率估计(MAP)这几个概念在机器学习和深度学习中经常碰到,读文章的时候还感觉挺明白,但独立思考时经常会傻傻分不清楚(?),因此希望通过本文对其
Tyan
2019-05-25
1.1K0
ResNet论文翻译——中文版
Tyan
2017-12-29
2.5K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档