首页
学习
活动
专区
工具
TVP
发布

ml

专栏作者
664
文章
632982
阅读量
64
订阅数
NN[神经网络]中embedding的dense和sparse是什么意思?
假设embedding对输出size=3,也就是hidden层的size=3*3;
Gxjun
2020-06-12
8.3K1
NN[神经网络]中embedding的dense和sparse是什么意思?
假设embedding对输出size=3,也就是hidden层的size=3*3;
Gxjun
2020-06-10
3.3K0
caffe中是如何运用protobuf构建神经网络的?
 caffe这个框架设计的比较小巧精妙,它采用了protobuf来作为交互的媒介,避免了繁重的去设计各个语言的接口,开发者可以使用任意语言通过这个protobuf这个媒介,来运行这个框架.   我们这里不过多的去阐述caffe的过往以及未来,只是简单的描述一下,caffe框架中的protobuf的作用,以及它的背后原理. 一般来说cafe.proto中有对应的solve,solve中悠悠Layer,通过prototxt解析生成一个大对象sovle,然后solve底下有一个Layer数组对象,我们所定义的网络
Gxjun
2018-06-13
1.4K1
关于BP网络的一些总结
背景      前段时间,用过一些模型如vgg,lexnet,用于做监督学习训练,顺带深入的学习了一下相关模型的结构&原理,对于它的反向传播算法记忆比较深刻, 就自己的理解来描述一下BP网络. 关于BP网络的整体简述      BP神经网络,全程为前馈神经网络,它被用到监督学习中的主体思想是(我们假定我们这里各个层Layer次间采用的是全链接): 通过各个Layer层的激励和权值以及偏置的处理向前传递,最终得到一个预期的值,然后通过标签值和预期的值得到一个残差值,残差值的大小反映了预期值和残差值的偏离程度,
Gxjun
2018-03-27
8080
使用神经网络来拟合函数y = x^3 +b
我们使用一个三层的小网络来,模拟函数y = x^3+b函数 1 import tensorflow as tf 2 import numpy as np 3 import matplotlib.pyplot as plt 4 5 #训练数据 6 x_data = np.linspace(-6.0,6.0,30)[:,np.newaxis] 7 y_data = np.power(x_data,3) + 0.7 8 #验证数据 9 t_data = np.linspace(-20.0,20
Gxjun
2018-03-27
8260
神经网络模型之AlexNet的一些总结
说明: 这个属于个人的一些理解,有错误的地方,还希望给予教育哈~ 此处以caffe官方提供的AlexNet为例. 目录: 1.背景 2.框架介绍 3.步骤详细说明 5.参考文献 背景: AlexNet是在2012年被发表的一个金典之作,并在当年取得了ImageNet最好成绩,也是在那年之后,更多的更深的神经网路被提出,比如优秀的vgg,GoogleLeNet. 其官方提供的数据模型,准确率达到57.1%,top 1-5 达到80.2%. 这项对于传统的机器学习分类算法而言,已经相当的出色。 框架介绍: Al
Gxjun
2018-03-26
6770
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档