最近我做了一些关于固定精度和浮点类型的实验。我发现一个讨厌的双,是我不能看到所有数字的浮动和实际类型。我试着投十进制(30,20),但这给了我很多小数(精确)小数。我的猜测是,内部强制转换为浮动(53),然后转换为十进制(30,20)。我问自己这到底是怎么回事?
下面的说明了这个问题:
DECLARE @r real, @f float
SET @r= 15.49
SET @f= 15.49
SELECT
@r AS 'Real',
CAST(@r as DECIMAL(30,20)) AS 'Real as Decimal',
@f
我只是试着用预先训练过的vgg16在Keras中做这样的预测。
from scipy import ndimage
from keras.preprocessing import image
from keras.applications.vgg16 import preprocess_input
im = scipy.misc.imread("cat_dog/validation/cats/cat.1362.jpg").astype(np.float32)
im = scipy.misc.imresize(im, (224, 224)).astype(np.float32)
在ImageNet ClassifiNeural with Deep Convolutional Neural等论文中
训练方法似乎是随机梯度下降的基本反向传播。
尽管CNN是深度神经网络的一部分,但这纯粹是因为存在大量的隐藏层吗?这是否意味着这里的后盾属于深度学习类别,因为网络是深度的,即使它不遵循与使用贪婪层明智训练(一种真正的深度学习技术)的DBN相同的模式?
谢谢你的帮助和建议。