腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
tensorflow
中
构建
具有
自定义
激活
函数
的
神经网络
?
、
我是
tensorflow
的
新手。我正在使用
tensorflow
构建
一个3层
神经网络
(只有一个隐藏层),并且我想将一个
自定义
激活
函数
应用到它
的
隐藏层。output = tf.matmul(np.transpose(layer_2).astype(np.float32), weights['w']) return output 我想把它转换成一些适合
tensorflow
和它
的
浏览 27
提问于2019-04-09
得票数 0
1
回答
如
何在
Tensorflow
中使用可训练参数制作
自定义
激活
函数
、
、
、
希望了解如何使用python
中
的
tensorflow
为
具有
两个可学习参数
的
神经网络
定义用户定义
的
激活
函数
。谢谢
浏览 1
提问于2021-06-03
得票数 1
回答已采纳
1
回答
使用人工
神经网络
的
模型可以被认为是多线性回归模型吗?
、
、
、
、
我
的
任务是为一个预测问题(输入参数有数字和分类变量
的
组合)建立一个多元线性回归模型。 如果我使用人工
神经网络
(ANN)来
构建
一个进行预测
的
模型,这是多元线性回归模型还是深度学习模型?如果我可以使用ann来
构建
多元线性回归模型,我会感到困惑。
浏览 47
提问于2019-01-24
得票数 0
回答已采纳
1
回答
如何实现
神经网络
中
近零参数
的
去除/剪枝?
、
、
、
、
我需要删除
神经网络
的
近零权重,以便参数分布远离零点。nearzero weights and weight-scaling 我在这篇论文中遇到了问题:https://ieeexplore.ieee.org/document/7544366 我想知道如
何在
我
的
PyTorch/
TensorFlow
程序
中
实现这一点,例如使用
自定义
激活
层?或者定义一个损失
函数
来惩罚接近于零
的
浏览 25
提问于2021-04-09
得票数 0
回答已采纳
1
回答
当训练只有输出wrt所有输入
的
导数时,训练
神经网络
、
、
有一个
具有
1000个输入
的
标量
函数
F。我想训练一个模型来预测给定输入
的
F。然而,在训练数据集中,我们只知道F相对于每个输入
的
导数,而不知道F本身
的
值。如
何在
tensorflow
或pytorch
中
构建
具有
此限制
的
神经网络
浏览 22
提问于2021-05-08
得票数 2
回答已采纳
3
回答
扩充拓扑(整形)
神经网络
的
神经进化可以在
TensorFlow
中
构建
吗?
、
、
、
我正在制作一个用于时间序列数据分析
的
机器学习程序,使用NEAT可以帮助我完成这项工作。我不久前才开始学习
TensorFlow
,但似乎
TensorFlow
中
的
计算图通常是固定
的
。
TensorFlow
中
是否有工具可以帮助
构建
动态进化
的
神经网络
?或者像Pytorch这样
的
东西会是更好
的
选择?谢谢。
浏览 10
提问于2018-09-12
得票数 7
2
回答
多
激活
函数
组成
的
神经网络
、
、
、
我正在使用sknn软件包来
构建
一个
神经网络
。为了优化我使用
的
数据集
的
神经网络
参数,我使用了一种进化算法。由于这个包允许我
构建
一个
神经网络
,其中每个层都有一个不同
的
激活
函数
,我想知道这是否是一个实际
的
选择,还是每个网络只使用一个
激活
函数
?在
神经网络
中
是否
具有
多重
激活
功能,对
神经网络</e
浏览 4
提问于2016-06-21
得票数 5
回答已采纳
1
回答
用自动编码器权值初始化
tensorflow
中
的
神经网络
、
、
、
、
我使用Python和
Tensorflow
构建
了一个自动编码器。为了
构建
自动编码器,我使用了
Tensorflow
教程,介绍如何
构建
自动编码器来读取手写数字上
的
MNIST数据集。我用它来寻找CGRA组合
的
特性。 到目前为止,我对“自动编码器代码”进行了结构调整,使其能够在自己
的
数据上使用。我找到了一些特性,并且已经成功地重建了输入,直到出现了某种错误。现在,我尝试使用自动编码器
的
权重,初始化一个参数类似于我
的
自动编码器<
浏览 0
提问于2017-01-31
得票数 2
回答已采纳
1
回答
当设置相同时,使用不同深度学习实现
的
性能会有差异吗?
、
、
我使用过Torch,
Tensorflow
和sknn,发现了它们在机制设计、语法、环境要求、速度性能方面的主要差异,但是,我想知道当
神经网络
有完全相同
的
设置时,这些库之间是否有什么不同?换句话说,当网络本身
具有
相同
的
设置(层数、层类型、退出、
激活
、目标
函数
等)时,使用不同
的
实现来
构建
网络,性能(比如分类任务
的
准确性)会不会有所不同? 非常感谢。
浏览 4
提问于2016-11-22
得票数 0
回答已采纳
1
回答
tensorflow
中
的
自定义
激活
函数
及其可学习参数
、
、
我想在
tensorflow
中
实现一个
自定义
的
激活
函数
。这个
激活
函数
的
思想是,它应该知道它有多线性。使用以下
函数
。 tanh(x*w)/w for w!但是,我不知道如
何在
tensorflow
中
实现这一点。
浏览 0
提问于2021-06-06
得票数 1
回答已采纳
2
回答
CNN架构
、
起初,这个问题不是关于编程本身,而是关于CNN架构背后
的
一些逻辑。我理解每个层是如何工作
的
,但我唯一
的
问题是:分离ReLU和卷积层是否有意义?我
的
意思是,一个ConvLayer是否可以通过使用反向传播来工作和更新它
的
权重,而不需要一个ReLU呢? ConvLayer ->完全连接
的
转换(将3D输出转换为一维)。
浏览 5
提问于2017-05-20
得票数 1
回答已采纳
1
回答
二值化
神经网络
的
激活
函数
、
、
、
、
我试图用keras和
tensorflow
实现一个二值化
的
神经网络
。以下是我的当前代码:from
tensorflow
import kerasfrom keras.utils.vis_utilsepochs=5)print(test_loss, test_acc) 我目前使用
浏览 0
提问于2020-08-09
得票数 1
1
回答
批量标准化,是还是不是?
、
、
、
我使用
Tensorflow
1.14.0和Keras 2.2.4。以下代码实现了一个简单
的
神经网络
:np.random.seed(1)random.seed(2)问题:为什么批处理规范化不能帮助?有什么可以更改
的
吗?这样批处理规
浏览 2
提问于2019-10-29
得票数 6
回答已采纳
1
回答
在
tensorflow
的
推理过程
中
,你如何获得神经元
的
激活
?
、
、
我想特别知道如何使
神经网络
中
的
神经元被
激活
(每个神经元在
激活
函数
之后
的
输出)。 在
Tensorflow
2
的
模型推理
中
,当我给出输入时,如何才能得到序列模型中所有神经元
的
激活
?
浏览 4
提问于2021-03-10
得票数 3
回答已采纳
1
回答
神经网络
的
非线性回归
、
、
、
我可以很容易地用LinearRegression从sklearn,但我希望能够实现这一多元样本,如果我不知道是否
函数
是log/exp/poly/等等。谢谢!阿什坎
浏览 3
提问于2021-01-03
得票数 1
回答已采纳
6
回答
如
何在
Tensorflow
中
实现PReLU
激活
?
(PReLU)是一种有趣
的
、广泛应用
的
激活
函数
。似乎
Tensorflow
()不提供PReLU。我知道高级库,
如
和,都有它
的
实现。 我想知道如
何在
PReLU
中
实现
Tensorflow
浏览 32
提问于2016-10-11
得票数 9
回答已采纳
2
回答
神经网络
应该使用sklearn还是
tensorflow
?
、
、
我刚刚开始学习
神经网络
,以便从cs231
中
深入学习。我试图在Python
中
实现
神经网络
。我正在考虑使用
Tensorflow
或scikit-学习。对于这个应用程序,这些库
的
优点和缺点是什么?
浏览 0
提问于2018-08-12
得票数 10
1
回答
在训练LSTM NN之前,我需要做哪些数据重新缩放预处理?
、
、
、
我正在尝试使用keras
构建
一个简单
的
单层LSTM
神经网络
,它有一个带有一个神经元
的
Dense()输出层(用于回归)。我已经看到你可以选择
激活
函数
和循环
激活
。如
何在</e
浏览 0
提问于2017-08-22
得票数 2
2
回答
为什么
神经网络
中使用
的
激活
函数
通常范围有限?
、
、
为什么我们在
神经网络
中
通常使用有限范围
的
激活
函数
?例如:tanh
激活
函数
具有
范围[-1, 1] ( Q1)假设我使用了其他非线性
激活
函数
,比如f(x)=x^2,它没有任何有限
的
范围,那么在训练这样
的
神经网络
时会有什么潜在
的
问题呢( Q2)假设我在<
浏览 0
提问于2019-11-08
得票数 3
回答已采纳
2
回答
神经网络
输出层
激活
我熟悉Keras,在Keras
中
,我们需要根据需要在输出层
中
添加
激活
函数
,但是在学习
Tensorflow
时,我发现输出层没有添加
激活
函数
。 有人能解释一下这背后
的
原因吗。
浏览 4
提问于2019-03-11
得票数 0
回答已采纳
点击加载更多
相关
资讯
如何在神经网络中选择正确的激活函数
人工神经网络中为什么会有激活函数,主要的激活函数有哪些?
力学:对偶神经网络中激活函数对的改进
详解神经网络中的神经元和激活函数
一文读懂神经网络中的激活函数(二)
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券