腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1289)
视频
沙龙
1
回答
使
用回
调在
Flux
中
训练
时
记录
损失
、
、
我正在尝试为
Flux
中
的train!函数编写一个回调函数。我的代码是: cb_loss = x -> push!(x, loss(x_train, y_train)) [8] top-level scope at In[108]:1 有趣的是,它正确地将第一个值添加到向量
中
,然后崩溃,所以
浏览 11
提问于2020-05-03
得票数 1
回答已采纳
1
回答
在Jupyter notebook
中
,如何使
用回
调和/或小部件事件手动终止Keras培训?
、
、
、
、
我正在使用Jupyter实验室
中
的Keras来
训练
模型。 我希望能够手动停止
训练
并优雅地退出试衣。 现在我可以终止
训练
的唯一方法是通过KeyboardInterrupt。我如何使用Keras回调来优雅地终止
训练
,无论是通过侦听KeyboardInterrupt还是从小部件按钮接收事件? 还是有别的办法? 谢谢!编辑: 我尝试捕获KeyboardInterrupt (即由Jupyter
中
的stop按钮发送的SIGINT ),如下所示: try: history=model.fit(
浏览 31
提问于2021-07-22
得票数 0
1
回答
如何定义深度学习
中
的回调?
、
、
你能告诉我回调的哲学是什么吗?换句话说,我如何为每个独特的问题定义它们?
浏览 4
提问于2018-01-03
得票数 0
2
回答
有多近足够近,与回归?
在探索机器学习(神经网络)
中
的不同技术
时
,我喜欢用二进制分类问题作为测试平台,因为它很容易理解该技术工作得有多好: 50%的
训练
/测试准确率不亚于机会,70%是好的,98%是非常好的,等等。然而,有时我需要使
用回
归问题来代替,在这里,我很难解释我的结果。如果我画了一个
训练
和测试均方误差的散点图,在
训练
前后,在
训练
前我得到0.1的
损失
,然后我得到0.01的
损失
。那是..。好的?
浏览 0
提问于2021-02-20
得票数 1
2
回答
您是否需要编写自定义
训练
循环来使用
Flux
.jl获取每个时期的
损失
值?
、
Flux
.jl提供了一个有用的train!函数,当该函数与@epoch宏配对时,可以充当主
训练
循环。然而,与大多数自定义
训练
循环不同的是,在每个
训练
时期没有关于模型精度/
损失
的输出信息。train!函数确实提供了一个可选的回调,它似乎可以用来显示
训练
的准确性,但我不确定如何做到这一点。是否可以使用@epoch和train!获得这些值,或者我是否必须编写自定义
训练
循环?
浏览 7
提问于2021-11-26
得票数 1
1
回答
Tensorflow/keras当将张量元组传递给多个
损失
函数
时
,使用.fit仅传递元组
中
的一个张量
、
、
、
、
训练
数据的形状为: ([batch], 52, 52, 3, 6), ([batchmodel.compile为每个输出指定了
损失
函数。问题是,当
训练
时
,
损失
函数只收到它想要的两个值
中
的一个。当我手动调用它
时
,它工作得很好。(52, 52, 3, 6)ValueError: slice index 1 of dimension 0
浏览 0
提问于2021-02-18
得票数 0
2
回答
在
训练
过程
中
改变
损失
函数
、
假设我的
损失
函数的形式如下:假设我也在
训练
100步。如何动态地改变tensorflow
中
的
损失
函数,
使
我在
训练
的100步
中
逐渐将"a“从1改为0?准确地说,我希望我的
损失
在培训开始
时
是loss = 1*loss_1+0*loss_2 = loss_1 (在第1步)
损失
= 0*loss_1+1*loss_2 =结束
时</
浏览 2
提问于2017-03-30
得票数 2
回答已采纳
1
回答
拥抱面Sagemaker模型的列车误差度量
、
、
、
我已经
训练
了一个模型,使用拥抱脸的集成亚马逊萨吉克。通过在经过
训练
的模型:training_job_analytics上调用huggingface_estimator.training_job_analytics.dataframe(),我可以轻松地计算和查看在评估测试集上生成的度量我怎样才能在
训练
集上看到相同的度量标准(甚至每个时代的
训练
错误)?
浏览 14
提问于2021-12-10
得票数 0
回答已采纳
1
回答
NAN
损失
张量流
、
、
、
我正在
训练
一个边界框回归问题,并使用
中
描述的
损失
函数的坐标分量。方法2:使用图像作为CNN的输入。最后一层与方法1相同,
损失
函数也相同。但我面临的问题是
损失
正在计算
中
。从第一个时代开始,它就在为
训练
、开发和测试打印nan
损失
。 当相同的
损失
函数与ANN完美地工作
时
,我该如何
使
CNN工作?我希望能够使用
浏览 4
提问于2018-06-28
得票数 0
2
回答
使用验证集确定Keras
中
的纪元数
、
、
、
我想知道是否可以使用交叉验证或固定的预定义验证集来确定使用Python
中
的Keras的神经网络的“最佳”纪元数。optimizer = 'adam',loss = 'mean_squared_error')如果可能,我需要在代码
中
添加什么
浏览 8
提问于2019-08-06
得票数 1
回答已采纳
3
回答
提前停止,Model已经经历了多少个时代?
、
、
、
我正在
训练
我的神经网络,并使用提前停止。我的耐心是10,验证
损失
最小的时期是15。
浏览 11
提问于2019-07-05
得票数 1
回答已采纳
1
回答
实践
中
的偏差-方差权衡(CNN)
、
、
我第一次在我的数据集上
训练
CNN,得到了一个有点像这样的
损失
情节:橙色是
训练
的
损失
,蓝色是德夫的
损失
。正如你所看到的,
训练
损失
比开发
损失
低,所以我想:我有(合理的)低偏差和高方差,这意味着我是过度拟合,所以我应该增加一些正则化:辍学,L2正则化和数据增强。但是,我实际上选择了第一个模型,因为它有较低的验证
损失
。 我的问题是:在大多数文献
中
,对于偏差-方差权衡,它们显示验证
损失
在上升,但在我的实
浏览 0
提问于2019-01-17
得票数 3
1
回答
如何知道成本函数是否已变为最小值?
、
、
我试图在不使用ML相关库的情况下实现逻辑回归,并且在优化成本函数
时
遇到了麻烦。 我在迭代过程
中
存储了代价函数的历史
记录
。
浏览 0
提问于2020-01-02
得票数 1
1
回答
在文档
中
找不到某些fairseq参数
、
、
、
但是,有很多参数是我在文档
中
或运行fairseq-train --help
时
找不到的。
浏览 15
提问于2021-09-18
得票数 1
2
回答
Keras model.evaluate()
、
、
到目前为止,我使用MSE作为
损失
,使用MAE作为度量。epochs=100, validation_data=(x_val, y_val)) result.head(5) 这给出了
训练
损失
和mae,以及每个时期之后的验证
损失
和mae。现在,当比较不同的网络
时
,我想采用单个
损失
值进行比较。我不确定是否可以只使用model.evaluate(),以及它能做什么。validation loss (MSE):
浏览 4
提问于2020-09-24
得票数 0
1
回答
CNN保持0%的准确率
、
、
我用角蛋白和tf
训练
卷积神经网络来确定年龄。 然而,我的准确性总是报告为0%。我对神经网络很陌生,我希望你能告诉我我做错了什么?
浏览 2
提问于2022-01-21
得票数 0
2
回答
当seed对模型性能有很大影响
时
,该怎么办?
、
我已经为图像识别任务设置了一个
训练
过程。每次我
训练
一个模型,我
记录
训练
损失
,验证
损失
,验证精度和验证召回。 最近,我从EfficientNet转向了基于ResNet的模型。这两个模型都是预先
训练
的,所以权值初始化是确定性的。在旧的模型
中
,我用完全相同的参数进行了5个实验(每个实验5倍),只改变了种子,得到了大约0.001标准偏差的验证
损失
。在新模型下,我进行了3个实验(也是5倍),参数完全相同,验证
损失
的标准差为0.
浏览 0
提问于2020-11-26
得票数 4
1
回答
使用fit_generator
时
Keras
中
的噪声验证
损失
、
、
、
、
由于数据集太大,无法容纳内存,我们使用的是fit_generator,ImageDataGenerator随机从培训和验证文件夹
中
获取图像:model.fit_generatorvalidation_generator.samples // validation_batch_size,我们的CNN架构是VGG16,在最后两个完全连接的层
中
,我们的
训练
和验证样本使用
训练
集均值和标准差进行标准化。批次大小是32。我们的激活
浏览 3
提问于2017-10-27
得票数 4
1
回答
TF2对象检测API: model_main_tf2.py -验证丢失?
、
、
、
、
在过去的两个月中,我一直在尝试
训练
一个对象检测模型,并最终成功地遵循了这个。问题是,
训练
损失
是显示出来的,它是在平均下降,但验证
损失
没有。在pipeline.config文件
中
,我输入了评估TFRecord文件(我假设它是验证数据输入),如下所示: metrics_set:"coco_detection_metricseval_input_reader { label_map_path:“注释/标签_map.pbtxt”
浏览 2
提问于2020-10-24
得票数 4
回答已采纳
4
回答
深度学习
中
的
训练
损失
和验证
损失
、
1)
损失
< validation_loss 2)
损失
> validation_loss 似乎
训练
损失
总是应该小于验证
损失
。但是,在
训练
模型
时
,这两种情况都会发生。
浏览 3
提问于2018-01-12
得票数 11
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券