首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

C#下使用TensorFlow.NET训练自己数据

今天,我结合代码来详细介绍如何使用 SciSharp STACK TensorFlow.NET 来训练CNN模型,该模型主要实现 图像分类 ,可以直接移植该代码 CPU 或 GPU 下使用,并针对你们自己本地图像数据进行训练和推理...实际使用,如果你们需要训练自己图像,只需要把训练文件夹按照规定顺序替换成你们自己图片即可。...具体每一层Shape参考下图: 数据说明 为了模型测试训练速度考虑,图像数据主要节选了一小部分OCR字符(X、Y、Z),数据特征如下: · 分类数量:3 classes 【X...我们会话运行多个线程,并加入队列管理器进行线程间文件入队出队操作,并限制队列容量,主线程可以利用队列数据进行训练,另一个线程进行本地文件IO读取,这样可以实现数据读取和模型训练是异步,...完整代码可以直接用于大家自己数据进行训练,已经工业现场经过大量测试,可以GPU或CPU环境下运行,只需要更换tensorflow.dll文件即可实现训练环境切换。

1.4K20

谷歌出品EfficientNet:比现有卷积网络小84倍,比GPipe快6.1倍

目前提高CNN精度方法,主要是通过任意增加CNN深度或宽度,或使用更大输入图像分辨率进行训练和评估。 以固定资源成本开发,然后按比例放大,以便在获得更多资源时实现更好准确性。...(91.7%),Flower(98.8%)和其他3个迁移学习数据上,也能很好地传输和实现最先进精度。...与流行ResNet-50相比,另一款EfficientNet-B4使用了类似的FLOPS,同时将ResNet-50最高精度从76.3%提高到82.6%。...不仅局限于ImageNet EfficientNetsImageNet上良好表现,让谷歌科学家希望将其应用于更广泛网络,造福更多的人。...8个广泛使用迁移学习数据上测试之后,EfficientNet在其中5个网络实现了最先进精度

1.2K30
您找到你想要的搜索结果了吗?
是的
没有找到

微博 Qzone 微信 是你数据还不够强!谷歌大脑「数据增强」开源,大神QuocLe出品

但缺点也是明显: 1、大规模采用这样方法会增加训练复杂性、加大计算成本; 2、无法根据模型或数据大小调整正则化强度。 于是乎,谷歌大脑团队又提出了一种数据增强方法——RandAugment。...研究人员较为关注数据包括:CIFAR-10、CIFAR-100、SVHN、ImageNet以及COCO。 这样就可以与之前工作做比较,证明RandAugment在数据增强方面的优势。...图(c)表示Wide-ResNet-28-10三种训练大小(1K,4K和10K)各种失真幅度上准确性。 图(d)8个训练大小上最佳失真幅度。 ?...△CIFAR-10、CIFAR-100、SVHN(core set)和SVHN上测试精度(%)。 其中,baseline是默认数据增强方法。...特别是希望更好地了解数据或任务是否/何时可能需要单独搜索阶段才能获得最佳性能。 最后,研究人员还抛出了一个悬而未决问题: 如何针对给定任务定制一组转换,进一步提高给定模型预测性能。

46010

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

但缺点也是明显: 1、大规模采用这样方法会增加训练复杂性、加大计算成本; 2、无法根据模型或数据大小调整正则化强度。 于是乎,谷歌大脑团队又提出了一种数据增强方法——RandAugment。...研究人员较为关注数据包括:CIFAR-10、CIFAR-100、SVHN、ImageNet以及COCO。 这样就可以与之前工作做比较,证明RandAugment在数据增强方面的优势。...图(c)表示Wide-ResNet-28-10三种训练大小(1K,4K和10K)各种失真幅度上准确性。 图(d)8个训练大小上最佳失真幅度。 ?...△CIFAR-10、CIFAR-100、SVHN(core set)和SVHN上测试精度(%)。 其中,baseline是默认数据增强方法。...特别是希望更好地了解数据或任务是否/何时可能需要单独搜索阶段才能获得最佳性能。 最后,研究人员还抛出了一个悬而未决问题: 如何针对给定任务定制一组转换,进一步提高给定模型预测性能。

47110

谷歌大脑开源「数据增强」新招数:ImageNet准确率达85%,大神Quoc Le出品

但缺点也是明显: 1、大规模采用这样方法会增加训练复杂性、加大计算成本; 2、无法根据模型或数据大小调整正则化强度。 于是乎,谷歌大脑团队又提出了一种数据增强方法——RandAugment。...研究人员较为关注数据包括:CIFAR-10、CIFAR-100、SVHN、ImageNet以及COCO。 这样就可以与之前工作做比较,证明RandAugment在数据增强方面的优势。...图(c)表示Wide-ResNet-28-10三种训练大小(1K,4K和10K)各种失真幅度上准确性。 图(d)8个训练大小上最佳失真幅度。 ?...△CIFAR-10、CIFAR-100、SVHN(core set)和SVHN上测试精度(%)。 其中,baseline是默认数据增强方法。...特别是希望更好地了解数据或任务是否/何时可能需要单独搜索阶段才能获得最佳性能。 最后,研究人员还抛出了一个悬而未决问题: 如何针对给定任务定制一组转换,进一步提高给定模型预测性能。

62710

基于有效样本类别不平衡损失CB-Loss

人工创建具有不同不平衡因子长尾CIFAR-100数据集中,每类训练样本个数 上面显示了每个类具有不同不平衡因素图像数量。 4.2....CIFAR 数据 ResNet-32长尾CIFAR-10和CIFAR-100测试上用不同损失函数训练分类错误率 loss类型超参数搜索空间为{softmax, sigmoid, focal...CIFAR-10上,最佳β一致为0.9999。但在CIFAR-100上,不同不平衡因子数据往往有不同且较小最优β。...大规模数据 在所有数据验证上,使用不同损失函数训练大规模数据Top-1和Top-5分类错误率 使用了类平衡Focal Loss,因为它具有更大灵活性,并且发现β = 0.999...和γ = 0.5在所有数据上都获得了合理良好性能。

39411

【最强ResNet改进系列】IResNet:涨点不涨计算量,可训练网络超过3000层!

例如,ImageNet数据上,使用具有50层ResNet,对于top-1精度,本文方法可以比ResNet提高1.19%,而另一种配置则提高约2%。重要是,无需增加模型复杂性即可获得这些改进。...我们成功ImageNet数据训练了404层网络模型,CIFAR-10和CIFAR-100数据训练了3002层网络模型,而原始残差网络达到上述层数时候已经无法收敛。...实验结果 我们6个数据上进行了实验,使用IResNet模块,可以训练更深层网络模型,而且相对原始方案,相同深度时,iResNet精度也更高。...随着层数增多,iResNet网络精度持续提高。 视频动作识别人中中使用iResNet也明显改进了结果: ? CIFAR-10和CIFAR-100数据上,不同深度网络表现: ?...COCO目标检测数据利用SSD检测方法,将iResNet作为backbone训练结果显示,同样取得了精度提升。 ? iResNet与其他知名图像分类算法ImageNet数据比较: ?

4.3K20

谷歌开源新模型EfficientNet,或成计算机视觉任务新基础

模型扩展方面的操作通常是任意增加 CNN 深度或宽度,或者更大输入图像分辨率上进行训练和评估。虽然这些方法确实提高模型了准确性,但它们通常需要繁琐手工调整,而且还不一定能找到最优结构。...与广泛使用 ResNet-50 相比,EfficientNet-B4 保持相同 FLOPS 开销情况下,将 Top-1 精度ResNet-50 76.3% 提高到 82.6%(+ 6.3%)...尽管 EfficientNets ImageNet 上表现较好,但为了验证它泛化能力,也应该在其他数据上进行测试。...为了评估这一点,作者八个广泛使用迁移学习数据上测试了EfficientNets。...EfficientNets 8 个数据集中 5 个中实现了 SOTA 精度,例如 CIFAR-100(91.7%)和 Flowers(98.8%),模型参数减少了一个数量级(减少了21倍),这表明

88410

2万元「煤气灶」Titan RTX做深度学习?机器之心为读者们做了个评测

安装了 Titan RTX 测试台上实验表明, ImageNet 和 COCO2017 这样相对较大数据上,TensorFlow 和 PyTorch 训练速度可能比 MXNet 略快。...以下为所有的设置步骤和实验环境,我们将 CV 任务结果细节呈现如下: 4.1 实验 1: CIFAR-10 数据上进行 RESNET-50 推理、训练 设置: 实验:ResNet-50 推理 框架...图 4.4.1:所有的推理速度 ResNet50 测试TensorFlow 获得了最佳推理速度,MXNet VGG-16 推理测试中速度是最快,PyTorch Faster-RCNN...TensorFlow Word2Vec 训练 GPU 利用率比其他框架高得多。PyTorch GNMT 训练 GPU 使用率最高,而在 NCF 训练中最低。 ?...RTX,这可能会节省我多卡配置空间,减少多卡通信时间,让我深度学习任务上相对轻松地训练一个相对大型数据

1.4K50

样本增广自动化-AutoAugment论文解读

本文使用搜索算法, 搜索使神经网络目标数据获得了最高验证精度最佳策略, 没有额外数据条件下实现了CIFAR-10,CIFAR-100,SVHN和ImageNet上state-of-the-art...本文TensorFlow [60]实现Wide-ResNet-28-10 [56],Shake-Shake [58]和ShakeDrop [59]模型,并为使用基线增强模型找到了令其验证精度最优权重衰减和学习率超参数...CIFAR-100 Results 本文还使用与CIFAR-10相同AutoAugment策略训练CIFAR-100模型; 结果显示表2。...图1可视化了SVHN样本五个最优子策略。 搜索结束后,作者把5个最优策略链接起来,并将它们应用于SVHN上表现良好使用标准数据增强策略训练模型上。...作者将训练和验证集合并, 使用所选超参数再次进行了训练。实验表明, 应用ImageNet上获得策略可以显著提高所有FGVC数据泛化精度

1.9K30

针对不平衡问题建模有趣Loss

iNaturalist 和ILSVRC是天然类别不平衡数据人工创建具有不同不平衡因子长尾CIFAR-100数据集中,每类训练样本个数。...4.2 CIFAR 数据 ResNet-32长尾CIFAR-10和CIFAR-100测试上用不同损失函数训练分类错误率 loss类型超参数搜索空间为{softmax, sigmoid, focal...CIFAR-10上,最佳β一致为0.9999。但在CIFAR-100上,不同不平衡因子数据往往有不同且较小最优β。...4.3 大规模数据 在所有数据验证上,使用不同损失函数训练大规模数据Top-1和Top-5分类错误率 使用了类平衡Focal Loss,因为它具有更大灵活性,并且发现β = 0.999...和γ = 0.5在所有数据上都获得了合理良好性能。

49540

基于有效样本类别不平衡损失CB-Loss

人工创建具有不同不平衡因子长尾CIFAR-100数据集中,每类训练样本个数 上面显示了每个类具有不同不平衡因素图像数量。 4.2....CIFAR 数据 ResNet-32长尾CIFAR-10和CIFAR-100测试上用不同损失函数训练分类错误率 loss类型超参数搜索空间为{softmax, sigmoid, focal...CIFAR-10上,最佳β一致为0.9999。但在CIFAR-100上,不同不平衡因子数据往往有不同且较小最优β。...大规模数据 在所有数据验证上,使用不同损失函数训练大规模数据Top-1和Top-5分类错误率 使用了类平衡Focal Loss,因为它具有更大灵活性,并且发现β = 0.999...和γ = 0.5在所有数据上都获得了合理良好性能。

28510

业界 | IBM发布新型分布式深度学习系统:结合软硬件实现当前最优性能

这一问题在深度学习系统造成了一种功能差距,驱使着我们创建新型 DDL 软件,以使高性能和高精确度大规模神经网络和数据上运行流行开源代码(比如 Tensorflow、Caffe、Torch 和...基本来讲,更智能更快 GPU 需要更好通信方式,否则它们就无法同步,并花费绝大多数时间等待彼此结果。因此,你不会从学习更快 GPU 获得加速。...FAIR 使用了一个较小深度学习模型 ResNet-50,和一个较小大约 130 万张图像数据 ImageNet-1K;二者降低了计算复杂度,并使用较大 8192 批量大小;最终,通过 Caffe2...我们期望,通过 DDL AI 社区普及,我们将看到更多更高精度运行,因为其他人在 AI 建模训练利用了集群力量。 论文:PowerAI DDL ?...该通信算法以函数库形式实现,因此它十分易于使用。该软件库已经集成到 TensorFlow、Caffe 和 Torch

71950

神奇Batch Normalization 仅训练BN层会发生什么

也就是说,ResNets可以通过仅训练批标准化层gamma(γ)和beta(β)参数CIFAR-10数据集中获得不错结果。...从数字上讲,我使用ResNet-50、101和152架构获得了45%,52%和50%Top-1精度,这远非完美,但也并非无效。 在下文中,我概述了批标准化概念以及其常见解释。...代码,我使用Tensorflow 2和我自己选择超参数来尽可能短地重新复现了论文中主要实验。...更详细地,我测试了以下命题: ResNet模型,除了批标准化层参数所有其他权重已经被锁定情况下,模型仍然可以CIFAR-10数据训练良好结果。...我们有限训练过程,这过于对称所以无法通过梯度下降进行训练。而是按照论文中建议,使用“ he_normal”初始化。为此,我们训练之前手动重新初始化“批标准化”权重。

90410

90秒训练AlexNet!商汤刷新纪录

2018 年 7 月,腾讯机智机器学习平台团队 ImageNet 数据上仅用 4 分钟训练好 AlexNet、6.6 分钟训练ResNet-50;11 月,索尼刷新 ImageNet 数据训练...研究者使用该方法 512 个 GPU 上训练 ImageNet/AlexNet,获得了 410.2 加速比, 1.5 分钟内完成了 95-epoch 训练,超过已有方法。...因此出现了很多分布式 DNN 系统(如 TensorFlow 和 PyTorch)可以通过数据并行策略集群上进行并行化 DNN 训练,即一个模型在所有 GPU 上同时运行,但它们处理是不同部分训练数据...为评估系统性能,研究者 ImageNet-1K 数据上对两个经典 DNN(AlexNet 和 ResNet-50训练时间进行评估。该数据包含超过 120 万张标注图像和 1000 个类别。...两种集群,每台物理机器都配备 8 个 GPU,同一台机器所有 GPU 通过 PCIe 连接,集群所有机器通过 56Gbps InfiniBand 连接,这些机器共享分布式文件系统,用于训练数据管理

90711

DHVT:数据上降低VIT与卷积神经网络之间差距,解决从零开始训练问题

该操作对输入特征进行了缩放和移位,其作用类似于归一化,使训练性能在小数据上更加稳定。 SOPE整个流程可以表述如下。 这里α和β为可学习参数,分别初始化为1和0。...它极大地减少了小型数据上从头开始训练性能差距,并且比标准 CNN 收敛得更快。还使用了与来自 SENet SE 模块类似的机制。 Xc、Xp 分别表示类标记和补丁标记。...缺乏训练数据情况下,每个通道组表征都太弱而无法识别。 HI-MHSA,每个d维令牌,包括类令牌,将被重塑为h部分。每个部分包含d个通道,其中d =d×h。...需要说明是:论文和模型重点是数据上从零开始训练。 结果展示 1、DomainNet & ImageNet-1K DomainNet上,DHVT表现出比标准ResNet-50更好结果。...当采用这三种修改时,获得了+13.26精度增益,成功地弥合了与CNN性能差距。 4、可视化 不同head令牌不同补丁上激活 作者:Sik-Ho Tsang

19330

90秒训练AlexNet!商汤刷新纪录

2018 年 7 月,腾讯机智机器学习平台团队 ImageNet 数据上仅用 4 分钟训练好 AlexNet、6.6 分钟训练ResNet-50;11 月,索尼刷新 ImageNet 数据训练...研究者使用该方法 512 个 GPU 上训练 ImageNet/AlexNet,获得了 410.2 加速比, 1.5 分钟内完成了 95-epoch 训练,超过已有方法。...因此出现了很多分布式 DNN 系统(如 TensorFlow 和 PyTorch)可以通过数据并行策略集群上进行并行化 DNN 训练,即一个模型在所有 GPU 上同时运行,但它们处理是不同部分训练数据...为评估系统性能,研究者 ImageNet-1K 数据上对两个经典 DNN(AlexNet 和 ResNet-50训练时间进行评估。该数据包含超过 120 万张标注图像和 1000 个类别。...两种集群,每台物理机器都配备 8 个 GPU,同一台机器所有 GPU 通过 PCIe 连接,集群所有机器通过 56Gbps InfiniBand 连接,这些机器共享分布式文件系统,用于训练数据管理

66820

谷歌开发新模型EfficientNets,缩放CNN精度与效率超越现有模型

编译 | 老张 发布 | ATYUN订阅号 卷积神经网络(CNN)通常以固定资源成本开发,然后进行缩放,以便在获得更多资源时得到更好精度。...传统模型缩放方法是任意增加CNN深度或宽度,或者使用较大输入图像分辨率进行训练和评估。虽然这些方法确实提高了精度,但它们通常需要繁琐手动调优,而且常常会产生次优性能。...如果我们能找到一种更有原则方法来缩放CNN,以获得更好精度和效率,那将会怎样呢? 与任意缩放网络尺寸传统方法(例如宽度,深度和分辨率)不同,该方法使用固定缩放系数集合均匀地缩放每个维度。...模型大小与精度比较 尽管EfficientNetsImageNet上表现良好,但它们也应该迁移到其他数据。为了评估这一点,我们八个广泛使用转移学习数据上测试了EfficientNets。...EfficientNets8个数据集中5个实现了最先进精度,例如CIFAR-100(91.7%)和Flowers(98.8%),参数减少了一个数量级(参数减少了21倍),这表明我们EfficientNets

59230

至强秘笈 | DL Boost,以低精度成就高效率魔术师

商业化深度学习应用纷纷落地今天,用户既有算力储备正受到前所未有的挑战。 传统上,大多数深度学习应用在其训练和推理工作负载多采用32位浮点精度(FP32)。...高精度数据格式固然能带来更精确结果,但囿于系统内存带宽等限制,深度学习执行操作时,往往易陷入内存瓶颈而影响计算效率。...图一 不同数据格式对内存利用率影响 近年来已有众多研究和实践表明,以较低精度数据格式进行深度学习训练和推理,并不会对结果准确性带来太多影响[2],而低精度数据格式带来优势,也不仅在于提升内存利用效率...“工程车(数据量)”,当不同规格工程车装载量(即精度)上差别对结果几乎不会有什么实质影响时,新指令无疑能使计算效率获得大幅提升。...据实测:与FP32相比,使用BF16加速后ResNet-50训练性能提升1.64倍,DLRM训练性能提升1.4倍,ResNeXt-101 32x4d训练性能也提升1.6倍[6]。

94920
领券