前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【深度学习 | 核心概念】那些深度学习路上必经的核心概念,确定不来看看?(一)

【深度学习 | 核心概念】那些深度学习路上必经的核心概念,确定不来看看?(一)

原创
作者头像
计算机魔术师
发布2023-09-21 09:08:23
2400
发布2023-09-21 09:08:23
举报
文章被收录于专栏:计算机魔术师
在这里插入图片描述
在这里插入图片描述

<center >【深度学习 | 核心概念】那些深度学习路上必经的核心概念,确定不来看看? (一)

<center> 作者: 计算机魔术师

<center> 版本: 1.0 ( 2023.8.27 )

SOTA 模型

SOTA模型是指当前领域内的最佳模型,全称为"State-of-the-Art"(即技术水平最先进的)模型。它代表了在某个特定任务或领域中目前取得的最好性能。

SOTA模型通常是通过比较不同研究论文、竞赛结果或实验数据来确定的。当一个新模型在特定任务上获得更高的准确度、更低的误差率或其他评价指标时,它将被认为超越了之前被广泛接受和使用的基准模型,并成为该任务领域内新的SOTA模型。

对于机器学习和深度学习领域而言,发展迅速且涌现出许多创新方法和架构。随着时间推移,新提出的算法往往会不断改善并超过以前最好的方法,从而成为新一代SOTA模型。

借助SOTA模型,在各种应用场景下可以获得更精确、有效或鲁棒等方面有所突破,并推动相关领域持续发展。因此,关注和理解当前状态下令人瞩目和优秀的SOTA模型对于跟踪科学进展以及设计自己项目中合适的模型非常重要。

FLOP 度量单位

FLOP是一个常用的度量单位,表示浮点运算(Floating Point Operations)的数量。它通常被用来衡量计算机或计算模型在执行某个任务时所需的计算量大小。

具体而言,FLOP指的是一次浮点运算操作的数量。这种操作可以是加法、减法、乘法或除法等基本数学运算,其中涉及到浮点数(即带有小数部分的数字)。例如,两个浮点数相乘就需要进行一次FLOP。

对于深度学习中使用的神经网络模型,在训练和推理过程中会涉及大量的矩阵乘法和卷积等复杂计算操作。因此,通过统计网络中总共执行了多少次FLOP可以评估其计算复杂性和效率。

实际上,在机器学习领域中经常使用更大规模单位TFLOPs(Tera-Floating Point Operations per Second)来描述每秒钟能够执行十亿亿次浮点运算。这可以作为衡量硬件设备如GPU或TPU速度和处理能力强弱的标准之一。

总结起来,FLOP是指代表浮点运算数量的度量单位,在机器学习领域用于评估任务所需的计算复杂性,并且常见地应用于衡量硬件设备的计算能力。

在TensorFlow 2中,可以使用tf.profiler 来估计模型的FLOP(浮点操作)数量。tf.profiler是一个用于分析和优化TensorFlow性能的工具。

下面是一种估计模型FLOP的常见方法:

导入所需的库:

import tensorflow as tf from tensorflow.python.profiler import profiler_v2 as profiler

构建你想要评估FLOP的模型,并编译它:

model = ... # 在此处构建你的模型 # 编译模型以准备进行推理 model.compile(...)

创建一个Profiler并运行推理过程

profiler.start() # 运行你的数据通过模型进行推理,例如使用model.predict或者自定义训练循环等。 ... profiler.stop()

生成报告并获取FLOP统计信息

profile_result = profiler.profile( tf.get_default_graph(), options=profiler.ProfileOptionBuilder.float_operation(), ) flop_stats = profile_result.total_float_ops print("Total FLOPs: ", flop_stats)

这将为您提供总共执行的浮点操作数(FLOPs)。请注意,这个数字表示了整个推理过程期间执行的所有浮点操作数量。

需要注意以下几点:

在步骤3中,确保在运行前启动Profiler,并在完成后停止它。 步骤4中会打印出总体FLOPs数量。 请确保在安装了TensorFlow 2的环境中运行上述代码。

这是使用TensorFlow 2来估计模型FLOP的简单示例。通过分析模型的FLOP,您可以更好地了解和优化模型性能,并进行比较和选择不同架构或配置的模型。

激活函数的饱和性质

饱和性质的激活函数是指在输入数据较大或较小时,激活函数的导数趋近于0,导致梯度消失或爆炸。这种情况下,神经网络可能会面临训练困难、收敛缓慢等问题。

常见的饱和性质的激活函数有Sigmoid函数和双曲正切(Tanh)函数。它们在输入接近极端值时,导数接近于0。对于Sigmoid函数而言,在输入非常大或非常小时,输出值会趋向于1或-1,并且导数几乎为0;对于Tanh函数而言,在输入非常大或非常小时,输出值也会趋向于1或-1,并且导数同样几乎为0。

相比之下,不饱和性质的激活函数没有上述问题并具有更好的表达能力。

Benchmark & Baseline

在机器学习中,"benchmark"和"baseline"是两个常用的术语,它们在评估模型性能和比较算法效果方面有着不同的含义。

Benchmark(基准)通常指的是已经被广泛接受并公认为具有很高水平最佳性能的模型、算法或数据集。这些基准可以作为参考标准,用来衡量其他新提出的方法或模型是否具备更好的性能。基准模型通常是经过大规模实验验证,并且在特定领域内取得了优秀结果。

例如,在图像分类任务中,ImageNet数据集上训练得到的ResNet网络就成为了一个广泛使用且有效的基准模型。当研究人员提出新的图像分类算法时,他们会将其与ResNet进行比较以评估其相对性能。

Baseline(基线)则表示一种简单但可行的解决方案或模型作为初始点来进行比较。它代表了问题领域内最简单、最容易实现且效果尚可的方法。通过建立一个基线,在之后尝试改进和优化时可以更直观地看到所取得进展

设定一个合适而有意义的baseline非常重要,因为它可以帮助我们衡量新方法的改进程度。如果一个新模型或算法无法超过基线,那么很可能需要重新审视其有效性和可行性。

举个例子,在自然语言处理领域,建立一个简单的词袋模型可以作为baseline来评估更复杂的深度学习模型(如循环神经网络或注意力机制)在文本分类任务上的性能表现。

总结起来,benchmark是已经公认为高水平或最佳性能的参考标准(高手云集),用于比较和评估其他方法;而baseline则是问题领域内最简单、可行但不必然优秀的解决方案,作为初始点进行对比和改进(自我提升)。

我正在参与2023腾讯技术创作特训营第二期有奖征文,瓜分万元奖池和键盘手表

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • SOTA 模型
  • FLOP 度量单位
  • 激活函数的饱和性质
  • Benchmark & Baseline
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档