前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >epoch和batchsize设置多大(BatchDataset)

epoch和batchsize设置多大(BatchDataset)

作者头像
全栈程序员站长
发布2022-07-30 09:59:25
发布2022-07-30 09:59:25
2.2K0
举报

大家好,又见面了,我是你们的朋友全栈君。

梯度下降

  这是一个在机器学习中用于寻找最佳结果(曲线的最小值)的迭代优化算法。

  梯度的含义是斜率或者斜坡的倾斜度。

  下降的含义是代价函数的下降。

  算法是迭代的,意思是需要多次使用算法获取结果,以得到最优化结果。在数据很庞大的时候(在机器学习中,几乎任何时候都是),我们才需要使用 epochs,batch size,迭代这些术语,在这种情况下,一次性将数据输入计算机是不可能的。因此,为了解决这个问题,我们需要把数据分成小块,一块一块的传递给计算机,在每一步的末端更新神经网络的权重,拟合给定的数据。

EPOCHS

  当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个 epoch。

  然而,当一个 epoch 对于计算机而言太庞大的时候,就需要把它分成多个小块。

  为什么要使用多于一个 epoch?

  我知道这刚开始听起来会很奇怪,在神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。但是请记住,我们使用的是有限的数据集,并且我们使用一个迭代过程即梯度下降。因此仅仅更新权重一次或者说使用一个 epoch 是不够的。

随着 epoch 数量增加,神经网络中的权重的更新次数也增加,曲线从欠拟合变得过拟合。

  那么,几个 epoch 才是合适的呢?

  不幸的是,这个问题并没有正确的答案。对于不同的数据集,答案是不一样的。但是数据的多样性会影响合适的 epoch 的数量。比如,只有黑色的猫的数据集,以及有各种颜色的猫的数据集。

BATCH SIZE

  一个 batch 中的样本总数。记住:batch size 和 number of batches 是不同的。

  BATCH 是什么?

  在不能将数据一次性通过神经网络的时候,就需要将数据集分成几个 batch。

  正如将这篇文章分成几个部分,如介绍、梯度下降、Epoch、Batch size 和迭代,从而使文章更容易阅读和理解。

  迭代

  理解迭代,只需要知道乘法表或者一个计算器就可以了。迭代是 batch 需要完成一个 epoch 的次数。记住:在一个 epoch 中,batch 数和迭代数是相等的。

  比如对于一个有 2000 个训练样本的数据集。将 2000 个样本分成大小为 500 的 batch,那么完成一个 epoch 需要 4 个 iteration。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/129337.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年4月1,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 梯度下降
  • EPOCHS
  • BATCH SIZE
  •   迭代
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档