前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习「黑话」解释

深度学习「黑话」解释

作者头像
mathor
发布2021-11-03 15:11:16
4150
发布2021-11-03 15:11:16
举报
文章被收录于专栏:mathormathor

最近在和研一学弟学妹交流的时候,发现它们对深度学习中一些非常基础的概念不是很理解,于是我想做一个汇总,大家有认为不太好理解的概念,可以在评论区提出,我会逐渐添加到这篇文章中

  • 端到端(end-to-end,end2end):不需要做其他额外处理,从原始数据输入到任务结果输出,整个训练和预测过程,都是在模型里完成的
  • 收敛:一般指的是某些指标(例如损失、准确率等)不再大幅度波动、震荡。例如你看到训练集的loss曲线呈平稳下降,我们就说,训练集loss正在慢慢收敛
  • 分布(distribution):分布不是让你真的去算这个一系列数据属于正态分布还是均匀分布等,而是一种大致的感觉,例如别人和你说,我们的数据分布特别不均衡,这个人所说的数据分布指的就是各个类别样本的数量比例;再比如别人和你说,这个样本的预测概率分布比较均匀,其实他的意思就是这个样本预测的概率向量比较均匀,例如一个二分类问题,那可能就是[0.5,0.5]这样,当然实际上这不是什么好的情况,因为这样我们就不知道这个样本到底该被预测为哪个类别了
  • 维度(dimension):维度分两种情况理解。假设一个人和你说:“这个数据的维度是2维的”,那其实就表示这个数据是一个矩阵;如果一个人和你说:“它的维度是128维”,那其实就表示矩阵中的某一个位置维度是128维的,比如一个句子经过WordEmbedding之后它的维度是[batch_size, seq_len, emb_dim],那么我说emb_dim这个位置的维度是128维的
  • 连续(continuous):一般指的是向量中的值,例如经过WordEmbedding之后,向量里的值肯定都是连续的,例如[1.271, -2.433,...]这种
  • 离散(discrete):同样指的是向量中的值,例如经过WordEmbedding之前,向量里的值肯定都是离散的,因为是每个词对应的索引,例如[0, 78, 32, 54, 1992,...]这种
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档