在机器学习中,分类器将类别标签分配给数据点。例如,图像分类器针对图像中存在哪些对象产生类别标签(例如,鸟,飞机)。一个卷积神经网络,或CNN的简称,是一种类型的分类,在解决这个问题,其过人之处!
机器之心专栏作者:陈小康 来自北京大学、香港大学和百度的研究者近日提出了一种名为CAE的新型 MIM 方法。 掩码建模方法,在 NLP 领域 (例如 BERT) 得到了广泛的应用。随着 ViT 的提出和发展,人们也尝试将掩码图像建模(MIM)应用到视觉领域并取得了一定进展。在此之前,视觉自监督算法主要沿着对比学习(contrastive learning)的思路去设计,而 MIM 无疑打开了新的大门。 来自北京大学、香港大学和百度的研究者近日提出了一种名为CAE的新型 MIM 方法。该方法通过对 “表征学
对分类算法,其输出结果y只有两种结果{0,1},分别表示负类和正类,代表没有目标和有目标。 在这种情况下,如果用传统的方法以线性拟合
向量化乘法可以帮助更快更直接的运行乘法并求和。将之前的分别乘法并求和直接转换为一步的矩阵乘法。
作者:王千发 编辑:龚 赛 什么是文本分类 1 文本分类在文本处理中是很重要的一个模块,它的应用也非常广泛,比如:垃圾过滤,新闻分类,等等。传统的文本分类方法的流程基本是: 预处理:首先进行分词,然后是除去停用词; 将文本表示成向量,常用的就是文本表示向量空间模型; 进行特征选择,这里的特征就是词语,去掉一些对于分类帮助不大的特征。常用的特征选择的方法是词频过滤,互信息,信息增益,卡方检验等; 接下来就是构造分类器,在文本分类中常用的分类器一般是SVM,朴素贝叶斯等; 训练分类器,后面
深度学习模型通常需要大量有标签数据才能训练出一个优良的分类器。但是,包括医学图像分析在内的一些应用无法满足这种数据要求,因为标注数据需要很多人力劳动。在这些情况下,多任务学习(MTL)可以通过使用来自其它相关学习任务的有用信息来帮助缓解这种数据稀疏问题。
不同的损失函数可用于不同的目标。在这篇文章中,我将带你通过一些示例介绍一些非常常用的损失函数。这篇文章提到的一些参数细节都属于tensorflow或者keras的实现细节。
NO.55 分类算法——Naive Bayes 小可:说完了聚类,那么分类算法又是怎么做的呢? Mr. 王:我们知道,分类是首先通过对训练集中大量数据的分析,训练出一个分类的模型或者说得出一个分类的标准,然后使用这个标准对后面再到来的数据进行分类。所以我们的大部分工作都集中在对训练集的处理上。这里介绍一种经典的分类算法——朴素贝叶斯分类器(Naive Bayes)。这种分类方法非常简单,但是非常有效。 小可:我在学概率论时听说过贝叶斯定理,和这个是一个道理吗? Mr. 王:朴素贝叶斯分类器依据的核心原理就是
本文简要介绍一些最常用的机器学习算法,没有代码,没有抽象理论,只有图片和一些如何使用它们的例子。
之前介绍过神经网络中单层感知器的原理,不清楚的小伙伴可点击?神经网络-感知器进行回顾,本次来通过一个简单的小例子进行感知器的代码实现。 1 训练问题 题目:有正样本(3,3)(4,3),和负样本(1
随着机器学习的复杂度和影响力不断提升,许多人希望找到一些解释的方法,用于阐释学得模型的重要属性 [1, 2]。对模型的解释可能有助于模型满足法规要求 [3],帮助从业人员对模型进行调试 [4],也许还能揭示模型学到的偏好或其他预期之外的影响 [5, 6]。显著性方法(Saliency method)是一种越来越流行的工具,旨在突出输入(通常是图像)中的相关特征。尽管最近有一些令人振奋的重大研究进展 [7-20],但是解释机器学习模型的重要努力面临着方法论上的挑战:难以评估模型解释的范围和质量。当要在众多相互竞争的方法中做出选择时,往往缺乏原则性的指导方针,这会让从业者感到困惑。
我们已经知道应该如何从不同类型的机器学习方法中学习,如监督学习、对比学习等。因此在本讲座中将尝试回答一个问题,即我们应该如何将模型转换为更通用、更灵活、更实时的模型,换句话说,我们应该如何在基础模型之上构建一个通用的解决方案系统。
对于一个学习算法,有着各种各样的调试手段,不同的调试手段可以解决不同的问题,需要根据实际情况进行选择。学习算法的问题大致可以分为两类:「高偏差/方差」问题以及「算法优化」问题。
在学习线性回归的时候,我们已经理解了什么是回归,回归就是确定变量之间相互依赖的定量关系的统计学方法。那么同样,在开始学习Logistic回归模型前,我们先来看看什么是分类问题。
李林 编译整理 量子位 报道 | 公众号 QbitAI 让神经网络理解每个词的意思很容易,但上下文、词语之间的关系,依然是自然语言处理(NLP)中的难题。 Salesforce的一群NLP研究者发现,搞图像识别的同行们有个不错的办法,值得一试。 在图像识别领域,把ImageNet上预训练的CNN拿来,用在其他图像识别模型中,已经成为一种惯例。这种把训练好的模型参数迁移到新模型的方法,也就是这两年大热的迁移学习。 理解上下文,就是一个非常适合迁移学习的问题。 Learned in Translation 我们
随着4G的普及和5G的推出,内容消费的诉求越来越受到人们的重视。2019年互联网趋势报告指出在移动互联网行业整体增速放缓的大背景下,短视频行业异军突起,成为“行业黑洞”抢夺用户时间,尽管移动互联网人口红利见顶,新的增长点难以寻觅,但中国短视频人均使用时长及头部短视频平台日均活跃用户均持续增常(如图1所示)。
您想构建一个没有太多训练数据的机器学习模型吗?众所周知,机器学习需要大量数据,而收集和注释数据需要时间且成本高昂。
在本文中,将介绍用于课堂内Kaggle挑战的方法。花了大约两个星期的时间在挑战赛上,最终提交分数为0.97115,使在最终排行榜上排名第二。
深度学习是机器学习的子集,它基于人工神经网络。学习过程之所以是深度性的,是因为人工神经网络的结构由多个输入、输出和隐藏层构成。每个层包含的单元可将输入数据转换为信息,供下一层用于特定的预测任务。得益于这种结构,机器可以通过自身的数据处理进行学习。
1、如果要对 N 个类别的数据点进行分类,网络的最后一层应该是大小为 N 的 Dense 层。
本课程中[i]表示第i层神经网络,(i)代表第i个样本,而下标i表示某层神经网络上第i个神经元。X是将训练样本横向排列而来,a代表激励输出向量。
这篇文章通过实验一步一步验证了如何从最基础的初始化方法发展到Kaiming初始化方法,以及这之间的动机。
随着搜救需求的不断增加,人们对在无人机(UAV)捕获的大尺度图像中检测感兴趣的物体的需求越来越高,由于物体的尺度极小,这非常具有挑战性。大多数现有方法采用特征金字塔网络(FPN)通过组合深层的上下文特征来丰富浅层的特征。然而,在跨层梯度计算不一致的限制下,FPN中的浅层没有被充分利用来检测微小物体。
之间,我们通常把它拿来作为一个二分类的方案。其输出范围有限,可以用作输出层,优化稳定。
今天为大家介绍的是来自Junbo Zhao团队的一篇论文。常规的机器学习模型评估严重依赖于一个有标签的、假设独立同分布(i.i.d)的测试数据集,而这在现实世界的应用中往往是不存在的。自动模型评估(AutoEval)提供了一种与传统工作流程不同的选择,通过建立一个预测管道来评估测试性能,而不需要真实标签的存在。尽管AutoEval近期取得了成功,但仍存在过度自信、存储和计算成本高的问题。鉴于此,作者提出了一种新的度量方法MDE,使得AutoEval框架更加高效和有效。
专栏《NLP》第一阶段正式完结了。在本专栏中,我们从NLP中常用的机器学习算法开始,介绍了NLP中常用的算法和模型;从朴素贝叶斯讲到XLnet,特征抽取器从RNN讲到transformerXL。这篇文章我们就一起回顾一下这些文章。
从 WaveNet 到 Tacotron,再到 RNN-T,谷歌一直站在语音人工智能技术的最前沿。近日,他们又将多人语音识别和说话人分类问题融合在了同一个网络模型中,在模型性能上取得了重大的突破。
github地址:https://github.com/naver-ai/relabel_imagenet
GoogLeNet在2014年由Google团队提出(与VGG网络同年,注意GoogLeNet中的L大写是为了致敬LeNet),斩获当年ImageNet竞赛中Classification Task (分类任务) 第一名。原论文名称是《Going deeper with convolutions》,下面是该网络的缩略图,由于原论文提供的图太大,我将原图放在博文的最后。
本文分享论文『A free lunch from ViT- Adaptive Attention Multi-scale Fusion Transformer for Fine-grained Visual Recognition』,被称为来自 ViT 的免费午餐!由北大&阿里提出用于细粒度视觉识别的自适应注意多尺度融合Transformer:《AFTrans》。
这篇文章[1]是 PointNet 的改进版。PointNet 是直接将神经网络用于点云数据处理的先锋,虽然 PointNet 在 3D 任务上取得不错的效果,但其还是存在不足。PointNet 忽略了点云数据间的空间局部结构,从而不能很好地识别更细粒度的模型,也不能很好地泛化到复杂的场景。PointNet++ 则针对这个问题,在 PointNet 基础上引入了层级式的嵌套结构来捕获局部特征。此外,真实的点云数据采集往往是不均匀的(因为采样时是从传感器点状发出信号的,自然离传感器近的采样密度高,远的密度低),而这会导致在均匀采样的点云数据集下训练的模型性能产生明显下降。作者在 PointNet++ 中提出了一种新的针对集合数据的学习层,其可以自适应地结合不同尺度下学习到的特征。广泛的实验数据显示 PointNet++ 可以有效且鲁棒地学习到深层的点云数据集合特征,在 3D 点云任务上达到了超越已有的 SOTA 性能。
AI 科技评论按:这篇博客来自 Jetpac(现被谷歌收购) CTO、苹果毕业生、TensorFlow 团队成员 Pete Warden。文中讨论了当要识别的对象出现在图像中的不同位置时,CNN 是如何应对、识别的。Pete Warden 给出的解释也许算不上完善,而且也仍然无法保证能够消除位置的影响,但这是一个不错的开始。AI 科技评论全文编译如下。
一、简介 作为集成学习中非常著名的方法,随机森林被誉为“代表集成学习技术水平的方法”,由于其简单、容易实现、计算开销小,使得它在现实任务中得到广泛使用,因为其来源于决策树和bagging,决策树我
本文介绍了机器学习领域中10种适合初学者的算法,包括线性回归、逻辑回归、决策树、朴素贝叶斯、K-means、随机森林、支持向量机、神经网络、K-NN和PCA。这些算法涵盖了监督学习、非监督学习和集成学习等领域,适用于分类和回归问题。通过对比不同算法的优缺点,本文为初学者提供了选择合适算法的方法,并附上了详细的算法实现步骤和示例代码。
研究人员发现,在神经网络推理的某些数据图中存在尖峰,这些尖峰往往出现在神经网络判断模糊与产生错误的地方。观察这些尖峰,研究人员可以更容易发现人工智能系统中的故障点。
原文来源:KDnuggets 作者:Reena Shaw 「雷克世界」编译:BaymaxZ 📷 我们向初学者介绍十大机器学习(ML)算法,并附上数字和示例,方便理解。 简介 “哈佛商业评论”的一篇文章(https://hbr.org/2012/10/data-scientist-the-sexiest-job-of-the-21st-century)将“数据科学家”评为“21世纪最性感的工作”,对机器学习算法的研究取得了巨大的关注。因此,对于那些机器学习领域的初学者,我们决定重新撰写2016年的一篇金牌博客
知识蒸馏是一种模型压缩方法,是一种基于“教师-学生网络思想”的训练方法,由于其简单,有效,在工业界被广泛应用。这一技术的理论来自于2015年Hinton发表的一篇神作:Distilling the Knowledge in a Neural Network[1]
AI 研习社按:这篇博客来自 Jetpac(现被谷歌收购) CTO、苹果毕业生、TensorFlow 团队成员 Pete Warden。文中讨论了当要识别的对象出现在图像中的不同位置时,CNN 是如何应对、识别的。Pete Warden 给出的解释也许算不上完善,而且也仍然无法保证能够消除位置的影响,但这是一个不错的开始。AI 研习社全文编译如下。
我们向初学者介绍十大机器学习(ML)算法,并附上数字和示例,方便理解。 简介 “哈佛商业评论”的一篇文章(https://hbr.org/2012/10/data-scientist-the-sexiest-job-of-the-21st-century)将“数据科学家”评为“21世纪最性感的工作”,对机器学习算法的研究取得了巨大的关注。因此,对于那些机器学习领域的初学者,我们决定重新撰写2016年的一篇金牌博客——机器学习工程师必须要知道的十大算法(https://www.kdnuggets.com
来自北京大学、香港大学和百度的研究者们近日提出了一种名为 CAE 的新型 MIM 方法。该方法通过对 “表征学习” 和 “解决前置任务(pretext task)” 这两个功能做完全分离,使得 encoder 学习到更好的表征,从而在下游任务上实现了更好的泛化性能。
Google开发的MobileNets【1】是用于嵌入式平台计算机视觉应用的基准模型。MobileNets是流线型的架构,它使用depthwise sparable convolution(深度可分离卷积)来构建轻量级的深层神经网络。通过引入两个简单的全局超参数,可实现在速度和准确度之间有效地进行平衡。这两个超参数允许模型构建者根据问题的约束条件,为其应用选择合适大小的模型。MobileNets应用在广泛的场景中,包括物体检测,细粒度分类,人脸属性等。
翻译过来意思就是:关于图片的维度顺序有两种类型,分别是“th”和”tf“,它们的差别如下:
选自Stanford University 作者:Daniel Kang 等 机器之心编译 参与:熊猫 卷积神经网络在目标检测任务上已经取得了优良的表现,但它们的计算成本比较高、速度比较慢,不适用于大规模的实时视频处理。为了解决这个问题,斯坦福大学的几位研究者提出了一个名叫 NoScope 的系统,将目标检测的速度提升了数千倍。该研究的相关论文和代码也已发布,本文是这些研究者对该项目的介绍文章,机器之心对其进行了编译介绍。 论文地址:https://arxiv.org/abs/1703.02529 项目地址
视频演示:https://mpvideo.qpic.cn/0b2eleaawaaaqeacrtymk5svawodbnmqacya.f10002.mp4?
前一篇文章我们具体讲述了神经网络神经元的基本构造,以及引入了神经网络一些概念性质,有了这些基础我们就能更好的理解每一层神经网络究竟要做什么,如何工作的。
Transformer 模型始终如一地获得最先进的计算机视觉任务,包括对象检测和视频分类。在标准卷积方法中,图像是逐像素处理的。为了获得视觉标记,该方法使用手工设计的分割算法。它需要处理大量密集采样的补丁。
正如你所见,该函数是一条直线或称为线性的。因此,函数的输出不会被限制在任何范围之间。
在图像方面,比如每天出入地铁安检,常常看到小姐姐小哥哥们坐在那盯着你的行李过检图像,类似如下(图来自GANomaly论文):
领取专属 10元无门槛券
手把手带您无忧上云