当你寻找一张几年前某次野餐拍摄的照片时,你肯定不记得相机设置的文件名是“2017-07-0412.37.54.jpg”。
近年来,移动互联、大数据等新技术飞速发展,倒逼传统行业向智能化、移动化的方向转型。随着运营集约化、数字化的逐渐铺开,尤其是以OCR识别、数据挖掘等为代表的人工智能技术逐渐深入业务场景,为用户带来持续的经济效益和品牌效应。图书情报领域作为提升公共服务的一个窗口,面临着新技术带来的冲击,必须加强管理创新,积极打造智能化的图书情报服务平台,满足读者的个性化需求。无论是高校图书馆还是公共图书馆,都需加强人工智能基础能力的建设,并与图书馆内部的信息化系统打通,优化图书馆传统的服务模式,提升读者的借阅体验。
已有的基于深度学习的行人再辨识方法主要关注单张图的特征学习,其训练好的模型是固定的,在面对没见过的场景时缺乏自适应性。为此,迁移学习被大量地研究并用于增强模型在新场景下的适应性,但其代价是针对特定场景的应用需要深度学习训练。
视频活动定位(Video activity localisation)因其在自动定位未修剪和非结构化视频中,根据语言描述定位最显著视觉片段方面的实际价值,获得了越来越多的关注。对于监督模训练,必须对一个句子对应视频段的开始和结束时间进行时间标注。这种标注不仅代价非常大,而且对模糊性和主观注释偏差也很敏感。
传统图像分类算法的两种方法:SIFT特征+KNN分类器和HOG特征+SVM分类器。
针对无法获得原始数据情况,为消除数据依赖的同时获得比较好的量化效果。本文贡献在于:
a、 A Unified VL Formulation and Architecture GLIPv2的关键是classification-to-matching技巧,它将任何task-specific fixed-vocab分类问题重新表述为task-agnostic open-vocabulary视觉语言匹配问题,例如CLIP中将图像分类重新表述为图像-文本匹配,使模型可以直接从原始的大量的图像-文本对数据中学习,实现了强大的zero-shot效果。在GLIPv2中,将传统视觉模型中的语义分类线性层替换为视觉语言匹配点积层。 如图1,GLIPv2由一个双编码器
Transformer可以通过注意力模块捕获长期依赖关系,并在自然语言处理任务中显示出巨大的成功。近年来,Transformer也被用于计算机视觉任务,用于图像分类、目标检测、语义分割、特征匹配等。通常情况下,图像被分成几个小的patches,这些小patches被Flatten并作为单词符号输入Transformer,以评估注意力得分。而在Token数量上,即图像patch的数量上,Transformer的计算复杂度是二次的。因此,将Transformer应用于计算机视觉应简化所涉及的计算。
Learn how to classify images with TensorFlow 使用TensorFlow创建一个简单而强大的图像分类神经网络模型 by Adam Monsen ▌引言 由于深度学习算法和硬件性能的快速发展,研究人员和各大公司在图像识别,语音识别,推荐引擎和机器翻译等领域取得了长足的进步。六年前,在计算机视觉领域首先出现重大突破,这其中以CNN模型在ImageNet数据集上的成功为代表。两年前,Google Brain团队开源TensorFlow,使得我们可以灵巧快速地开发自己的
Learn how to classify images with TensorFlow 使用TensorFlow创建一个简单而强大的图像分类神经网络模型 by Adam Monsen ▌引言 ---- 由于深度学习算法和硬件性能的快速发展,研究人员和各大公司在图像识别,语音识别,推荐引擎和机器翻译等领域取得了长足的进步。六年前,在计算机视觉领域首先出现重大突破,这其中以CNN模型在ImageNet数据集上的成功为代表。两年前,Google Brain团队开源TensorFlow,使得我们可以灵巧快速地
基于深度学习的目标检测获得了很大的方法。这些方法基本上假定可以获得大规模的训练标签,训练和测试数据服从理想的分布。然而这两个假设在实际中通常不满足。深度域适配目标检测做为一种新的学习范式开始出现,来解决上述问题。这篇文章旨在对最先进的域适配目标检测方法进行综述。首先,我们简要介绍域适配的概念。第二,深度域适配检测器可以分为四类,并提供了每个类别中有代表性的方法的详细说明。最后给出了将来的研究趋势。
图像到图像转化(I2I)任务旨在学习一个条件生成函数,将图像从源域转换到目标域,同时保留源域内容并迁移目标概念。
本系列为 斯坦福CS231n《深度学习与计算机视觉(Deep Learning for Computer Vision)》的全套学习笔记,对应的课程视频可以在 这里 查看。更多资料获取方式见文末。
在大模型本地化开发方案的设计上,浪潮信息掌握了先进的开发能力。日前,浪潮信息AIStation智能业务创新生产平台与北京智源人工智能研究院大模型算法、模型及工具开源项目FlagAI完成兼容性互相认证,该项目将可有效降低企业大模型开发应用门槛且有效提高大模型开发效率。
项目主页:sailor-z.github.io/projects/CLNet.html
来源:DeepHub IMBA本文约2500字,建议阅读5分钟机器学习最近取得了很大的进展,但仍然有一个主要的挑战:需要大量的标记数据来训练模型。 有时这种数据在现实世界中是无法获得的。以医疗保健为例,我们可能没有足够的x光扫描来检查一种新的疾病。但是通过少样本学习可以让模型只从几个例子中学习到知识! 所以少样本学习(FSL)是机器学习的一个子领域,它解决了只用少量标记示例学习新任务的问题。FSL的全部意义在于让机器学习模型能够用一点点数据学习新东西,这在收集一堆标记数据太昂贵、花费太长时间或不实用的情况下
物体姿态估计在许多现实世界应用中起到至关重要的作用,例如具身智能、机器人灵巧操作和增强现实等。
OpenCV是一款广泛应用于计算机视觉和图像处理领域的开源库。本文将引导读者通过Python使用OpenCV 4.0以上版本,实现一系列机器学习与计算机视觉的应用,包括图像处理、特征提取、目标检测、机器学习等内容。最终,我们将通过一个实战项目构建一个简单的人脸识别系统。
线性分类 上一篇笔记介绍了图像分类问题。图像分类的任务,就是从已有的固定分类标签集合中选择一个并分配给一张图像。我们还介绍了k-Nearest Neighbor (k-NN)分类器,该分类器的基本思想是通过将测试图像与训练集带标签的图像进行比较,来给测试图像打上分类标签。k-Nearest Neighbor分类器存在以下不足: 分类器必须记住所有训练数据并将其存储起来,以便于未来测试数据用于比较。这在存储空间上是低效的,数据集的大小很容易就以GB计。 对一个测试图像进行分类需要和所有训练图像作比较,算法计算
线性分类 上一篇笔记介绍了图像分类问题。图像分类的任务,就是从已有的固定分类标签集合中选择一个并分配给一张图像。我们还介绍了k-Nearest Neighbor (k-NN)分类器,该分类器的基本思想是通过将测试图像与训练集带标签的图像进行比较,来给测试图像打上分类标签。k-Nearest Neighbor分类器存在以下不足: 1. 分类器必须记住所有训练数据并将其存储起来,以便于未来测试数据用于比较。这在存储空间上是低效的,数据集的大小很容易就以GB计。 2. 对一个测试图像进行分类需要和所有训练图像作
计算机视觉和机器学习的融合为我们带来了前所未有的机会和挑战。从智能助手到自动驾驶,OpenCV 4.0+Python提供了强大的工具来实现各种应用。本文将带您深入探索如何在实际项目中应用这些技术,为您打开计算机视觉与机器学习的大门。
本文来自旷视科技南京研究院研究员赵博睿在知乎上发表的文章,他主要研究领域为目标检测。本文上半篇将针对mmAP这一经典的目标检测评价指标详细解析其定义初衷和具体计算方式;下半篇将继续分析mmAP的特点,并介绍针对这些特点现有方法如何“hack” mmAP,最后将提出几个mmAP未考虑到的评测要素。仅抛砖引玉,期待诸君有更优评价指标的提出。
近几年,随着深度学习的大热,许多研究攻克了如何从单张图片生成3D模型。从某些方面似乎再次验证了深度学习的神奇——doing almost the impossible。
选自medium 机器之心编译 机器之心编辑部 Faster R-CNN、R-FCN 和 SSD 是三种目前最优且应用最广泛的目标检测模型,其他流行的模型通常与这三者类似。本文介绍了深度学习目标检测的
传统的UI自动化框架(UIAutomator、Espresso、appium等),或多或少在这些方法做的不够完美。
图像分类的任务,就是从已有的固定分类标签集合中选择一个并分配给一张图像。我们还介绍了k-Nearest Neighbor (k-NN)分类器,该分类器的基本思想是通过将测试图像与训练集带标签的图像进行比较,来给测试图像打上分类标签。k-Nearest Neighbor分类器存在以下不足:
作者:金克丝 (在读博士) 方向:多模态学习 学校:南京理工大学 「收录情况」:CVPR-2022 「论文链接」:https://arxiv.org/abs/2112.03857 「代码链接」:https://github.com/microsoft/GLIP 问题 方案 主要贡献 Grounded Language Image Pre-training a、Unified Formulation b、Language-Aware Deep Fusion c、Pre-training with Scala
对语义分割来讲基于卷积神经网络的方法,依赖像素级ground-truth标记,但是对未知领域可能泛化效果并不好。因为标记过程是沉闷和耗时的,开发将源ground truth标记到目标域引起了很大的关注。本文我们提出一种对抗训练方法在语义分割的内容中进行域适配。考虑语义分割作为结构输出包含源域和目标域的空间相似性,在输出空间中,我们采用对抗训练。为了进一步增强适配模型,我们构建一个多层对抗网络,在不同特征级别上有效的执行输出空间域适配。一系列的实验和消融研究在不同域适配下进行,包括合成到真实和跨城市场景。我们表明提出的方法在精度是视觉质量方面,超过了现有的最先进的方法。
在这篇文章中,我将概述用于基于卷积神经网络(CNN)的目标检测的深度学习技术。目标检测是很有价值的,可用于理解图像内容、描述图像中的事物以及确定目标在图像中的位置。
进入2017年之后,深度学习计算机视觉领域有了新的发展。在以往的研究中,深度神经网络往往是单任务的,比如图像分类(AlexNet, VGG16等等),图像分割(以FCN为代表的一众论文),目标检测(R-CNN,Fast R-CNN和Fatser R-CNN,以及后来的YOLO和SSD,目标检测领域已经实现多任务)。而在最新的研究中,上述的任务往往被集成了,通过一个框架完成,代表就是实例分割。先来看看实例分割的例子:
编译 | 庞佳 责编 | Leo 出品 | 人工智能头条(公众号ID:AI_Thinker) 【AI 科技大本营按】本文编译自 Adrian Rosebrock 发表在 PyImageSearch 上的一篇博文。该博文缘起于一位网友向原作者请教的两个关于目标检测的问题: 如何过滤或忽略我不感兴趣的类? 如何在目标检测模型中添加新的类?这是否可行? Adrian Rosebrock 认为这两个问题是学习目标检测的同学经常问到的问题,于是创作了本篇文章统一回答。 以下为博文摘录,AI 科技大本营编译: 具体来
AI 科技大本营按:本文编译自 Adrian Rosebrock 发表在 PyImageSearch 上的一篇博文。该博文缘起于一位网友向原作者请教的两个关于目标检测的问题:
📷 向AI转型的程序员都关注了这个号👇👇👇 机器学习AI算法工程 公众号:datayx 在命名实体识别领域,基于神经网络的实现方法是非常流行和常用的。举个例子,该文讲述的用词嵌入和字嵌入的BiLSTM-CRF模型就是其中一种。我将以该模型为例解释CRF层的工作原理。 如果你不知道BiLSTM 和 CRF的实现细节,只需要记住他们是命名实体识别模型中两个不同的层。 我们规定在数据集中有两类实体,人名和组织机构名称。所以,其实在我们的数据集中总共有5类标签: B-Person (人名的开始部分) I
计算机视觉的一个主要任务是理解视觉场景,要理解视觉场景就要涉及到一系列主要的视觉任务包括对象检测与识别、图像语义描述、场景分割、场景属性与特征描述等。ImageNet与Pascal VOC数据集主要关注图像分类、对象检测与图像语义分割,而COCO主要关注图像场景与实例分割。
【AI100 导读】上周 TensorFlow 1.0 的发布使之成为最有前景的深度学习框架,也在中国 AI 社区中掀起了学习 TensorFlow 的热潮,不过光跑例子怎能脱颖而出?本文是数据科学公司(Silicon Valley Data Science)的数据工程师 Matt Rubashkin 的一篇实战派文章,介绍了他如何创造性的将深度学习与物联网结合起来解决一个实际问题的思路和过程,非常具有启发性。 SVDS(Silicon Valley Data Science)曾使用过实时、公开的数据来优化
引言 在之前学习机器学习技术中,很少关注特征工程(Feature Engineering),然而,单纯学习机器学习的算法流程,可能仍然不会使用这些算法,尤其是应用到实际问题的时候,常常不知道怎么提取特征来建模。 特征是机器学习系统的原材料,对最终模型的影响是毋庸置疑的。 特征工程的重要意义 数据特征会直接影响你使用的预测模型和实现的预测结果。准备和选择的特征越好,则实现的结果越好。 影响预测结果好坏的因素:模型的选择、可用的数据、特征的提取。 优质的特征往往描述了数据的固有结构。 大多数模型都可以通过数据中
翻译:吴金笛 校对:郑滋 本文约4600字,建议阅读12分钟。 本文明确了多标签图像分类的概念,并讲解了如何构建多标签图像分类模型。 介绍 你正在处理图像数据吗?我们可以使用计算机视觉算法来做很多事情
本文将介绍使用OpenCV实现多角度模板匹配的详细步骤 + 代码。(来源公众号:OpenCV与AI深度学习)
CVPR2018: Unsupervised Cross-dataset Person Re-identification by Transfer Learning of Spatio-tempora
生成对抗网络(GAN)自其诞生以来一直盛行。它的一个最显著的成功在于是用各种各样的卷积结构生成逼真的自然图像。
本项目基于chatterbot0.8.7来开发,但不仅于此。让我们先对chatterbot做一个简单的了解。
基于深度学习的算法在图像和视频识别任务中取得了广泛的应用和突破性的进展。从图像分类问题到行人重识别问题,深度学习方法相比传统方法表现出极大的优势。与行人重识别问题紧密相关的是行人的多目标跟踪问题。
Frechet Inception 距离得分(Frechet Inception Distance score,FID)是计算真实图像和生成图像的特征向量之间距离的一种度量。
本论文标题《A Contactless Fingerprint Recognition System》
对于 ES,当我们了解了 mapping 和 analysis 的相关内容之后,使用者更关心的问题往往是如何构建查询语句从而搜索到自己想要的数据。因此,本文将会介绍 Query DSL 的相关内容。
作者:JasonDing1354 引言 在之前学习机器学习技术中,很少关注特征工程(Feature Engineering),然而,单纯学习机器学习的算法流程,可能仍然不会使用这些算法,尤其是应用到实际问题的时候,常常不知道怎么提取特征来建模。 特征是机器学习系统的原材料,对最终模型的影响是毋庸置疑的。 特征工程的重要意义 数据特征会直接影响你使用的预测模型和实现的预测结果。准备和选择的特征越好,则实现的结果越好。 影响预测结果好坏的因素:模型的选择、可用的数据、特征的提取。 优质的特征往往描述了数据的固有
我们提出了基于区域的全卷积网络,用于精确和有效的目标检测。与之前的基于区域的检测器(如Fast/Faster R-CNN)相比,我们的基于区域的检测器是全卷积的,几乎所有计算都在整个图像上共享。为了实现这一目标,我们提出了位置敏感的分数映射来解决图像分类中的平移不变性与目标检测中的平移方差之间的矛盾。因此,我们的方法可以很自然地采用完全卷积的图像分类器骨干网络,如最新的残差网络(ResNets),用于目标检测。我们使用101层ResNet在PASCAL VOC数据集上显示了很有竞争的结果(例如,在2007年的集上显示了83.6%的mAP)。同时,我们的结果在测试时的速度为每张图像170ms,比Faster R-CNN对应图像快2.5-20倍。
领取专属 10元无门槛券
手把手带您无忧上云