展开

关键词

精选论文 | 【附打包下载】

关注文章公众号 回复SFFAI29论文获取本主题精选论文论文推荐最近,技术越来越受到社会各界的关注。 技术不仅可以实现“换”、“编辑”等娱乐效果,而且能够有效提高识别等技术的性能。今天,两位主讲嘉宾为大家精选了中的几篇代表性的工作,和大家一起学习分享最新的研究进展。 1推荐理由:本文提出了PGGAN模型,并首次了视觉效果极为逼真的超高分辨率。PGGAN的核心思想在于逐级生,在训练过程中分辨率不断提高。 如1所示,第一列是输入的30岁以下的片,右侧三列依次是转换后的31-40,41-50以及50+的片,可以看出随着年龄的增长,头发逐渐变白,皱纹出现并逐渐加深,符类的认知。 该方法在传统的基于老化基础上,加入了a) 时序信息(由于是视频生),b)使用了强化学习搜索最近邻,来辅助老化。Figure 3. 视频年龄转换效果。第四行是该方法生的结果。

45364

最强AI技术:一张

Head Models”,该模型的训练基于少量(few-shot),可以生物头开口说话的动。 具体来说,给定一组面部特征点,能够逼真的个性化头部以至于动画。这种能力具有远程呈现的实际应用,包括视频会议、多游戏、以及特效行业。 当然,除了要提供新目标的一些样本,还需要提供新目标的面部特征过程是以这些目标面部特征为条件的。 其中生器还是根据面部特征视频帧,只不过对应具体物的生器参数会和原来的一般物参数共同优化,以学习生目标物的某些特征。 实验结果使用从同一个的不同视频序列(左侧)作为源帧,并使用不同物的面部特征(右侧)来驱动的结果。左侧的说话状态的头部模型使用8帧进行训练,而右侧的模型则以一次性方式进行训练。

3K20
  • 广告
    关闭

    云产品限时秒杀

    云服务器1核2G首年38元,还有多款热门云产品满足您的上云需求

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    深度卷积生对抗网络的无监督学习,补全匹敌真实照

    计算机视觉,尤其是识别、生这块是最近的热点。Github 用户 saikatbsk 做了一个项目,使用深度卷积生对抗网络进行补完,取得了非常不错的效果。? 作者 saikatbsk 使用包含印度演员的数据集训练网络。下展示了他的网络在高性能 GPU 上训练100,000 步以后,由生器生的一些,效果实在一般:? 下显示的是经过 5 个阶段(epoch)训练后,系统生的卧室。可以看出,通过在多个样本中重复纹理导致了欠拟(under-fitting)的迹象。? 此外,我们将学到的特征用于新的任务——展示了将其作为通用表征的适用性。在上的计算,下面的片全部是计算机生的:? DCGAN 论文地址:https:arxiv.orgpdf1511.06434.pdfDCGAN Github 地址:https:github.comNewmudcgan_code)补全项目

    76960

    DCGAN:深度卷积生对抗网络的无监督学习,补全匹敌真实照片

    计算机视觉,尤其是识别、生这块是最近的热点。Github 用户 saikatbsk 做了一个项目,使用深度卷积生对抗网络进行补完,取得了非常不错的效果。? 作者 saikatbsk 使用包含印度演员的数据集训练网络。下展示了他的网络在高性能 GPU 上训练100,000 步以后,由生器生的一些,效果实在一般:? 下显示的是经过 5 个阶段(epoch)训练后,系统生的卧室。可以看出,通过在多个样本中重复纹理导致了欠拟(under-fitting)的迹象。? 此外,我们将学到的特征用于新的任务——展示了将其作为通用表征的适用性。在上的计算,下面的片全部是计算机生的: ? DCGAN 论文地址:https:arxiv.orgpdf1511.06434.pdf DCGAN Github 地址:https:github.comNewmudcgan_code )补全项目

    67140

    不得不说,和融真是一个很神奇的技术。因此我准备用好几篇文章对此做一些详细的介绍。 其实它是由两张照片中不同的部分按一定顺序叠加而的,大家可以看看下面的源:?只要我们先放上左的背景,再叠加比尔盖茨的,最后再叠加左的前景,就可以出最终的。 ,如下,这应该是在原始的物和狗狗身上粘贴了很多纹理的。? 由于上面使用的Mask是二值的,因此融很不自然,大家从融也可以看出?如果对Mask做稍稍的羽化,效果就会好很多,见下。 有时候我们希望将两张照片重叠到一起生一张照片,例如下面两张照片:?怎么融它们呢?有很多想出了一些聪明的方法。现在介绍一种:第1步:生两张的distance transform?

    64340

    MDFR :基于复原和转正联模型的识别方法

    为了应对这些挑战,之前的识别方法通常先把低质量的恢复高质量,然后进行识别。然而,这些方法大多是阶段性的,并不是解决识别的最优方案。 实验表示,训练完之后的MDFR可以通过一个单一化的网络,一次性地从多重低质量因素影响的侧面中恢复其高清的正面,并有效的提高算法的识别率。 在实际应用中,采集到的可能包含大姿态,不良光照,低分辨率以及模糊和噪声等,这些影响质量的因素可能导致识别应用的失败。 为了解决这些问题,已经有很多方法使用分阶段模型来分别处理相应的低质量因子影响的,即首先将低质量恢复高质量的,随后进行转正并用于识别。 FRN网络的作用是将低质量重建为高质量,而FFN网络将FRN生的侧进行转正。

    11620

    C++ OpenCV提取

    前言《C++ OpenCV Contrib模块LBF特征点检测》文章中已经介绍了特征点的检测,本篇文章是在原代码的基础上实现的提取。?实现效果? 从上上可以看到,左边蓝色方框里面是截取的,然后在的基础上针对特征点选定区域,最后生右边圆框中的。 #实现方式1使用DNN检测到并截取部分区域2在截取的区域中检测68个特征点3针对68个特征点实现凸包检测形掩膜4根据掩膜提取信息 关于68个特征点?微卡智享? 上中介绍了特征点的几个关键位置: 位置点的范围左侧下巴轮廓0-7下巴8右侧下巴轮廓9-16左侧眉毛17-21右侧眉毛22-26鼻梁区域27-30 ‍鼻底区域31-35左眼36-41右眼42-47嘴唇外缘 48-59嘴唇内缘60-67 关键点鼻尖 30 鼻根 27 下巴 8 左眼外角 36 左眼内角 39 右眼外角 45右眼内角 42 嘴中心 66 嘴左角 48 嘴右角 54 左最外 0 右最外

    39630

    Linux下QT配OpenCV完处理(实现基本的检测)

    blog.csdn.netxiaolong1126626497articledetails105278882二、建立QT工程加入OpenCV依赖库下面编写例子很简单,使用OpenCV自带的分类器,检测一张中的 opencv源码自带的检测分类器目录:opencv-3.4.9datahaarcascades_cudahaarcascade_frontalface_alt2.xml xxx.pro工程文件代码: #define source_pix_addr mnthgfslinux-share-dir1.jpg 检测代码void Widget::opencv_face(){ static CvMemStorage ERROR: Could not load classifier cascaden ); return ; } 创建内存空间 storage = cvCreateMemStorage(0); 加载需要检测的片 , colors, 3, 8, 0 ); } show_face(img); 显示检测的结果 cvReleaseImage(&gray); cvReleaseImage(&small_img); 释放

    5610

    Github 项目推荐 | 由文本生 —— T2F

    T2F 结了最近的两个架构 StackGAN 和 ProGAN,用于从文本描述中面部,该项目使用 Face2Text 数据集,每个数据集包含 400 个和文字说明。 LSTM 网络能够将文本描述编码为摘要向量,中所示的嵌入(psy_t)通过调节增强块(单个线性层)以获得 GAN 作为输入的潜在向量的文本部分(使用类似重新参数化技术的VAE)。 运行代码代码存在于 implementation 子目录中,该实现已经用 PyTorch 完。因此,为了运行此代码,请安装 PyTorch 0.4.0。

    32920

    分区域,这个新方法实现了的「精准整容」

    是近来非常热门的研究领域,世界各地的研究者为这一任务提出了许多不同的框架和算法,只为能出更具真实感的。 阿卜杜拉国王科技大学和卡迪夫大学的研究者近日提出了一种新改进方案 SEAN,能够分区域对的内容进行控制和编辑(比如只更换眼睛或嘴),同时还能得到更灵活更具真实感的结果。 研究者利用 SEAN 进行的具体展示效果可参考如下视频:每个区域风格的编码和控制给定一张输入风格及其对应的分割掩码,下面将介绍:1)如何根据掩码注入每个区域的风格;2)如何使用注入后的每区域风格代码具有照片一样的真实感的 实验中使用了这些数据集:1)CelebAMask-HQ,其中包含 CelebAHQ 数据集的 30000 个分割掩码,分为 19 种不同的区域类别;2)ADE20K,包含 22210 张标记了 1:通过风格和分割掩码控制的编辑。(a)源;(b)源的重建结果,其中右下小是分割掩码。

    25530

    分区域,这个新方法实现了的「精准整容」

    本文转载自:机器之心,由熊猫、杜伟编译是近来非常热门的研究领域,世界各地的研究者为这一任务提出了许多不同的框架和算法,只为能出更具真实感的。 阿卜杜拉国王科技大学和卡迪夫大学的研究者近日提出了一种新改进方案 SEAN,能够分区域对的内容进行控制和编辑(比如只更换眼睛或嘴),同时还能得到更灵活更具真实感的结果。 研究者利用 SEAN 进行的具体展示效果可参考如下视频:每个区域风格的编码和控制给定一张输入风格及其对应的分割掩码,下面将介绍:1)如何根据掩码注入每个区域的风格;2)如何使用注入后的每区域风格代码具有照片一样的真实感的 实验中使用了这些数据集:1)CelebAMask-HQ,其中包含 CelebAHQ 数据集的 30000 个分割掩码,分为 19 种不同的区域类别;2)ADE20K,包含 22210 张标记了 1:通过风格和分割掩码控制的编辑。(a)源;(b)源的重建结果,其中右下小是分割掩码。

    13510

    Python+Dlib库实现

    如今,随着技术的不断进步,“变”技术不再是四川喜剧的“独门武功”。运用机器学习的方法,我们同样可以实现“融”。 当然这里说的指的是将两个照片进行融,至于融的比例,要按照自己的喜好来定。给小伙伴们展示效果如下所示:? 程序实现思路: 1、第一步实现检测;要进行的融,且融后两个的位置应该大体一致,这要如何才能做到呢?首先便是的检测,只有检测到了,才能进行接下来的工作。 的检测,采用的是Dlib函数库,帮助我们进行的检测。 2、第二步关键点检测;得到的位置后,接下来就是对于的关键点的定位,什么是关键点的定位呢,说的通俗一点,就是确定片中的关键特征的位置,比如眼睛,嘴巴,鼻子的位置,而这些关键点又被称为Landmark

    23420

    彩色中的检测

    YUV vs YCbCr YUV是基于RGB色彩模型的一种色彩空间,设计初衷是因为对色彩的感知没有对亮度感知灵敏,所以在工业上为了减少片的体积节省信息输送本,有必要把亮度这一分量分离出来,再分离出两个颜色色差分量 大家可以针对同一张片调整手机屏幕亮度,你会发现亮度对你色彩的感知影响是相当大的,这是眼的工作原理。所以我们可以减小两个色差分量的取样进而减少整个片的体积。 YUV的主要目的是在保证显示质量的前提下尽量缩小的体积,而且通过把亮度分量从RGB颜色分量中分离出来也能够使黑白显示设备能够兼容彩色信号。 Face detection in color images 文章里系统的讲解了检测的相关算法。 = double(Image_YCbCr(i, j, 2));%Cb分 指蓝色色度 CrY = double(Image_YCbCr(i, j, 3));%Cr分 红色色度 %double去掉显示的就是灰度

    25720

    TP-GAN 让再获突破,根据单一侧正面逼真

    研究员提出了一个类一样能够考虑整体和局部信息的 GAN 结构,非常逼真且很好地保留了身份特征,并且可以处理大量不同姿势的照片。研究员指出,这些有可能用于分析的任务。? 作者表示,他们这项工作是使用进行识别任务的首次有效尝试。 作者在论文中写道,他们的这项工作主要贡献在于三个方面:1)提出了一个类一样能够考虑整体和局部信息的 GAN 结构,能够根据单一的正面非常逼真且很好地保留了身份特征,而且可以应对大量不同的姿势 在不同的光线条件下的结果。上面一行是结果,下面一行是原始照片。作者指出,这些有可能用于分析的任务。论文 | 超越部旋转:使用整体和局部感知 GAN 生逼真、保留特征的正面? 使用单一逼真的正面部视识别领域中有着广泛的应用。

    1.4K50

    单张重建3D手、

    为了实现这一点,本文使用数千个3D扫描来训练统一的体3D模型,SMPL-X,它通过完全铰接的手和富有表情的来扩展SMPL。没有和标签,直接回归SMPL-X的参数是非常具有挑战性。 3.2 体结构推理有很多方法可以从或RGB-D估计3D,也有很多方法可以从这些数据估计手部。 将SMPL-X拟作为一个优化问题,寻求目标函数的最小值: 其中 , 和 分别为身体,和双手的姿态向量, 是可优化的位姿参数的完整集。身体姿态参数可以表示为 ,其中 低维空间构。 实验结论在这项工作中,本文提出了SMPL-X模型联捕捉身体,和手。此外,本文还提出了SMPLify-X方法,通过SMPL-X拟到单个RGB和2D关键点的方法。 在未来的工作中,本文将创建一个SMPL-X拟的数据集,并用回归器来直接从RGB回归SMPL-X参数。本文相信,这项工作是向从RGB中表达捕捉身体、手和的重要一步。 - END -

    43520

    JPEG检测

    随着计算机和处理技术的发展,采用深度学习技术(例如deepfake)片和视频已经能够达到以假乱真的程度。经过或者篡改的在网络上传播会对公众产生误导,扰乱们的日常生活。 因此需要一种能够检测是否真实的方法。一、背景随着计算机和处理技术的发展,们可以方便的对数字进行编辑修改。过去,对进行修改主要是采用Photoshop等编辑软件进行工编辑。 近年来,随着深度学习技术在处理领域的功应用,对进行编辑变得越来越容易。采用深度学习技术可以方便的对进行去噪,,抠,修改等操作,甚至可以根据需要直接生。 采用深度学习技术(例如deepfake)片和视频已经能够达到以假乱真的程度。经过或者篡改的视频在网络上传播会对公众产生误导,扰乱们的日常生活。因此需要一种能够检测是否真实的方法。 五、总结通过以上分析和实验可以看出,采用对JPEG进行再压缩并观察K-Q?曲线波动性的方法可以有效的检测经过或者篡改的JPEG

    52510

    今日 Paper | Social-STGCNN;说话视频生;食材;光场角度超分辨率等

    目录Social-STGCNN:一种用于行轨迹预测的社会时空卷积神经网络音频驱动的带自然头部姿态的说话视频生用自适应实例归一化将学习从噪声转移到真实噪声去噪CookGAN:食材通过几何感知网络学习光场角度超分辨率 ,但大多数现有的说话视频生方法仅考虑具有固定头部姿势的动画。 本文通过提出一个深度神经网络模型来解决此问题,该模型将源的音频信号A和目标的非常短的视频V作为输入,并输出的高质量说话视频,其具有自然的头部姿势(利用V中的视觉信息),且表情和嘴唇同步(同时考虑 为了从配料中生真实的食品,这篇论文提出了CookGAN,该模型首先建立一个基于注意力的配料-关联模型,然后将其用于调节生食品的神经网络。 此外,CookGAN添加了周期一致约束以进一步改善质量并控制外观。实验表明,CookGAN能生分相对应的食品。??

    33520

    python+opencv 实现检测及视频中的检测

    下载HAAR与LBP数据 2. opencv相关知识 二、python+opencv实现检测 1. 检测 2. 检测 3. 视频中检测 4. detectMultiScale函数:检测算法,其参数如下:image:要检测的输入scaleFactor:表示每次尺寸减小的比例minNeighbors:表示每一个目标至少要被检测到多少次才算是真的 ,因为周围的素和不同的窗口大小都可能检测minSize:表示目标的最小尺寸maxSize:表示目标的最小尺寸 Haar-like矩形特征:是用于物体检测的数字特征。 这类矩形特征模板由两个或多个全等的黑白矩形相邻组,而矩形特征值是白色矩形的灰度值的和减去黑色矩形的灰度值的和,矩形特征对一些简单的形结构,如线段、边缘比较敏感。 检测 import cv2 as cv def face_detection(image): # 转灰度 gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY

    2.2K50

    python+opencv 实现检测及视频中的检测

    下载HAAR与LBP数据2. opencv相关知识二、python+opencv实现检测 1. 检测2. 检测3. 视频中检测4. detectMultiScale函数:检测算法,其参数如下: image:要检测的输入 scaleFactor:表示每次尺寸减小的比例 minNeighbors:表示每一个目标至少要被检测到多少次才算是真的 ,因为周围的素和不同的窗口大小都可能检测 minSize:表示目标的最小尺寸 maxSize:表示目标的最小尺寸Haar-like矩形特征:是用于物体检测的数字特征。 这类矩形特征模板由两个或多个全等的黑白矩形相邻组,而矩形特征值是白色矩形的灰度值的和减去黑色矩形的灰度值的和,矩形特征对一些简单的形结构,如线段、边缘比较敏感。 检测import cv2 as cv def face_detection(image): # 转灰度 gray = cv.cvtColor(image, cv.COLOR_BGR2GRAY

    7620

    医学跨域

    背景这篇文章主要介绍一些基于深度学习的医学的论文,医学跨域一般是指从一种模态转化为另一种模态,包括CT到PET,MR到CT,CT到MR及MRI中T1,T2,FLAIR等之间的转化。 目前用于磁共振到CT的深度学习方法依赖于同一患者的MR和CT训练的两两对齐。然而,的非对准问题会导致CT的误差。 ,而忽略了内容结构的纹理细节,从而影响了的质量。 本文的贡献这篇文章提出了一种基于条件GAN的多对比MRI的方法,实现MRI中T1,T2的相互转化,用对抗损失函数来保持的中高频细节。 医学是解决这一问题的有效方法,可以将缺失的模态从已有的模态中出来。

    41620

    相关产品

    • 图像分析

      图像分析

      腾讯云图像分析基于深度学习等人工智能技术,提供综合性图像理解、图像处理、图像质量评估等服务,包含图像标签、logo识别、动漫人物识别、植物识别等,可以用于智能相册、视频理解、AI营销等场景…..

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券