首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Unsupervised Pixel–Level Domain Adaptation with Generative Adversarial Networks

对于许多任务来说,收集注释良好的图像数据集来训练现代机器学习算法的成本高得令人望而却步。一个吸引人的替代方案是渲染合成数据,其中地面实况注释是自动生成的。不幸的是,纯基于渲染图像训练的模型往往无法推广到真实图像。为了解决这一缺点,先前的工作引入了无监督的领域自适应算法,该算法试图在两个领域之间映射表示或学习提取领域不变的特征。在这项工作中,我们提出了一种新的方法,以无监督的方式学习像素空间中从一个域到另一个域的转换。我们基于生成对抗性网络(GAN)的模型使源域图像看起来像是从目标域绘制的。我们的方法不仅产生了合理的样本,而且在许多无监督的领域自适应场景中以很大的优势优于最先进的方法。最后,我们证明了适应过程可以推广到训练过程中看不到的目标类。

04

YOLO再战大雾天气 | IA-YOLO数据增强+感知损失,做到大雾天气无痛即可完成YOLO检测器的场景升级

基于图像增强的技术试图生成无雾图像。然而,从有雾图像中恢复无雾图像比在雾天图像中检测物体要困难得多。另一方面,基于领域适应的方法并不使用目标领域中的标记数据集。这两类方法都在尝试解决一个更难的问题版本。 FogGuard特别设计用来补偿场景中存在的雾天条件,确保即使在雾天也能保持稳健的性能。作者采用YOLOv3作为基准目标检测算法,并引入了一种新颖的“教师-学生”感知损失,以提高雾天图像中的目标检测准确度。 在如PASCAL VOC和RTTS等常见数据集上的广泛评估中,作者展示了作者网络性能的提升。作者证明,FogGuard在RTTS数据集上达到了69.43%的mAP,而YOLOv3为57.78%。 此外,作者表明,尽管作者的训练方法增加了时间复杂度,但在推理过程中与常规的YOLO网络相比,它并没有引入任何额外的开销。

01

Deep Retinex Decomposition for Low-Light Enhancement

Retinex模型是微光图像增强的有效工具。假设观测图像可以分解为反射率和光照。大多数现有的基于retinx的方法都为这种高度病态分解精心设计了手工制作的约束条件和参数,当应用于各种场景时,可能会受到模型容量的限制。在本文中,我们收集了一个包含低/正常光图像对的低光数据集(LOL),并提出了在该数据集上学习的深度视网膜网络,包括用于分解的解分解网和用于光照调整的增强网。在解压网络的训练过程中,分解的反射率和光照没有ground truth。该网络仅在关键约束条件下学习,包括成对低/正常光图像共享的一致反射率和光照的平滑度。在分解的基础上,通过增强网络对光照进行亮度增强,联合去噪时对反射率进行去噪操作。Retinex-Net是端到端可训练的,因此学习的分解本质上有利于亮度调整。大量实验表明,该方法不仅在弱光增强方面具有良好的视觉效果,而且能很好地表征图像的分解。

02

复旦大学提出SemiSAM | 如何使用SAM来增强半监督医学图像分割?这或许是条可行的路!

医学图像分割的目标是从医学图像(如器官和病变)中识别特定的解剖结构,这是为提供可靠的体积和形状信息并协助许多临床应用(如疾病诊断和定量分析)提供基础和重要的一步。尽管基于深度学习的方法在医学图像分割任务上表现出色,但大多数这些方法都需要相对大量的优质标注数据进行训练,而获取大规模的仔细 Token 数据集是不切实际的,尤其是在医学成像领域,只有专家能够提供可靠和准确的分割标注。此外,常用的医学成像模式如CT和MRI是3D体积图像,这进一步增加了手动标注的工作量,与2D图像相比,专家需要逐层从体积切片进行分割。

01

手机实时人工智能之「三维动作识别」:每帧只需9ms

本文提出了一种用于三维卷积神经网络(3D CNN)的模型压缩和移动加速框架 RT3D,通过结合神经网络权重剪枝和编译器代码优化技术,使模型的端到端运行时间与目前支持 3D CNN 的移动框架相比速度提升高达 29.1 倍,准确性损失仅为 1%~1.5%。当在手机上采用 C3D 或 R(2+1)D 模型时,可以在 150ms 内完成 16 帧视频的计算。该工作由 CoCoPIE 团队:美国东北大学(Northeastern University)的王言治研究组、威廉与玛丽学院(William & Mary)的任彬研究组以及北卡罗来纳州立大学(North Carolina State University)的慎熙鹏研究组共同完成,发表于第 35 届美国人工智能协会年会(AAAI 2021)。

02

手机实时人工智能之「三维动作识别」:每帧只需9ms

本文提出了一种用于三维卷积神经网络(3D CNN)的模型压缩和移动加速框架 RT3D,通过结合神经网络权重剪枝和编译器代码优化技术,使模型的端到端运行时间与目前支持 3D CNN 的移动框架相比速度提升高达 29.1 倍,准确性损失仅为 1%~1.5%。当在手机上采用 C3D 或 R(2+1)D 模型时,可以在 150ms 内完成 16 帧视频的计算。该工作由 CoCoPIE 团队:美国东北大学(Northeastern University)的王言治研究组、威廉与玛丽学院(William & Mary)的任彬研究组以及北卡罗来纳州立大学(North Carolina State University)的慎熙鹏研究组共同完成,发表于第 35 届美国人工智能协会年会(AAAI 2021)。

03
领券