ICCV 2025 将于 10 月 19 日至 25 日在美国夏威夷举行。刚刚,ICCV 官方向投稿者发送了今年论文接收结果的通知。
YOLO 系列从 v1 一路进化到 v13,始终在追求更快、更准、更轻的目标检测模型。而刚刚发布的 YOLOv13,不仅性能全系领先,还带来了“超图”这个硬核概...
在人工智能蓬勃发展的今天,计算机视觉技术正以前所未有的速度改变着我们的世界。从手机解锁到疾病诊断,从自动驾驶到艺术创作,机器“看懂”图像的能力至关重要。卷积神经...
本文汇总了多篇围绕YOLOv12这一实时目标检测前沿模型的最新研究论文。内容涵盖其核心架构创新(如高效注意力机制、轻量化设计),在特定场景(水下探测、果园绿色水...
关键词:Pupil Labs、眼动追踪、Neon、Pupil Core、计算机视觉、科研工具、人机交互
在智慧交通的演进中,算法的实战能力需通过极端天气、高动态目标、微观标识识别的严苛场景验证。TuSimple、CULane、UA-DETRAC、CCPD四大支柱数...
本文分析 YOLO11 在车辆检测上的性能。相比前代(YOLOv8/v10),YOLO11 通过架构改进提升了速度、精度和在复杂环境(小目标、遮挡)下的鲁棒性。...
在无人机视觉领域,算法的鲁棒性需在动态视角、尺度变化、复杂背景的严苛环境下验证。UAVDT 与 VisDrone 作为全球公认的无人机视角双雄,以其大规模、多维...
2025年计算机视觉与模式识别领域的顶级盛会CVPR刚刚落下帷幕!这场汇聚全球顶尖AI大脑的盛会,再次用无数令人瞠目结舌的突破宣告:我们眼前的世界,正被算法以超...
随着眼动追踪在科研、UX 测试、AR/VR 交互等领域的广泛应用,越来越多的用户开始使用 Pupil Core 平台。在使用过程中,经常会遇到硬件连接、校准失败...
6月6日-8日,第十五届视觉与学习青年学者研讨会 (VALSE 2025)在广东珠海国际会展中心盛大开幕。本届大会由中国图象图形学学会联合主办,中山大学承办,聚...
随着人工智能、人机交互和行为科学的发展,眼动追踪(Eye Tracking)技术逐渐从实验室走向大众应用。Pupil Neon 作为 Pupil Labs 推出...
在计算机视觉、认知神经科学以及人机交互等领域,眼动追踪技术正成为不可或缺的研究工具。作为该领域的前沿企业,Pupil Labs 于近年推出了其全新一代高性能眼动...
90%的YOLO模型性能问题源于数据准备不当!当你的检测模型在真实场景中漏检、误检或泛化失败时,问题可能不在算法本身,而是隐藏在数据预处理和增强的细节中。本文将...
近日,复旦大学联合腾讯优图实验室、上海交通大学等机构发布的Real-IAD D³数据集相关成果已被计算机视觉顶会CVPR 2025收录。
构建高效、智能、安全的现代电网,离不开人工智能视觉技术的深度赋能。无论是自动识别配电房仪表读数、精准检测输电线路上的致命异物,还是实时监控设备绝缘状态、评估潜在...
输电线路上的异物早期检测主要依赖于人工检查,这种方法具有劳动强度高、效率低等特点。随着计算机视觉技术的发展和无人驾驶航空器(UAV)的广泛应用,UAV可以捕捉输...
何恺明团队最新研究出手,给火爆的扩散模型加了个「收纳整理」功能!无需修改模型结构、不增参数、不靠外部数据,仅需一个即插即用的正则化项——Dispersive L...
在实时检测、复杂场景分析、零样本分割需求并存的2025年,YOLO-NAS、DETR、SAM三大架构各领风骚。本文深入剖析三者核心优势、典型短板与最佳适用场景,...
本文提出了一种使用搭载计算机视觉的智能无人机估算蓝莓产量的方法。系统利用两个YOLO模型:一个检测灌木丛,另一个检测浆果。它们协同工作,智能控制无人机位置和角度...