人脸识别任务中使用python open cv初始化摄像头出错
import cv2
camera = cv2.VideoCapture(1)
camera.grab()
ret, frame = camera.retrieve()
cv2.namedWindow('frame')
。
OpenCV: out device of bound (0-0): 1
OpenCV: camera failed to properly initialize!
我目前有一些代码可以从Pi Camera Module捕获静止图像,然后使用OpenCV for Python提供的haarcascade xml文件识别人脸。我使用的代码是这篇博客文章末尾显示的代码:,但是它被稍微修改了一下(完全正常工作)。
唯一的问题是,它目前只能识别静止图像上的人脸。有没有办法让我可以连续地从Pi摄像头直接流到OpenCV,然后在窗口中实时处理面孔和面孔周围的显示框,而不是将单个帧保存到文件中?我在网上尝试了几个不同的教程,但它们似乎都对我不起作用。
我正在做一个像人脸识别使用网络摄像头的项目,在这个项目中,我们使用两种类型的相机,如固定对焦(水星高清专业摄像头1080p)和自动对焦相机(罗技C270),实际的事情是在罗技c270与自动对焦的脚本工作很好,但在水星高清专业摄像头1080p效率不高,我的问题是,在水星高清专业摄像头1080p,我们可以工作在固定对焦相机的自动对焦概念。我的脚本是完整的-- opencv python.the code snippet for i make a autofocus function in opencv python
我在iPhone应用程序中使用Azure人脸识别API。当我用后摄像头拍照时,它工作得很好,但当我使用正面摄像头时,API无法检测人脸。
我试着把(正面)照片转移到我的笔记本电脑上,并把它拖到文档中的测试区域,在那里可以很好地检测到这张脸。
这让我相信,可能有一些元数据或标志特定于正面的照片,混淆了API?当通过浏览器上传的时候,这些会被剥掉吗?
更新
下面是我如何使用AlamoFire上传文件:
let data = UIImageJPEGRepresentation(photo, 0.5)
let url = "https://.../detect"
let octetHe