我正在创建一个应用程序捕捉图像,因为它检测人脸,我能够实现这一点,但只有一个问题,FaceDetectionListener的OnFaceDetection函数即使在相机前面没有人脸也会继续执行。我正在粘贴我的代码。
mCamera.setFaceDetectionListener(new Camera.FaceDetectionListener() {
@Override
public void onFaceDetection(Camera.Face[] faces, Camera camera) {
try {
if
我想在相机的图像上找到一张脸。但是探测器找不到人脸。我的应用程序可以拍照并保存到文件中。
下面的代码创建文件,启动摄像头,并在onActivityResult中尝试检测人脸并将文件路径保存到房间,其保存正确并按预期显示在回收器视图中,但人脸检测器找不到人脸。我该如何解决这个问题呢?
private fun takePhoto() {
val takePictureIntent = Intent(MediaStore.ACTION_IMAGE_CAPTURE)
if (takePictureIntent.resolveActivity(activity?.packageM
我在iPhone应用程序中使用Azure人脸识别API。当我用后摄像头拍照时,它工作得很好,但当我使用正面摄像头时,API无法检测人脸。
我试着把(正面)照片转移到我的笔记本电脑上,并把它拖到文档中的测试区域,在那里可以很好地检测到这张脸。
这让我相信,可能有一些元数据或标志特定于正面的照片,混淆了API?当通过浏览器上传的时候,这些会被剥掉吗?
更新
下面是我如何使用AlamoFire上传文件:
let data = UIImageJPEGRepresentation(photo, 0.5)
let url = "https://.../detect"
let octetHe