展开

关键词

Zynq-7000 肤色

Zynq-7000 肤色 1 背景知 在肤色算法中,常用的颜色空间为Ycbcr,Y代表亮度,cb代表蓝色分量,cr代表红色分量。 在 CbCr空间下,肤色类聚性好,利用工阈值法将肤色与非肤色区域分开,形成二值图像。 2.1 肤色IP的介绍 ? 从总模块图可以看到首先实现rgb颜色空间转ycbcr颜色空间,其次实现肤色。 2.3 实验结果 ? 实验原图1 ? 实验原图2 ? 实验结果图1 ? < 173 调整cb和cr分量的阈值来达到最佳的肤色效果。

33810

-- 活检测(张嘴摇头)

一:简介 最近项目在做了身份证银行卡之后,开始实现和活,其中包括脸入库、脸查找、脸1:N对比、脸N:N对比,另外活运用在安全登录功能。 家都熟知的支付宝使用face++ 的服务来实现,在实际项目中使用了讯飞的SDK进行二次封装来实现活。主要实现了张嘴和摇头两个活动作的。 在实际运用中,有很多app为了高度保证用户使用的安全问题,除了常规的账号密码登录之外,相继实现了指纹登录,手势登录,第三方登陆(QQ、微信、支付宝)、刷脸登录,接下里我就和家分享一下如何实现的活检测 二:实现思路分析 点击按钮,调用相机 CameraRules类,检测相机权限 初始化页面,创建摄像页面,创建张嘴数据和摇头数据 开启,脸部框 脸部部位,脸部判断是否检测到脸 检测到脸之后 脸部部位,脸部判断是否检测到脸 for(id key in keys){ id attr=[landmarkDic objectForKey:key]; if

1.4K10
  • 广告
    关闭

    腾讯云+社区系列公开课上线啦!

    Vite学习指南,基于腾讯云Webify部署项目。

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    还敢闯红灯?工智能智慧城市

    对闯红灯行为现场抓拍 不过随着技术的发展,这个管理难点有可能被攻破。最近,广东、山东、江苏一些城市开始在交通路口,启用系统,对行和非机动车闯红灯进行抓拍,并且现场曝光。 在深圳的很多十字路口都有一块电子显示屏,它叫作行闯红灯的系统。一旦有行闯红灯,他的图像信息和部分个信息,就会及时地呈现在显示屏上面,中间的时差约只有10秒钟的时间。 目前,宿迁已在10个路口安装系统,曝光了580次的行和非机动车闯红灯行为,准确率超过90%。 准确率超90% ? 宿迁在10个路口安装系统 不仅抓拍取证 还能身份信息 在山东济南,2017年的数据显示:行引发的道路安全事故占全部事故的16%;非机动车引发的道路安全事故占全部事故的33.4%。 最近,济南也开始启用系统。 ? 不仅抓拍取证 还能身份信息 ? 当红灯亮起时,若有行越过停止线,系统会自动抓拍4张照片,保留15秒视频,并截取违法员头像。

    40300

    VS虹膜,智能机器技能比拼!

    看来自我并没有我们想象中那么简单,但是在2012年的时候,没有脑神经的机器却能意到这点。 据悉,耶鲁学曾研发出一款思考型机器——Nico,它知道通过照镜子来观察自己的手臂以及全身,认自我。 不过对于机器而言,比起认自我,认才是更为重要的能力,特是用于进行机交互的时候。 这一先天的觉知条件,贯穿了整个影片,使得所有围绕卫的抒情和感动顺理成章。 ? 而这些影视作品中智能机器的方法已经成为现实,现在,通过和 虹膜两种方法,机器可以认不同的。 但是带给使用者的互动验很有限,如果考虑到要让使用者在操作中享受更好的交互感,或许要改变方法提高率,才能让用户验得到更好的满足。很显然,接触式方式,如指纹、指静脉并不能满足要求。 不过,这个精度约相当于通过肉眼的水平,并没有实质的突破。 Google表示,面部的安全性小于图形解锁、PIN码和密码这些传统支付方式。

    86040

    GAN提高准确率

    论文地址https://arxiv.org/abs/1701.07717内容简介 这篇文章的主要贡献是只使用原始数据集进行半监督学习,提高行的Baseline。 具实现 作者使用真实数据集训练一个DCGAN模型,然后用DCGAN作为数据生成工具,生成没有标签的数据。然后用真实数据和生成的没有标签的数据进行分类训练。这里作者的分类模型是resnet50。 All in one方法不同于LSRO方法,他将生成模型产生的图片当做一个新的类 Pseudo方法不同于LSRO方法,他将网络的softmax输出的最概率值所对应的分类当做是生成图片的标签。 rank-1 accuracy=83.97%, mAP=66.07% 在在CUHK03上rank-1 accuracy = 84.6%, mAP = 87.4% 如下图: 思考: 一开始并没有弄清行的概念 ,一直按照分类的思想去理解,论文有很多不能理解的地方,后来查阅资料,还有数据集了解到行一般指图像检索而不是图像分类。

    90270

    基于 Openpose 实现动作

    在行为监测方面,不仅仅有通过图形、温湿度、声音等信息进行蜂群行为的监测,同时更多的应用是集中在类行为监测上。而姿态作为行为监测重要参考依据在视频捕捉、计算机图形学等领域得到了广泛应用。 其中传统的姿态方法有RMPE模型和Mask R-CNN模型,它们都是采用自顶向下的检测方法,而Openpose作为姿态的经典项目是采用的自底向上的检测方法,主要应用于行为监测、姿态纠正、动作分类 在多目标姿态方面,历史上常见的方法有通过自顶而下的候选关键点查找并结合空间联系优化算法匹配物以及通过建立部分亲和字段的方法实现关键点检测到骨架连接等等。 在此次的模型中通过调用轻量级的openpose模型进行姿态,其主要的方法是通过openpose获取各个骨骼关键点位置,然后通过欧氏距离进行匹配两个骨骼来具检测到每一个,对于常见检测中骨骼关键点的缺失可以通过上一帧的骨骼信息进行填充 1.1 Openpose环境的构建 openpose是依赖于卷积神经网络和监督学习实现姿态评估算法,其主要的优点在于适用于多二维且较为精准和迅速的开源模型。

    1.7K30

    世界工智能赛 Top1 方案!手写 OCR

    Datawhale干货 作者:王浩,结行科技算法工程师 参加了“世界工智能创新赛”——手写 OCR 竞赛(任务一),取得了Top1的成绩。 实践背景 赛题背景 银行日常业务中涉及到各类凭证的录入,例如身份证录入、支票录入、对账单录入等。以往的录入方式主要是以工录入为主,效率较低,力成本较高。 但OCR技术在实际应用中也存在一些问题,在各类凭证字段的中,手写由于其字差异性、字数不固定、语义关联性较低、凭证背景干扰等原因,导致OCR率准确率不高,需要工校正,对日常的银行录入业务造成了一定的影响 即: 输入:手写图像切片数据集 输出:对应的结果 本任务提供开放可下载的训练集及测试集,允许线下建模或线上提供 Notebook 环境及 Terminal 容器环境(脱网)建模,输出结果完成赛题 数据规模和内容覆盖 B.数据示例 原始手写图像共分为三类,分涉及银行名称、年月日、金额三类,分示意如下: 相应图片切片中可能混杂有一定量的干扰信息,分示例如下: 结果 JSON 在训练集中的格式如下

    13830

    (2) -命名实实践CRF

    线性链条件随机场可以用于序列标注等问题,需要解决的命名实(NER)任务正好可通过序列标注方法解决。 训练时,利用训练数据 集通过极似然估计或正则化的极似然估计得到条件概率模型p(Y|X); 预测时,对于给定的输入序列x,求出条件概率p(y|x)最的输出序列y 利用线性链CRF来做实的时候, 该库兼容sklearn的算法,因此可以结合sklearn库的算法设计实系统。sklearn-crfsuite不仅提供了条件随机场的训练和预测方法还提供了评测方法。 sorted_labels, digits=3 )) 参考资料 参考资料 条件随机场CRF及CRF++安装与使用 https://www.biaodianfu.com/crf.html 使用CRF++实现命名实 (NER) https://www.cnblogs.com/jclian91/p/10795413.html 利用crf++进行实 https://www.jianshu.com/p/f5868fdd96d2

    10120

    百度开放离线SDK,活率超过98%

    近日,在百度AI开发者实战营深圳站中,百度宣布开放离线能力,并以SDK的方式一站式集合离线脸采集、离线活检测、离线(对比/搜索)三功能,按设备维度授权,最低仅需199元/个。 ? 百度AI技术生态部高级产品经理吴延宇介绍,百度规模开放多项离线能力,正是为了满足开发者或企业的上述特定需求,提供更完善、便捷、友好的服务。 据悉,本次百度开放的三离线能力包括离线脸采集、离线活检测、离线(对比/搜索),并以SDK的方式开放。 “离线活检测”是保障商业应用安全性的核心技术。百度此次开放的三种离线活检测能力,无需用户做任何指定配合动作,可完全做到无感知活检测,保证准确率的同时提升用户验。 此前,百度宣布接口免费开放,正是针对API云端接口,它更适用于中脸库检索、网络良好的场景,可由云端统一业务管理,比如零售会员、金融APP远程开户、脸支付等。

    2.5K20

    Android脸特征

    作者:junerver 链接:https://www.jianshu.com/p/b41f64389c21 在Android 脸注册这篇文章中我致的介绍了官方 Demo 中脸注册的流程, 本文我们接着来看看,在完成了脸注册之后我们该如何出用户的脸特征,从而通过获取用户信息。 还是来了解几个概念 脸追踪 FT 年龄检测 Age 性检测 Gender 其中脸追踪 FT 与脸检测 FD 功能基本一致(甚至代码基本都是相同的),Age 引擎用于年龄,Gender 引擎用于 流程 整上比脸注册还要简单,官方提供了很好的封装供我们使用,我们来看看流程。 这里在废话几句:FD与FT引擎功能致相同,完成的都是从一个 NV21 格式的图片 byte 数组中检测脸的位置 Rect 与角度信息。

    1.9K30

    出现很问题

    image.png 1.检测脸请求 {"ImageWidth":540,"ImageHeight":960,"FaceInfos":[{"X":109,"Y":289,"Width":335,"Height Nose":99,"Cheek":99,"Mouth":99,"Chin":99}}}],"RequestId":"8232377f-2d71-4133-bccb-519275d93b1b"} 返回了正确的脸的描述信息说明这段 base64码被成功解析 2.脸验证请求 {"Score":100.0,"IsMatch":true,"RequestId":"7741b229-df5a-4d83-9661-e65758c369b0 "} 用我的照片去比对脸库中的一个女生和一个40岁的叔都能判断为同一个 3.创建脸请求 {"SucFaceNum":0,"SucFaceIds":[],"RetCode":[-1102],"RequestId ":"34c3d67e-d1a6-488e-94e3-9aea015e2b6b"} 文档中说-1102是base64解析错误,但是1请求都已经通过并返回脸的正确位置

    28640

    降低计算强度 face_cascade = cv2.CascadeClassifier('d:\haarcascades\haarcascade_frontalface_alt.xml') # 探测脸 # 根据训练的数据来对新图片进行的过程。 ,其他可以不写   scaleFactor= 1.01, #控制金字塔层数,通常范围1.01~1.5 参数越小,层数越多,结果越精确   minNeighbors = 1, #为5表示有5次重叠才认为脸存在   minSize = (1,1),#寻找脸的最小区域 ) # 处理脸探测的结果 print ("{0}".format(len(faces))) for(x,y,w,h) in faces:

    96710

    1.的难点 用户配合度 相似性 易变形 2.的评测方法 LFW数据集(Labeled Faces in the wild):该数据库工有13233幅图像,其中5749个,1680有两幅及以上的图像 ,4069只有一幅图像。 图像为250*250小的JPEG格式。绝多数为彩色图,少数为灰度图。该数据库采集的是自然条件下脸图片,目的是提高自然条件下的精度。

    1.5K90

    用HarvestText自动名,用于实链接分析

    用HarvestText自动名,用于实链接分析 可以在这里找到本文对应的Jupyter Notebook. 实发现与名挖掘 实名之所以会出现,有多种情况: - 可能是拼写错误(“武磊”经常被写成“吴磊”) - 是全名缩写等造成的长度变化(“广州恒淘宝队”, “恒淘宝队”, “恒队”, “恒” 并且与原文不同的是,原文的实发现需要基于知库的entity linking,而这里我则使用NER来完成这一步,因而彻底摆脱了一切外部数据需求。我用这一算法来实现基于语义的名挖掘。 mention||类 mention||类 entity||类 mention||类 每行第一个是实名,其后都是对应的mention名,用一个空格分隔,每个名称后面都对应了其类名': '名', '郜林_名': '名', '上港队_机构名': '机构名', '恒队_机构名': '机构名'} 应用 有了挖掘出的实名和清洗好的文本,我们就可以相对放心的对其进行进一步的挖掘了

    74820

    Python调用腾讯云分析实现

    分析 腾讯云神图·分析(Body Analysis)基于腾讯优图领先的分析算法,提供像分割、检测、行(ReID)等服务。 支持图片或视频中的半身轮廓,并将其与背景进行分离;支持通过检测,的穿着、态等属性信息,实现跨摄像头跨场景下行与检索。 image.png Python调用腾讯云分析实现 过程分析:先上连接家看一下腾讯的产品 腾讯云的分析网址 1.工具 腾讯云的API需要调用的是网上的图片,返回的结果是一串稍微复杂的信息 (包括标的框框,还有的朝向等等)。 代码实现 python代码: 这个官方的调式里有,我这里加了python画图的代码,我只实现了一张照片的读取和框,毕竟我刚学不久,家见谅。

    14740

    【破译脸原理】判断贫富程度,准确率53%

    这一研究表明,表情依赖与脑对过程中的后期的分支模型相一致(在这种模型中,脸部要素的改变和都在相同的框架下进行编码),这对于揭示脸的原理是一个较推动。 研究者表示,这一现象的发生和种族、性无关,也和参与实验者花多长时间看照片无关。 研究结果符合非言语行为的预期。 “在面部中,脑中的一些神经元被专门化了。” 脑如何脸表情 布里斯托学的研究员进行了一次研究,他们让参与者从电影里毫无表情的脸部图像中判断两个角色的身份。 然后,参与者分为两组:有表情或者无表情。 在研究中,作者提出了一个问题:通过改变表情,脑对脸的能力是否也会相应地被改变? 反过来,这一实验也可以证明,脸的和表情的脑中是分开进行处理的和是一起处理的。 这一发现清楚地表明,表情会影响的进程。

    52040

    相关产品

    • 人体分析

      人体分析

      人体分析包含人像分割、人体识别、行人重识别(Reid)等服务。人像分割可识别视频、图片中的半身人体轮廓,并将其与背景分离;人体检测,可识别行人的穿着、体态、发型等信息;行人重识别(Reid)可实现跨摄像头跨场景下行人的识别与检索。可应用于人像抠图、背景特效、行人搜索、人群密度检测等场景。

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券