首页
学习
活动
专区
圈层
工具
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

HandAI开源项目,拉近人和摄影的距离:基于手势识别完成不同的拍摄行为

但是在谷歌发布的博客中,提到了他们识别手势的方法是,判断手部关节点的弯曲程度以及关系。在HandAI中,我使用了他们开源的网络检测手部关键点,根据他们的描述,复现了8种手势的识别。...越是需要贴的准,贴的多样,就越需要检测多个关键点,一般98个关键点是很合适的,因为关键点还覆盖了头部,可以贴帽子。当然68个点也可以,只是需要根据面部比例算出头部的位置。 在我的项目中,我简化了操作。...centerFace还能输出人脸的眼部中心,鼻子,两个嘴角这五个位置的关键点。...通过计算人脸鼻子到嘴角(左或者右)的距离,和猫脸素材的鼻子中心到嘴角(估计一下大概位置)的距离,这两个距离的比值,就是猫脸素材应该缩放的尺度。...然后在猫脸素材上求得所有像素点相对于鼻子中心的相对坐标,加上人脸鼻子的坐标,就是猫脸素材应该在人脸图像坐标上的具体位置。 ? 其中,x,y是猫脸素材在猫脸图像坐标系下的坐标。

1.4K30

AIGC生成表情包

面部识别技术:为了生成针对特定表情的表情包,AIGC工具需要具备面部识别技术。这可以通过面部识别算法,如OpenCV或基于深度学习的面部识别模型来实现。...这涉及到检测面部关键点(如眼睛、鼻子、嘴巴等)的位置和形状变化,从而判断出人物的表情。 风格迁移:在生成表情包的过程中,AIGC工具可能会使用风格迁移的技术。...在表情包生成中,GAN可以用来生成具有特定表情的人物图像。...AIGC生成表情包的代码涉及到多个步骤和工具,下面是一个简化的示例,展示了如何使用Python和深度学习库TensorFlow来实现一个简单的AIGC生成表情包的功能: import tensorflow...接下来,我们使用ImageDataGenerator来加载和预处理训练数据。最后,我们训练模型并保存它。

16010
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    揭秘 TensorFlow:Google 开源到底开的是什么?

    比如我们识别一只猫,我们隐隐约约觉得猫有两个眼睛一个鼻子有个长尾巴,而且它们之间有一定的空间约束关系,比如两只眼睛到鼻子的距离可能差不多。但怎么用像素来定义”眼睛“呢?如果仔细想一下就会发现很难。...而有了深度学习之后,如果我们不需要实现一个CNN或者LSTM,那么我们似乎什么也不用干。(机器让工人失业,机器学习让搞机器学习的人失业!人工智能最终的目的是让人类失业?)...常见深度神经网络的训练和问题 对于机器学习来说,训练是最关键也最困难的部分,一般的机器学习模型都是参数化的模型,我们可以把它看成一个函数y=f(w;x)。...比如拿识别图像来说,输入x是这张图片的每个像素值,比如MNIST的数据是28*28的图片,每个点是RGB的颜色值,那么x就是一个28*28*3的向量。而一个模型有很多参数,用w表示。...当然坏处就是因为它不可能针对特定的模型做优化,所以可能性能不如特定的实现那么好。

    83320

    人脸识别原理详解:使用tfrecord集合网络训练所有数据

    第三部分就是选取一系列矩形区域,确保区域与人脸部分的重合度大于65%,这部分数据称为positive,其目的是让网络学会识别人脸特征。...,这些关键点分别为左右眼睛,鼻子,还有两边嘴角,我们要训练网络在识别图片时能找到这5个关键点所在位置,这样才能有效提高网络对图片中人脸的查询能力。...为了提升读取效率,我们需要将这些数据集中起来形成联系的存储块,这样读入内存时效率才能保证,要知道我们需要将几十万张小图片输入给网络,因此IO读写是有效训练神经网络的关键,此次我们采用tensorflow...接下来我们要把前面几节获取的相关图片数据,人脸矩形归一化后对应的坐标,人脸五个关键点归一化坐标等,这里总共有将近一百多万条数据需要处理,因此数据的读写非常棘手,首先要做的就是将所有坐标信息从多个文件读取到内存中...10个人脸关键点 bbox['xlefteye'] = float(info[2])#初始化10个关键点 bbox['ylefteye'] = float

    48431

    居家办公之后,鹅厂小哥发现Web开发竟能助力身体健康!

    1.jpg (2)判断 能够实时拍下我的坐姿图像,那么又该如何判断我的坐姿端正呢?解决办法是:借助 tensorflow.js!...早在半年前,TensorFlow.js 最开始吸引我的地方正是他能够识别人像的五官,输入一张图片,输出人体器官在图片中位置,包括:鼻子,眼睛,耳朵,肩膀,手肘,手腕,臀部,膝盖,脚踝。...2.jpg TensorFlow.js是一个 JavaScript 库,用于在浏览器和 Node.js 训练和部署机器学习模型。简单来说就是把机器学习搬到web上。...比如近大远小,越靠近屏幕,拍到的人脸越大,两眼的间距也越大。当大到一定程度可以认为人距离屏幕近到一定的程度,这个程度就是阈值。 超过这个阈值即可认定为:此时我正在近距离的盯着电脑屏幕看。...于是,按照主食、肉类、蔬菜、小吃四大类,将囤下来的吃食分类,然后加个随机功能,每次到饭点的时候,按一下,随机搭配。 这样可以解决两个问题: 吃什么 做饭难,其实面对一堆食材决定吃什么也很难。

    4K3240

    我们压缩了一批深度学习进阶“传送门”给小白

    网上有大量优质的教程,讲解如何训练、使用深度学习模型的技术细节,例如借助TensorFlow这样的开源软件库来实现。TensorFlow中的许多数据科学资讯每周都在更新相关信息。...这意味着,当你有了“如何使用深度学习”的初步想法,实施这一计划绝非易事,通常都伴随着标准的“开发”工作: 让你跟随下文提到的链接教程学习,修改模型以实现具体目的,或为特定的数据服务、阅读StackOverflow...在这,我们则期望它注意到字符顺序,来预测未来字符出现的顺序。为了做到这一点,不像是图片分类器,这网络需要一种方式来记录它的"状态"。...(传送门:https://github.com/tensorflow/nmt/tree/tf-1.2) 四.生成对抗网络 所需数据 特定类型的图像——比如,大量脸部的图像。...因为大部分的工作已经为你做好了,所以使用这项尖端科技的工作并不是“研究深度学习”本身——研究员们已经为你解决了绝大部分——而是做“发展”工作,让其他人建立的模型更好地用于你的问题。

    45630

    谷歌大脑发布神经网络的「核磁共振」,并公开相关代码

    传统的尝试进行可解释性研究的方法是通过查看网络中哪个神经元被激发来来理解,但是即使我们知道「第 538 号神经元被激发了一点点」也毫无意义,并不能帮助我们理解神经元在网络中的意义。...这里不再是将单个神经元可视化,而是将在给定空间范围内处于 fire 状态的神经元组合进行可视化。(具体来说就是,我们优化图像,以最大化激活点与原始激活向量的点积) ?...就像我们期待的那样,归因的结果就是软塌塌的耳朵、凸鼻子、猫头之类的我们熟悉的局部特征 ?...表达这种思维方式的一种方法是使用常规语法,但我们发现它对视觉化思考空间是有帮助的。我们可以将网络的底层(我们展示的那些层,以及如何将它们分开)作为网格,将网格的内容和风格绘制为点和连接。 ?...不过,即便有了这些改进,作者们也认为让人们对这些方法建立起信心的关键因素应当是展现出的界面不会误导人们。接触到和界面上显示出的显式信息的同时,不应该引发用户对模型产生不正确的隐式推断。

    75980

    谷歌大脑发布神经网络的「核磁共振」,并公开相关代码

    传统的尝试进行可解释性研究的方法是通过查看网络中哪个神经元被激发来来理解,但是即使我们知道「第 538 号神经元被激发了一点点」也毫无意义,并不能帮助我们理解神经元在网络中的意义。...这里不再是将单个神经元可视化,而是将在给定空间范围内处于 fire 状态的神经元组合进行可视化。(具体来说就是,我们优化图像,以最大化激活点与原始激活向量的点积) ?...就像我们期待的那样,归因的结果就是软塌塌的耳朵、凸鼻子、猫头之类的我们熟悉的局部特征 ?...表达这种思维方式的一种方法是使用常规语法,但我们发现它对视觉化思考空间是有帮助的。我们可以将网络的底层(我们展示的那些层,以及如何将它们分开)作为网格,将网格的内容和风格绘制为点和连接。 ?...不过,即便有了这些改进,作者们也认为让人们对这些方法建立起信心的关键因素应当是展现出的界面不会误导人们。接触到和界面上显示出的显式信息的同时,不应该引发用户对模型产生不正确的隐式推断。

    657140

    十一、人体关键点跳跃追踪

    随着深度学习推理技术的不断发展,让小型设备运行深度学习成为可能,阿里体育等IT大厂,推出的“乐动力”、“天天跳绳”AI运动APP,让云上运动会、线上运动会、健身打卡、AI体育指导等概念空前火热。...本系列文章就带您一步一步从零开始开发一个AI运动小程序,本系列文章将使用“AI运动识别”小程序插件,插件详情可以前往微信服务市场搜索相应插件。...一、应用场景在适配诸如跳绳、开合眺或动作交互类场景时,需要追踪某些关键点的变化趋势,插件的关键点跳跃追踪能力PointTracker可以追踪指定的关键点的x或y轴变化,趋势变化时将记录变化临界轴值。...y轴跳动tracker.onChange = (pv,cv)=>{console.log('趋势变化', pv, cv); //鼻子y轴上次值pv,鼻子y轴当前值cv};//抽帧const context...console.log(tracker.points); //记录的关键点轴值});});listener.start();

    14210

    广告行业中那些趣事系列26:基于PoseNet算法的人体姿势相似度识别

    而具体模型是如何认为识别的把握越高则主要通过这个人对应的17个关键位置点的置信度情况。可以这么简单的理解,如果一个人对应的17个关键点越清晰,模型就认为这个人整体的姿势越清晰。...从上图中也可以发现person1相比于person2来说关键点位置会更加丰富,所以对应的置信度得分也会越高; 然后再看看关键点位置以及各个关键点的置信度得分。...比如第一个关键点是鼻子(nose),对应的置信度得分是0.8434,并且还会返回鼻子对应的二维坐标。...2.4 计算姿势相似度 上面是通过PoseNet模型如何得到人体姿势以及姿势包含的17个关键点流程。通过整体的姿势和局部的17个关键点我们就能很好的刻画人体的姿势。...开源项目1就是TensorFlow的PoseNet模型,通过这个模型苏输入一张图片就会返回图片中人的姿势、姿势置信度得分、关键点位置以及关键点置信度得分;开源项目2是基于开源项目1开发的,先基于PoseNet

    1.2K31

    神经网络可解释性最新进展

    虽然上述工作令人兴奋,但是谷歌忽略了讨论重要的一点:这些神经元如何组合成神经网络并进行工作呢?...谷歌证明了文中介绍的技术可以让谷歌“站在神经网络的角度”,并理解神经网络做出的一些决定,以及它们如何影响最终的输出。...建立这种表示,我们也可以考虑一个整体的激活向量。 我们可以代替将单个神经元可视化,而是可视化在给定空间位置处的神经元组合(具体来说,我们优化图像以最大化激活点与原始激活向量的点积)。 ?...然而,这些可视化忽略了一个关键的信息:激活的大小。通过按激活向量的大小来缩放每个单元的面积,我们可以指出网络在该位置检测到的特征有多强: ? ▌如何组装概念?...人们可以尝试深入到神经元的层面来描述整个图像,但数以万计的神经元信息太庞大。 即使是数百个通道,在被分成单独的神经元之前,也可能会让用户无法接受!

    1.5K60

    深度学习入门指南:一篇文章全解

    本文将从以下四个方面:深度学习的背景历史、主要研究内容、重要分以及其在现实生活中的广泛应用,让读者简单认识一直广受关注的深度学习究竟是什么。...这一时期的标志性事件是Alex Krizhevsky在2012年度ImageNet竞赛中使用卷积神经网络(CNN)将分类错误率大幅降低,从而赢得了广泛关注。...2.深度学习主要研究的内容深度学习主要研究的是如何通过多层神经网络对复杂的数据进行特征提取和模式识别。其核心在于自动进行特征提取,这一过程通过人工神经网络自动完成,无需人工干预。...例如,在人脸识别任务中,深度学习模型可以从输入的图像中自动提取出眼睛、鼻子、嘴巴等人脸的关键特征,基于这些特征进行人脸的分类和识别。这种特征表示方法使得深度学习在处理高维、非线性数据时具有显著优势。...在金融行业,深度学习被用来评估贷款申请者的信用风险,通过分析他们的交易记录和其他相关信息,预测他们未来是否会按时还款。这不仅提高了审批效率,还降低了坏账率。

    16510

    2020前端智能化趋势:tensorflow.js生态

    该库封装了常用的机器学习算法和预训练模型,基于TensorFlow.js,可单独使用,也可搭配p5.js使用。 目前可以实现哪些功能?...图像 imageClassifier 用于识别图像内容,可用于图像与文字的匹配 poseNet 用于识别人体姿势的关键点,可用于动作识别 bodyPix、UNET 用于人体与背景分割,可用于自动抠图...- 前端智能技术04 - PoseNet 用于实时估计人体的姿势,返回17个关键节点,如下图 此模型称为PoseNet,可以估计照片中人体的鼻子、眼睛、耳朵、手臂、腿关节等17个关键点,关键可以达到实时的效果...如何使用,可以查看: 10行代码用tensorflowJS实现人体关键点检测 - 前端智能技术05 - KuroNet 这是日本人做的,利用TensorFlow.js,轻松阅读古草体文字。...借此,我们还可以用tensorflow.js实现验证码的识别,让浏览器自动帮我们输入验证码~ - 前端智能技术06 - Text classification tensorflow.js的案例很多都是图像上的应用

    2.1K10

    「圣诞特辑」纯前端实现人脸识别自动佩戴圣诞帽

    很简单,跟大象装进冰箱一样,只需要三个步骤: 打开头像 戴上圣诞帽 下载图片 其中第一步和最后一步看起来好像都不是什么难事,关键是这第二点,如何给头像戴上圣诞帽?...让我来翻译以下: 将圣诞帽的图片素材绘制在头像图片的合适位置,使之变成一张图片 所以我们今天的重点来了:如何能确定圣诞帽的位置,并将它和头像合成为一张图片。 首先让我们来聊聊如何确定圣诞帽的位置。...然后 face-api.js 会通过该算法让机器不断的学习并优化,从而训练出模型,通过该模型可以识别出所有的人脸边界框 光识别出人脸还远远不够,我们的很多应用都需要找到人脸的特征点(眉毛,鼻子,嘴巴这些的...因此如果我想要在图片上做一点事情,我们需要把当前的数据进行一个转换,让它的数据匹配特定的大小,这里,可以用它提供的 matchDimensions(canvas, displaySize) 和resizeResults...虽然之前有吐槽 Tensorflow.js 知识点太多的问题,但是不得不说 Google 的文档写的还是不错的,提供了很多案例,手把手教你如何实现一些简单的功能:手写数字识别,预测,图片分类器……所以对

    90420

    实时检测17个人体关键点,谷歌SOTA姿态检测模型,手机端也能运行

    不久之前谷歌研究院推出了最新的姿态检测模型 MoveNet,并在 TensorFlow.js 中推出了新的姿态检测 API,该模型可以非常快速、准确地检测人体的 17 个关键节点。...人体关键点 COCO 17 个关键点所对应的人体部位包括:0: 鼻子、1: 左眼、2: 右眼、3: 左耳、4: 右耳、5: 左肩、6: 右肩、7: 左肘、8: 右肘、9: 左腕、10: 右腕、11: 左胯...由于 MoveNet 是一个预训练模型,所以设置好以后即可使用。MoveNet 能够跟踪人体的 17 个关节点(如脚踝、膝盖、肩膀、手肘、手腕、耳朵、眼睛和鼻子等)。...传统方案(上)与 MoveNet(下)在高难度姿态检测上的对比结果,传统方案会跟丢关键点,而 MoveNet 不会。 如何使用?...得分范围是 0 到 1,它表示模型对关键点的置信度。通常情况下,不应该使用置信度低的关键点。每个应用程序可能需要自定义置信度阈值。

    3.2K20

    小白学PyTorch | 14 tensorboardX可视化教程

    其实tensorboard一开始是给tensorflow使用的可视化工具,PyTorch框架自己的可视化工具是Visdom,但是这个API需要设置的参数过于复杂,而且功能不太方便也不强大,所以有人写了一个库函数...TensorboardX来让PyTorch也可以使用tensorboard。...1 安装 安装非常的简单,直接需要安装tensorboardX,tensorboard和tensorflow三个库函数: # 控制台运行 pip install tensorboardX pip install...,我是每50个batch记录一次loss的值,所以这个tag就是'loss': scalar_value就是这一次记录的标量了,上面记录的就是loss.item()。...这个loss的变化应该会输出一个折线图的吧,这个scalar_value就是y轴的值; global_step其实就是折线图的x轴的值,所以我每记录一个点就把tensorboard_ind加一。

    4.3K10

    「圣诞特辑」纯前端实现人脸识别自动佩戴圣诞帽

    很简单,跟大象装进冰箱一样,只需要三个步骤: 打开头像 戴上圣诞帽 下载图片 image.png 其中第一步和最后一步看起来好像都不是什么难事,关键是这第二点,如何给头像戴上圣诞帽?...首先让我们来聊聊如何确定圣诞帽的位置。 确定圣诞帽的位置 通过手动的方式,我们是很容易确定圣诞帽应该放在什么位置的,那机器如何能确定呢?有人可能想到了那不就是人脸识别技术?...(眉毛,鼻子,嘴巴这些的)。...因此如果我想要在图片上做一点事情,我们需要把当前的数据进行一个转换,让它的数据匹配特定的大小,这里,可以用它提供的 matchDimensions(canvas, displaySize) 和resizeResults...虽然之前有吐槽 Tensorflow.js 知识点太多的问题,但是不得不说 Google 的文档写的还是不错的,提供了很多案例,手把手教你如何实现一些简单的功能:手写数字识别,预测,图片分类器……所以对

    86831

    前端机器学习--识别人脸在脸颊上画草莓

    前端的机器学习 提起前端的机器学习,首先想到的就是Google的TensorFlow: TensorFlow 是一个端到端开源机器学习平台。...有兴趣的可以去TensorFlow官网看看,有很多好玩的东西。 当然,我们仅仅是使用人脸识别,那有人已经在TensorFlow的基础上封装了专门针对人脸识别的库 face-api.js 2....6个点 [42-47] 外嘴唇12个点 [48-59] 内嘴唇8个点 [60-67] 有了这68个点,我们就可以轻松的知道眉毛、眼睛、鼻子和嘴巴的位置信息了,根据这些位置信息,我们经过一些简单的计算就可以得出开始提到的这几个问题的答案...你可以根据应用程序的要求加载你需要的特定模型。但是如果要运行一个完整的端到端的示例,我们还需要加载人脸检测、人脸特征点检测和人脸识别模型。相关的模型文件可以在代码仓库中找到。...(); // 鼻子是从上往下画的 9个点 const nose = resizedDetections[0].landmarks.getNose(); //嘴巴分 20个点 const mouth

    65920

    用TensorFlow.js进行人体姿态估计:在浏览器中即可实时查看人体姿态

    在高级姿态估计发生在两个阶段: 一个输入的RGB图像通过卷积神经网络馈送。 使用单姿态或多姿态解码算法来解码姿势,构建置信度得分,关键点位置和来自模型输出的关键点置信度得分。...关键点  - 估计的人体姿势的一部分,例如鼻子,右耳,左膝,右脚等。它包含位置和关键点置信度分数。...PoseNet目前检测到下图所示的17个关键点: 第1部分:导入TENSORFLOW.JS和POSENET库 很多工作都是将模型的复杂性抽象化并将功能封装为易于使用的方法。...它比单姿态算法更复杂并且稍慢,但它的优点是,如果图片中出现多个人,他们检测到的关键点不太可能与错误的姿势相关联。出于这个原因,即使使用例检测到单个人的姿势,该算法也可能更合乎需要。...第三维(17)中的每个切片对应于特定关键点的热图。该热图中的每个位置都有一个置信度分数,这是该关键点类型的一部分存在于该位置的概率。

    5.3K40

    使用Python+OpenCV+dlib为人脸生成口罩

    dlib、OpenCV和Python检测和提取人脸关键点 为了覆盖口罩,我们需要进行人脸检测,有许多方法可用于执行此任务我们可以使用OpenCV内置的Haar Cascade XML文件,甚至TensorFlow...人脸关键点是用于定位和表示面部的显著区域,如眼睛、眉毛、鼻子、下颚线、嘴巴等,应用于人脸对齐、头部姿态估计、换脸、眨眼检测、困倦检测等领域。...面部关键点的检测 如前所述,我们可以通过多种方式执行人脸检测,但每种方法都试图定位和标记以下面部区域: 鼻子 下颚线 左眼和右眼 左右眉 嘴 在这篇文章中,我们使用了基于深度学习的人脸定位算法,该算法还用于图像中人脸的检测...下颚线:点[0,16] 请注意,标志点从0开始 dlib人脸关键点检测器就是在这个数据集上训练的:https://ibug.doc.ic.ac.uk/resources/facial-point-annotations...我们也可以使用cv2在检测到的面部周围使用for循环绘制边界框。

    1.9K11
    领券