首页
学习
活动
专区
工具
TVP
发布
您找到你想要的搜索结果了吗?
是的
没有找到

机器学习—通过 APP 预测用户性别

大意是根据用户所安装的 APP (加密)预测用户的性别,训练数据标记 label (性别),典型的监督学习方案。 数据描述 下载之后,解压成为文本文件。...第一列是用户编号(已经脱敏,转化成1 ~1,200,000的编号) 第二列是用户的性别 (male/female) 第三列是用户的移动设备类型 第四列是用户的 APP 列表,每个 APP 已经脱敏...性别是结果数据。 方案 首先分析数据,一共有机型、APP、区域三个维度。...性别可能对 APP 和机型有偏好,但是不能对区域有偏好,而是不同的区域可能对 APP 有不同的偏好,比如某省用户偏爱直播,某省用户偏爱交友等等。...技术方案:Python + scikit-learn + pandas + numpy 环境搭建使用 Anaconda 代码地址 项目难点 项目困难主要出现在 APP 降维,也就是判断哪些 APP 与性别相关

84130

人工智能的“性别”研究

如果人工智能是人类智能的模拟,那么它模拟的是谁,它有性别吗?...无论你认为性别是由一个人所处环境和所受文化构成的社会结构,还是从本质论角度来看的生物性决定因素,亦或者,是坚持个体差异理论决定的,怎样都好,不可否认的是,性别很重要。...从事某一职业的机会,我们的汽车导航系统是否识别或忽略我们的语音命令,性别都占据着一定的影响。在人工智能研究领域,女性化身最常用来扮演虚拟助手。这使得一种观点永久化,即帮助类角色最好由女性来扮演。...但是,鉴于目前的性别差距,这并不是一个简单的轻松任务。 在全球范围内,女性在工程和信息技术教室和工作场所的比例偏低,在印度约为30%,在其他国家则明显更低;这导致产品和技术的设计大多以男人为本。

54120

AI也会性别歧视吗?

一向被认为最客观的技术,竟然也发生了性别歧视。 策划&撰写:巫盼 申小姐 AI不乖了。 今天路透社踢爆了亚马逊用AI进行招聘,进而引发的可能歧视女性的新闻。...在这项工具使用不长时间后,亚马逊发现他们使用AI系统的时候并未对软件开发人员和其他技术职位求职者进行性别中立的评估。 这里面就存在两个可能性问题,一是样本问题,二则是AI系统有极大的BUG。...其次,在被提交的样本中,亚马逊的系统采用了特别标志,会特别标志出“女性”,这在不经意间已经对样本有了“性别歧视”。 最后,虽然亚马逊对AI招聘的程序进行了修正,试图确保对特定术语保持中立。...可能是性别、也有可能是学校、甚至可能是个人兴趣和生活习惯。 WHATEVER,这个锅,AI逃不掉。 这不是AI第一次陷入“性别歧视”的风波中。...这显然不是程序的BUG,而是AI算法本身的问题,它自动的将女性和某些特定的元素联系在一起,比如站在厨房烧饭的就一定是女性,最终形成了关于女性的“刻板成见”,甚至是某种性别歧视。

42720

轻松学Pytorch – 年龄与性别预测

本文主要是基于公开数据集,完成了一个人脸的年龄与性别预测网络模型,以及模型训练与导出使用、本篇主要讲述的知识点有以下: 如何实现卷积神经网络的多任务不同输出 如何同时实现分类跟回归预测 基于人脸年龄与性别的公开数据的数据制作...多张的标注数据,标注信息如下: [age]_[gender]_[race]_[date&time].jpg 文件名称格式就是每张图像的标注信息 Age表示年龄,范围在0~116岁之间 Gender表示性别...self.genders[idx]} return sample 网络模型结构 卷积层作为基础模型,在卷积层之后使用最大全局池化,完成降维操作,然后再此基础上分为两路的全链接层,分布预测年龄跟性别分类...性别是二分类预测,使用softmax,实现预测。...train_loss)) # save model model.eval() torch.save(model, 'age_gender_model.pt') 网络模型结构 基于训练模型,实现人脸年龄与性别预测

2K20

扫码

加入 开发者社群

领取 专属20元代金券

Get大咖技术交流圈

扫码加入开发者社群

相关产品

  • 人像变换

    人像变换

    人像变换,基于腾讯优图领先的人脸识别算法,提供人脸年龄变化、人脸性别转换等能力,用户上传照片即可实现男女性别切换、人脸变老/变年轻等效果。适用于社交娱乐、广告营销、互动传播等场景。

相关资讯

热门标签

活动推荐

    运营活动

    活动名称
    广告关闭
    领券