首页
学习
活动
专区
圈层
工具
发布

人工智能学会“听音辨声”

如果使用音视频作为输入数据,经过充分训练的PixelPlayer系统会分离伴音音频并识别声音来源,然后计算图像中每个像素的音量并对其进行“空间定位”,即识别视频片段中生成类似声波的部分。...“我们预期的最好情况是,可以识别出哪些乐器会发出哪类声音,”CSAIL博士赵航(音)说道:“我们对自己能够实际上在像素级别对乐器进行空间定位感到惊讶。...PixelPlayer完全采用自我监督型学习方法,这意味着它不需要人类对数据进行注释,并且能够识别超过20种乐器的声音。...研究人员表示,数据集越大,它能够识别的乐器就会越多,但同时也会在区分乐器子类之间的细微差异方面遇到麻烦。它还可以识别音乐元素,例如小提琴的谐波频率。

1.1K40

听音乐如何锻炼大脑?多项研究:无论是演奏乐器还是单纯听音乐

听音乐如何锻炼大脑?...每天听音乐,也能预防痴呆吗?...表:教育作为痴呆发病风险与听音乐关联性的效应修饰因子综上两项研究清晰地表明,音乐活动——无论是需要演奏乐器,还是单纯地听音乐,都展现出作为认知保护剂的潜力,特别是有利于延缓老年人的认知衰退!...10分钟后,这些大学生们会接受记忆测试,重点测量“整体记忆”(目标识别)和“细节记忆”(诱饵辨别)。图:实验的时间表和流程通过这样的实验,研究者得出了几个很有意思的结论。...和对照组比,听音乐且唤醒适度升高的人,细节记忆比听中性声音、安静的人好;但听音乐且唤醒降低的人,细节记忆反而比对照组差。

2300
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    最强大脑第二场战平听音神童!百度大脑小度声纹识别技术算法解析

    日前,继在江苏卫视《最强大脑》第四季“人机大战”首轮任务跨年龄人脸识别竞赛中击败人类顶级选手后,在上周五晚上,百度的小度机器人再次在声纹识别任务上迎战名人堂选手——11岁的“听音神童”孙亦廷,双方最终以...一、“不能说的秘密”声纹识别难点 从技术角度来看,声纹识别有四大难点: 难度一:泛化能力 目前机器学习算法大多采用数据驱动的方法。...二、百度大脑声纹识别过程还原 一个基本的声纹识别过程如下图,主要包括声纹注册和声纹识别阶段: Step1:声纹注册阶段 在声纹注册阶段,每个可能的用户都会录制足够的语音然后进行说话人特征的提取,从而形成声纹模型库...小度声纹识别算法解析 A.算法1 DNN-ivector 这是目前被广泛采用的声纹识别系统。...据高亮介绍,百度语音技术未来的主要技术方向包括金融反欺诈、客户呼叫中心、智能硬件声纹识别、安全领域声纹认证、个性化语音识别和语音合成辅助。

    1K60

    多项研究:听音乐锻炼大脑!预防痴呆,增强记忆!

    每天听音乐,也能预防痴呆吗?...具体而言,相比从不/很少/偶尔听音乐,几乎每天听音乐可使痴呆症风险降低 39%、CIND 风险降低 17%,还能长期维持更好的整体认知功能和记忆力,但对其他认知领域(如语言流畅度)及主观认知健康无显著影响...表:教育作为痴呆发病风险与听音乐关联性的效应修饰因子综上两项研究清晰地表明,音乐活动——无论是需要演奏乐器,还是单纯地听音乐,都展现出作为认知保护剂的潜力,特别是有利于延缓老年人的认知衰退!...10分钟后,这些大学生们会接受记忆测试,重点测量“整体记忆”(目标识别)和“细节记忆”(诱饵辨别)。图:实验的时间表和流程通过这样的实验,研究者得出了几个很有意思的结论。...和对照组比,听音乐且唤醒适度升高的人,细节记忆比听中性声音、安静的人好;但听音乐且唤醒降低的人,细节记忆反而比对照组差。

    31810

    脑控车、透视眼、听音辨位,CES Asia黑科技AI飙车

    新智元报道 来源:nissan 编辑:张佳 【新智元导读】不少汽车厂商带着新技术亮相CES Asia:日产的黑科技将现实与虚拟结合,让你拥有一双“透视眼”,还能用大脑控制汽车;起亚汽车可以识别你的情感...;地平线“车载多音区交互技术”可实现听音辨位……一起来涨涨见识。...起亚推出实时情感识别系统 针对未来自动驾驶环境,起亚汽车开发出一套“R.E.A.D.实时情感识别系统”。...这套系统由起亚与麻省理工学院媒体实验室的情感计算小组共同开发,可以通过传感器捕捉驾驶者的表情、心跳等生理信号,从而识别驾驶者的情感。...基于AI人工智能技术,实时情感识别系统能够对驾驶员的状态一一进行识别。针对驾驶员所表现出的不同情感,提供优化的温度、香气、音响、灯光等车辆内部环境。

    69630

    不止视觉,CMU研究员让机器人学会了听音辨物!

    其中,第一个观察意味着:仅仅根据一个物体发出的声音,一个AI学习模型就可以从60个物体中以79.2%的准确率识别该物体;第二个观察意味着,通过声音,AI学习模型就可以预测外力对该物体施加了什么动作;第三个观察意味着...其中,在细粒度识别任务中,一般是用视觉图像作为输入来完成的。在作者的论文中,主要是以音频作为输入研究“声音”中包含什么样的信息。...如下图所示: 图注:两类分类错误 在逆学习模型的任务中,主要解决“物体动作识别”任务。另外,此模型研究的是声音是否包含有关行为、动作的因果信息。...一种方法是在Tilt-Bot数据上训练实例识别任务上的嵌入,而另一种选择是在逆模型任务上进行训练。这两个任务都编码不同形式的信息,其中分类编码对象的可识别属性,反向模型编码对象的物理属性。...2 总结 卡内基梅隆大学的“听音辨物”工作主要有三个贡献: 第一,创建了最大的声音-动作-视觉机器人数据集; 第二,证明了可以使用声音进行细粒度的物体识别; 第三,证明了声音是动作的指示器。

    52820

    视频识别 动作识别 实时异常行为识别 等所有行为识别

    大家好,我是cv君,很多大创,比赛,项目,工程,科研,学术的炼丹术士问我上述这些识别,该怎么做,怎么选择框架,今天可以和大家分析一下一些方案: 用单帧目标检测做的话,前后语义相关性很差(也有优化版),...当然可以通过后处理判断下巴是否过框,效果是不够人工智能的),高抬腿计数,目标检测是无法计数的,判断人物的球类运动,目标检测是有很大的误检的:第一种使用球检测,误检很大,第二种使用打球手势检测,遇到人物遮挡球类,就无法识别目标...开始 目前以手势和运动识别为例子,因为cv君没什么数据哈哈 项目演示: 本人做的没转gif,所以大家可以看看其他的演示效果图,跟我的是几乎一样的~ 只是训练数据不同 ​ ​ ​ ​ 一、 基本过程和思想

    5.6K20
    领券