前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >清华大学成立听觉智能研究中心,要解决可解释和鲁棒性问题

清华大学成立听觉智能研究中心,要解决可解释和鲁棒性问题

作者头像
量子位
发布2019-05-10 15:00:12
6970
发布2019-05-10 15:00:12
举报
文章被收录于专栏:量子位
郭一璞 发自 清华 量子位 报道 | 公众号 QbitAI

今天,清华大学人工智能研究院听觉智能研究中心成立了。

听觉和语音一直是AI领域研究和应用的重点,中国科学院院士、清华大学人工智能研究院院长张钹认为,在后深度学习时代,听觉智能应该成为AI领域重要的分支。

听觉智能中心研究什么?

清华大学郑方教授担任研究中心主任,他在现场介绍,听觉智能研究中心集中于三个目标:

1、揭示人类听觉的感知和认知机制; 2、建立听觉智能的计算理论与方法; 3、提出计算机感知与声音理解的技术和算法。

聚焦于可解释性 、鲁棒性、安全+智能三个问题,研究中心的研发方向包括:

1、声学场景的感知与理解; 2、语音中内容、声纹、情感等多元属性信息的识别与理解,不仅要识别说了什么,还要根据声纹识别出声音的主人,说话者的情绪; 3、听觉计算的鲁棒性,保证相关应用稳定; 4、人机语音智能交互,和机器说人话,智能音箱就是这方面离我们最近的应用。

研究中心将以核心技术为基础,产出产品和服务、形成知识产权、参与标准制定。

另外,研究中心还会进行多学科的交叉,与包括剑桥大学、佐治亚理工学院、中国人民大学、天津大学、新疆大学等在内的国内外多所高校进行合作;与微软、得意音通、联动优势、浦发银行、广电运通金融等企业进行校企合作。

张钹:为什么需要听觉智能研究中心?

中国科学院院士、清华大学人工智能研究院院长张钹介绍,听觉本来不是AI独立的领域,在AI兴起之前也有很长的历史,在人机交互、感知等方面和AI有很大交集。

进入深度学习时代后,深度学习完全改变了听觉处理的现状,使其真正走向实用,有商业产品,这归功于统计学习、深度学习。

现在,我们进入后深度学习时代,语音处理等领域面临同样的问题:用深度学习建造的AI系统包括听觉系统都非常脆弱,容易受攻击,容易出错,在语音识别方面也非常明显,在安静条件下可以达到很高识别率,在有干扰的情况下就遇到了很大问题。

清华大学解决了声纹处理的鲁棒性问题,但是随着攻击方式变化,如果用概率统计方法来做,漏洞依然存在。

因此,在后深度学习时代,听觉智能应该成为AI领域重要的分支。

听觉智能研究中心需要建立一个可解释的AI方法为核心,与产业融合,与其他学科融合,突破AI发展中的很多问题。

另外,在AI教育方面,张钹院士认为,AI本科培养主要还是靠计算机专业,AI是计算机科学技术的分支。需要重点加强的是研究生、高端人才的培养。另外,中低端AI人才也需要培养,但清华大学主要培养高端的AI发展骨干,希望听觉智能研究中心的成立能让AI人才培养推进一步。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-04-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 听觉智能中心研究什么?
  • 张钹:为什么需要听觉智能研究中心?
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档