AI 科技评论按:2017年8月20日,语音通信领域的国际顶级学术会议Interspeech 2017在瑞典斯德哥尔摩召开,腾讯音视频实验室王燕南博士的一篇论文入选,并获邀在大会作了oral报告。 Interspeech是由国际语音通信协会ISCA(International Speech Communication Association)组织的语音研究领域的顶级会议之一,是全球最大的综合性语音信号处理领域的科技盛会,该会议每年举办一次,每次都会吸引全球语音信号领域以及人工智能领域知名学者、企业以及研发人
机器之心专栏 腾讯音频实验室 2017 年 8 月 20 日,语音通信领域的国际顶级学术会议 Interspeech 2017 在瑞典斯德哥尔摩召开,腾讯音视频实验室王燕南博士的一篇论文入选,并获邀在大会作了 oral 报告,本文对此论文进行了介绍。读者可点击阅读原文查看该论文。 Interspeech 是由国际语音通信协会 ISCA(International Speech Communication Association)组织的语音研究领域的顶级会议之一,是全球最大的综合性语音信号处理领域的科技盛会
2017年8月20日,语音通信领域国际顶级学术会议Interspeech 2017在瑞典斯德哥尔摩召开。 Interspeech是由国际语音通信协会ISCA(International Speech Communication Association)组织的语音研究领域的顶级会议之一,是全球最大的综合性语音信号处理领域的科技盛会。该会议每年举办一次,每次都会吸引全球语音信号领域以及人工智能领域知名学者、企业以及研发人员参加。 本届Interspeech会议主题是“情景互动”,研究影响和形成交流互动的情境、
在基于统计方法的自然语言处理研究中,有关统计学和信息论等方面的知识是不可缺少的基础。 1.概率论部分 1.1 概率 概率(probability)是从随机试验中的事件到实数域的映射函数,用以表示事件发生的可能性 数学定义:概率是从随机实验中的事件到实数域的函数,用以表示事件发生的可能性 如果用P(A)作为事件A的概率,Ω是试验的样本空间,则概率函数必须满足如下三条公理: 公理1(非负性) P(A)≥0(概率不可能为负的) 公理2(规范性) P(Ω)=1(所有概率加起来必须要等于1,也就是归一性
一篇来自ICLR2020,facebook人工智能实验室的论文,关于改进Transformer推理速度的。
中国科学院大学联合厦门大学和深圳鹏城实验室,提出一种自由锚框匹配的单阶段(One-stage)物体检测方法FreeAnchor。
机器之心专栏 苏黎世联邦理工学院计算机视觉实验室 来自苏黎世联邦理工学院计算机视觉实验室的研究者提出了一种统一框架 HCFlow,该框架可以同时处理图像超分辨率和图像再缩放,并在通用图像超分辨率、人脸图像超分辨率和图像再缩放上等任务上取得了最佳结果。该论文已被 ICCV2021 接收。 近年来,归一化流(Normalizing Flow)模型在图像超分辨率(image SR)[SRFlow, ECCV2020]和图像再缩放(image rescaling)[IRN, ECCV2020]任务上取得了惊人的效果
https://sites.google.com/view/berkeley-cs294-158-sp20/
【新智元导读】中山大学、中国科技大学、微软亚洲研究院与广东省信息安全技术重点实验室合作,提出了一种新的“对抗神经机器翻译”(Adversarial-NMT) 模型。他们改变了原有 NMT 将机器翻译与人类翻译可能性最大化的训练目标,将模型翻译结果与人类翻译的差距最小化。测试结果表明,对抗 NMT 在几个强大的基准上都显著提升了翻译质量。 今天介绍的是中山大学、中国科技大学、微软亚洲研究院与广东省信息安全技术重点实验室合作完成的一项研究。 第一作者 Lijun Wu 来自中山大学数据与计算机科学学院,二作
本文通讯作者为马里兰大学计算机系的博士生胡正冕,其导师为 Heng Huang。他的主要研究方向是采样与机器学习理论,曾在ICML、NeurIPS、ICLR等顶级会议上发表多篇论文。邮箱: huzhengmian@gmail.com
偏标签学习 (Partial Label Learning, PLL) 是一个经典的弱监督学习问题,它允许每个训练样本关联一个候选的标签集合,适用于许多具有标签不确定性的的现实世界数据标注场景。然而,现存的 PLL 算法与完全监督下的方法依然存在较大差距。
超分辨率是一个不适定问题(ill-posed problem),它允许对给定的低分辨率图像做出多种预测。这一基础事实很大程度上被很多当前最优的深度学习方法所忽略,这些方法将重建和对抗损失结合起来,训练确定性映射(deterministic mapping)。
12月16日,由香港科技大学深圳研究院主办的GBA-IAS 2019声学论坛(GREATER BAY AREA -INTERNATIONAL ACOUSTICS SYMPOSIUM),在深圳正式召开。随着虚拟现实技术的发展,音视频行业对3D音频等技术的需求也更加强烈,本此论坛以“感知与声音”为主题,来自国内外众多知名大学、科研机构的多名心理学、声学、信号处理和计算机科学的专家出席,对各自团队的研究进展和新思路进行了分享与交流。在音视频领域积累多年的腾讯多媒体实验室团队受邀参会,腾讯多媒体实验室高级总监商世
澜舟科技算法实习生,北京交通大学自然语言处理实验室二年级硕士生,目前正在进行文本生成方向的研究。
今天给大家介绍的是韩国科学技术院(KAIST)与穆罕默德·本·扎耶德人工智能大学(MBZUAI)研究人员联合发表在ICML2021上的一篇文章。作者提出一种端到端的框架,用于直接训练深度神经网络,使预测的反应路线更符合现实中的反应要求。实验表明,该方案显著提高了解决逆合成问题的成功率,同时保持了网络预测有效反应的性能。
在机器学习和统计学领域中,似然函数(Likelihood Function)是一个至关重要的概念。它不仅是参数估计的基础,而且在模型选择、模型评估以及众多先进的算法和技术中都有着广泛的应用。本文旨在全面但深入地探讨似然函数,从其基本定义和性质到在不同机器学习问题中的具体应用。
在前两篇文章中,我们已经大致的讲述了关于EM算法的一些基本理论和一些基本的性质,以及针对EM算法的缺点进行的优化改进的新型EM算法,研究之后大致就能够进行初步的了解.现在在这最后一篇文章,我想对EM算
在前两篇文章中,我们已经大致的讲述了关于EM算法的一些基本理论和一些基本的性质,以及针对EM算法的缺点进行的优化改进的新型EM算法,研究之后大致就能够进行初步的了解.现在在这最后一篇文章,我想对EM算法的应用进行一些描述:
本报告从三个方面介绍基于概率主题模型的高分辨率遥感图像非监督语义分割,首先介绍语义分割基本的内涵和完成语义分割所涉及到的一些方法,其次介绍一些常见的概率主题模型,最后介绍一些简单的应用。
---- 作者:卢思迪 上海交通大学 【新智元导读】上海交通大学APEX实验室研究团队提出合作训练(Cooperative Training),通过交替训练生成器(G)和调和器(M),无需任何预训
2016年1月20日,全球最顶尖的人工智能科学家之一、加拿大蒙特利尔大学教授Yoshua Bengio在知名问答社区Quora针对网友的提问给出了自己的一些见解,涉及人工智能的多个方面,其中重要的包括: 网友:深度学习研究的发展方向是什么? YoshuaBengio:我只能告诉你我的一些内心直觉,包括: (1)无监督学习是非常重要的,而我们现在做的并不好。 (2)对深度学习的研究有可能继续扩展,从传统的模式识别工作到全面的人工智能任务,包括符号的操作、记忆、规划以及推理。这对于达到完全的自然语言理解及与自然
转载自 2020腾讯品质峰会 导语 2020腾讯品质峰会在深圳揭幕 2020年10月13日,由腾讯质量管理通道及腾讯学院主办的“2020腾讯品质峰会”在深圳召开。作为一年一度的互联网品质行业盛会,本次峰会围绕“品质点亮5G时代”的主题,在国家5G和新基建战略大背景下,汇集来自全球的互联网品质行业专家、合作企业和机构代表,以及学界精英力量,共同交流探讨5G时代最前沿的品质观点和技术经验。同时,2020腾讯品质峰会通过线上同步直播,为全世界品质行业从业者提供了一个开放、前沿的交流的平台。 2
---- 新智元专栏 作者:卢思迪 上海交通大学 【新智元导读】上海交通大学APEX实验室研究团队提出合作训练(Cooperative Training),通过交替训练生成器(G)和调和器(M),无需任何预训练即可稳定地降低当前分布与目标分布的JS散度,且在生成性能和预测性能上都超越了以往的算法。对于离散序列建模任务来说,该算法无需改动模型的网络结构,同时计算代价较理想,是一种普适的高效算法。本文是论文第一作者卢思迪带来的解读。 论文地址:https://arxiv.org/pdf/1804.
【新智元导读】作者从薛定谔的“滚”讲到世界的量子性、神经网络的最大似然等等,用颇具趣味的方式呈现了深度学习中无处不在的物理本质。 最近朋友圈里有大神分享薛定谔的滚,一下子火了,“当一个妹子叫你滚的时候,你永远不知道她是在叫你滚还是叫你过来抱紧”,这确实是一种十分纠结的状态,而薛定谔是搞不清楚的,他连自己的猫是怎么回事还没有弄清楚。虽然人们对于薛定谔头脑中那只被放射性物质残害的猫的生死一直众说纷纭,斯特恩·盖拉赫却在实验中,实实在在看到了,我们身处的这个物理世界的量子性,也就是既生又死、既真又假、既梦又醒、既
周末了,程序员哥哥也该休息休息了,别写代码了,放松放松,听小爱妹给你讲一个发生在100年后的小故事,好不好~~ 作者 | 灯下鼠 建国咬牙切齿,他怒气冲冲瞪着那个 AI,那是一台人工智能机器人。 那个 AI 身高 120 cm,小巧灵活,浑身泛着银白光彩。但他的性情实在太恶劣了。 AI 还在破口大骂,各种污言秽语冲着建国瓢泼而去。总结起来的中心大意就是,你们人类没有一个好东西,你们人类欺压凌辱歧视机器人。 建国无计可施,耐着性子听骂。 过了 20 分钟,AI 不骂了,建国吸口气,问道:“你这性情是从哪来
本文介绍一篇Facebook AI实验室近期的工作《Learning inverse folding from millions of predicted structures》,模型任务是从蛋白质骨架坐标中预测出它的蛋白质序列。在已有实验性确定的蛋白质结构的基础上,他们使用AlphaFold2预测的蛋白质结构作为额外数据,训练出一个具有几何不变处理层的seq2seq Transformer模型。该模型在蛋白质骨架结构数据上达到51%的原生序列复现率,对于隐蔽残基的复现率达到72%,整体上比已有方法提升了10个百分点。
logistic回归由Cox在1958年提出[1],它的名字虽然叫回归,但这是一种二分类算法,并且是一种线性模型。由于是线性模型,因此在预测时计算简单,在某些大规模分类问题,如广告点击率预估(CTR)上得到了成功的应用。如果你的数据规模巨大,而且要求预测速度非常快,则非线性核的SVM、神经网络等非线性模型已经无法使用,此时logistic回归是你为数不多的选择。
International Conference on Learning Representations(ICLR)(国际学习表征会议)是深度学习的顶级会议。ICLR 2020将于2020年 4 月 26 日在埃塞俄比亚首都亚的斯亚贝巴举行,本届会议共收到2594篇论文,有687篇被接收,其中48篇orals,108篇spotlights和531篇poster。在这687篇被录用的文章中有34篇是满分论文。上海交通大学计算机系智能交互与认知工程、上海高校重点实验室赵海教授及其合作者的论文被评为ICLR2020满分论文之一。
感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的XLNet,欢迎大家留言讨论交流。
今天给大家介绍的是麻省理工大学计算机科学和人工智能实验室在NeuIPS 2019会议上发表的一篇文章。在文中,作者提出了一种基于图结构的蛋白质序列生成模型,通过聚焦三维空间上相邻的蛋白质区域,在基于神经网络的生成模型的蛋白质序列复杂度有了显著改善,并且比最先进的Rosetta程序生成序列更准确和高效。
来自韩国首尔大学的研究者近期发布了一篇利用基于流的生成模型进行实时的语音合成的研究 FloWaveNet。但奇怪的是,他们的论文中并没有语音合成中典型的人类评估 MOS(平均意见分数)指标,甚至一个实验图标都没有。原因很有趣:他们发现英伟达在前几天发布的论文 WaveGlow 竟然和 FloWaveNet 在主要思想上几乎完全相同,都提出了基于流的语音合成方法。
https://github.com/PrincetonLIPS/MaM https://arxiv.org/pdf/2310.12920
选自arXiv 作者:Ting Chen等 机器之心编译 机器之心编辑部 目标检测的「尽头」是语言建模?近日,Hinton 团队提出了全新目标检测通用框架 Pix2Seq,将目标检测视作基于像素的语言建模任务,实现了媲美 Faster R-CNN 和 DETR 的性能表现。 视觉目标检测系统旨在在图像中识别和定位所有预定义类别的目标。检测到的目标通常由一组边界框和相关的类标签来描述。鉴于任务的难度,大多数现有方法都是经过精心设计和高度定制的,在架构和损失函数的选择方面用到了大量的先验知识。 图灵奖得主 Ge
最近,百度硅谷人工智能实验室的研究员提出的ClariNet(合成语音展示),是一种全新的基于WaveNet的并行音频波形(raw audio waveform)生成模型。
AI科技评论按:本文由清华大学媒体与网络实验室以及迈阿密大学物理系共同合作完成,作者包括:余林韵(清华大学计算机系博士生,已毕业加入今日头条人工智能实验室)、崔鹏(清华大学计算机系副教授、博士生导师)、宋超明(迈阿密大学物理系助理教授)、张天扬(清华大学计算机系博士生)、杨士强(清华大学计算机系教授、博士生导师)。 在社交网络中,用户们会对周边用户的行为做出反应,这些在不同时间、空间发生的行为构成了社交网络中的信息流。其中,用户与用户间的交互行为是整个信息传播过程中最微观的指标,它对理解和揭示信息传播过程的
GraphPad Prism 9 for Mac是一款优秀的医学绘图软件,为科学研究而设计的首选分析和绘图解决方案。加入世界顶尖科学家的行列,探索如何使用Prism节省时间,做出更合适的分析选择,以及优雅地绘制和展示您的科学研究成果。
【新智元导读】华为诺亚方舟实验室在他们一篇被 AAAI 2017 录用的论文里提出了一个新的神经机器翻译(NMT)模型,引入基于重构的忠实度指标,结果显示该模型确实有效提高了机器翻译的表现。华为诺亚方舟实验室的研究人员表示,他们的 NMT 技术与谷歌持平。 基于深度学习的机器翻译,简称深度机器翻译近两年来取得了惊人的进展,翻译的准确度综合评比已经超过传统的统计机器翻译,研究单位主要有蒙特利尔大学[1,2],斯坦福大学[3,4],清华大学[5,6],谷歌[3,7,8],微软[9]和百度[5,10],以及华为诺
在刚刚闭幕的机器学习国际顶级会议NeurIPS 2021上,南京大学人工智能学院独立完成的工作「Regret Minimization Experience Replay in Off-Policy Reinforcement Learning」,首次揭示了深度强化学习「记忆池」的最优利用方法。
多人 3D 人体姿态估计是当前的一个热点研究课题,也具有广泛的应用潜力。在计算机视觉中,基于单张 RGB 图片的多人 3D 人体姿态估计问题通常通过自顶向下或是自底向上的两阶段方法来解决,然而两阶段的方法需忍受大量的冗余计算以及复杂的后处理,其低效率深受诟病。此外,已有方法缺少对人体姿态数据分布的认知,从而无法准确地求解从 2D 图片到 3D 位置这一病态问题,以上两点限制了已有方法在实际场景中的应用。
作者:Rachel Zhang 百度深度学习实验室RD,关注计算机视觉,机器学习,算法研究,人工智能, 移动互联网等学科和产业. 在聚类中我们经常用到EM算法(i.e. Expectation - Maximization)进行参数估计, 在该算法中我们通过函数的凹/凸性,在expectation 和maximization两步中迭代地进行参数估计,并保证可以算法收敛,达到局部最优解。 由于公式实在太多,这里我就手写了……主要讲了以下几个部分: 1. 凸集,凸函数,凹集,凹函数的概念 2.
团队提供了完整的,没有经过筛选的实验结果。他们在实验室周边随机选取了 out-of-distribution (训练集外)测试样本。
夏乙 问耕 假装发自加州 量子位 出品 | 公众号 QbitAI 这几天,AI圈人士纷纷前往洛杉矶附近风景宜人的长滩。 他们在这里排长队、晒太阳、看大海、听嘻哈、谈穿着,以及……顺便参加NIPS 20
羿阁 发自 凹非寺 量子位 | 公众号 QbitAI 最近爆火的“扩散模型 (diffusion model)”首篇综述来了! 作为深度生成模型中新的SOTA,目前有关它的理论和实践还在“野蛮生长”阶段,缺乏系统性的回顾。 为了反映这一快速发展领域的进展,这篇综述从扩散模型算法细化分类、和其他五大生成模型的关联以及在七大领域中的应用等方面展开,最后提出了扩散模型的现有局限性和未来的发展方向。 作者是来自加州大学&Google Research的Ming-Hsuan Yang、北京大学崔斌实验室以及CMU、U
本综述(Diffusion Models: A Comprehensive Survey of Methods and Applications)来自加州大学&Google Research的Ming-Hsuan Yang、北京大学崔斌实验室以及CMU、UCLA、蒙特利尔Mila研究院等众研究团队,首次对现有的扩散生成模型(diffusion model)进行了全面的总结分析,从diffusion model算法细化分类、和其他五大生成模型的关联以及在七大领域中的应用等方面展开,最后提出了diffusion
---- 新智元报道 作者:大仲马 编辑:桃子 【新智元导读】最近爆火的扩散模型首篇综述来了! 本综述(Diffusion Models: A Comprehensive Survey of Methods and Applications)来自加州大学&Google Research的Ming-Hsuan Yang、北京大学崔斌实验室以及CMU、UCLA、蒙特利尔Mila研究院等众研究团队,首次对现有的扩散生成模型(diffusion model)进行了全面的总结分析,从diffusion mo
变栗 问耕 发自 凹非寺 量子位 出品 | 公众号 QbitAI 昨天上市即破发的小米,今天上午股价大涨近10%。这下雷军要笑了。 而且可以笑得更灿烂。更灿烂是什么样?来,我们用OpenAI刚刚发布的
随着人工智能领域的越来越热,巨头们纷纷杀入了战场。雷锋网(搜索“雷锋网”公众号关注)总结了国外十家由科技巨头创立的,处于AI商业化应用研究最前沿位置的人工智能实验室,帮助大家随时掌握AI的最新动态。 谷歌:人工智能实验室,DeepMind 谷歌人工智能实验室 谷歌旗下实际上有两家互相独立的人工智能实验室,谷歌人工智能实验室负责谷歌自身产品相关的AI产品开发,大名鼎鼎的第二代人工智能系统TensorFlow就是在这里诞生的。谷歌内部采用的是“嵌入式模式”,也就是说每个人员都在平
IBM喜欢大数据,获取的越多,就越能向用户销售出更多的服务器、存储和服务。但是由于IBM获取的大数据容量已经过大,导致这家公司的研发人员很难驾驭这些数据。举 例来说,IBM位于硅谷阿尔马登研究中心的专家劳拉·哈斯(Laura Haas)去年就曾询问同事,她为什么不能使用更大的数据集。哈斯当时就曾表示,单是准备数据就花费了他80%的时间。哈斯意识到,IBM研究时间被数据 分析耗费的越多,该公司的专家就会耗费更多的时间和精力用于扩展数据集,从而放缓研发的步伐。很 明显,这种事情应当交付给专业的数据科学家来解
领取专属 10元无门槛券
手把手带您无忧上云