首页
学习
活动
专区
工具
TVP
发布

AI研习社

专栏作者
1755
文章
2104984
阅读量
197
订阅数
AI 崛起的第九个年头,还有哪些大有可为的地方?
从2012年算起,人工智能的再次爆发已经进入了第九个年头,人们对“人工智能是什么”也从最初的懵懂、憧憬、恐惧,逐渐走向深度的认识。在2018年人们还在讨论人工智能什么时候会再次进入寒冬,但到了2019年人们对“寒冬”之说已经不再感冒,而是普遍在追寻“如何让人工智能可理解”或者“AI所引发的隐私、安全、伦理问题”。2020年,人工智能依旧在蓬勃发展,并在各行各业产生了深刻的影响。2020年还剩下10个月的时间,让我们去预期,人工智能会有哪些重要的趋势呢?
AI研习社
2020-02-27
6100
不再受限于数据集和硬件,下一代机器学习软件如何构建?
在 Cortex,我们看到用户推出了基于深度学习的新一代产品,与以前不同的是,这些产品并非都是使用独一无二的模型架构构建的。
AI研习社
2020-02-21
5770
使用PyTorch进行主动迁移学习:让模型预测自身的错误
在我之前为 PyTorch 撰写的文章《Active Learning with PyTorch》中,我介绍了主动学习的构建模块。如果你不熟悉主动学习,你可以从这里开始了解,也可以看看我关于两种主动学习——不确定性抽样和多样性抽样的文章,以及相关的主动学习技术来将知识串联起来:
AI研习社
2020-02-14
1.1K0
调试机器学习模型的六种方法
在机器学习模型中,开发人员有时会遇到错误,但经常会在没有明确原因的情况下导致程序崩溃。虽然这些问题可以手动调试,但机器学习模型通常由于输出预测不佳而失败。更糟糕的是,当模型失败时,通常没有信号显示模型失败的原因或时间。而使情况更为复杂的是,这可能是由于一些因素造成的,包括糟糕的训练数据、高损失误差或缺乏收敛速度。
AI研习社
2019-11-01
6490
用小数据集进行原型设计结果的小技巧
本文作者是 Kanda 的机器学习工程师 Daniel Rothmann,他对一切具有变革性的事物都感兴趣,这里是他在和客户合作的过程中总结出的小数据处理方法。雷锋网整理。
AI研习社
2019-09-09
7090
数据科学家必看!处理数据的 7 个小技巧
在没有最基本的、必要的、未经处理数据的情况下,我们应该如何为机器学习的概念建立原型并加以验证呢?在资源匮乏的情况下,我们应如何有效地获取并用数据创造价值?
AI研习社
2019-07-16
3310
ICLR 2019 选集:聚焦样本受限问题
上周(5/6/19),国际学习表征会议(ICLR)开幕了。在此,我想深入研究一些我认为有趣的ICLR论文,这些论文大多与我个人感兴趣的领域有关(无监督学习、元学习、注意力、NLP),但我选择它们的原因却是因为它们在各自领域的高质量和影响力。本文第一部分将介绍在小数据集上深度学习领域的突破。第二部分将讨论在NLP和其他序列化数据方面的突破。最后的第三部分是我觉得有趣的杂七杂八的论文。
AI研习社
2019-06-19
6240
观点 | 深度学习+符号表征=强大的多任务通用表征,DeepMind新论文可能开启AI新时代
AI 科技评论按:在深度神经网络大行其道的现在,虽然大家总说要改善深度学习的可解释性、任务专一性等问题,但是大多数研究论文在这些方面的努力仍然只像是隔靴搔痒。而且,越是新的、具有良好表现的模型,我们在为模型表现感到开心的同时,对模型数学原理、对学习到的表征的理解也越来越进入到了放弃治疗的心态;毕竟,深度学习具有超出经典 AI 的学习能力,正是因为能够学习到新的、人类目前还无法理解的表征。
AI研习社
2019-06-14
5230
如何优化你的图像分类模型效果?
图像分类是一个认为几乎解决了的问题。有趣的是,你必须竭尽所能来提升额外的1%的准确率。当我参加“ Intel Scene Classification Challenge hosted by Analytics Vidhya(由Analytics Vidhya主办的英特尔场景分类挑战)”我非常喜欢这次比赛,因为我尝试从我的深度学习模型中榨干所有的潜力。下面的技术通常是可以应用到手头上的任何图像分类问题中去。
AI研习社
2019-05-29
1.6K0
学界 | RNN失宠、强化学习风头正劲,ICLR 2019的八点参会总结
AI 科技评论按:上周,深度学习顶级学术会议 ICLR 2019 在新奥尔良落下帷幕。毕业于斯坦福大学、现就职于英伟达的女性计算机科学家 Chip Huyen 参加了这次会议,谈到对这次峰会的感想,她有以下 8 点想要讲:
AI研习社
2019-05-29
4200
谷歌的 PlaNet 强化学习网络
迁移学习是Google、Salesforce、IBM和Azure云服务商提供的托管AutoML服务的基础。它现在在最新的NLP研究中占据突出的地位——包括谷歌的BERT以及ULMFIT中有重要的作用。
AI研习社
2019-05-17
5680
博客 | 一文看懂任务型对话中的对话策略学习(DPL)
前面写了对话系统中的SLU之领域分类和意图识别、槽填充、上下文LU和结构化LU、对话状态追踪(DST)、以及NLG,今天更新任务型对话系统中的DPL。DPL也叫DPO(对话策略优化),跟DST一样,DPL也是对话管理(DM)的一部分,而DM是任务型对话中至关重要的一部分。说个非严格的对比:如果把对话系统比作计算机的话,SLU相当于输入,NLG相当于输出设备,而DM相当于CPU(运算器+控制器)。
AI研习社
2019-05-08
4.3K0
如何极大效率地提高你训练模型的速度?
我现在在Unbox Research工作,由 Tyler Neylon创办的新的机器学习研究单位,岗位是机器学习工程师。我刚刚为一名客户完成了一个服装图片分类的iOS 应用程序开发的项目——在类似这样的项目里,迁移学习是一种非常有用的工具
AI研习社
2018-12-11
2.1K0
为什么吴恩达认为未来属于迁移学习?
AI研习社按:日前,知名 AI 博主、爱尔兰国立大学 NLP 博士生 Sebastian Ruder 以 “迁移学习:机器学习的下一个前线” 为题,对迁移学习的技术原理、重要性与意义、应用方法做了详细
AI研习社
2018-03-29
7260
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档