大数据文摘专栏作品
作者:Christopher Dossman
编译:Joey、云舟
呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!
AI ScholarWeekly是AI领域的学术专栏,致力于为你带来最新潮、最全面、最深度的AI学术概览,一网打尽每周AI学术的前沿资讯。
每周更新,做AI科研,每周从这一篇开始就够啦
本周关键词:数据科学团队、神经网络、对象识别
本周最佳学术研究
数据科学的团队协作模式
随着越来越多的组织开始引入先进的数据驱动方法来改进决策,越来越多的数据科学团队正在致力于处理庞大的数据集、管道以及随之而来的决策和产品。 但是,由于数据科学工作流程包含多个阶段,因此我们自然地产生了一个问题:“数据科学工作者之间是否可以协作?如果可以,那么究竟该如何合作?”
在本文中,IBM和MIT的研究人员介绍了一家大型公司对数据科学工作者进行的大规模调查的结果,该调查研究了数据科学工作者之间如何进行团队协作。
调查参与者&调查问题:研究人员设计了一个在线调查,并招募了183名在数据科学团队中有工作经验的参与者。调查问题涵盖了数据科学团队中的5个关键角色(工程师/分析师/程序员、研究员/科学家、领域专家、经理/行政人员和沟通者),并包括数据科学工作流程中的6个阶段。
调查还要求参与者描述他们在代码和数据共享与复用方面的协作实践,包括对自己工作和文档实践的期望。
数据科学协作工具:研究人员还研究了数据科学家在协作时使用的工具,和工具的使用如何与协作实践(例如代码和数据文档)相关联,以及为数据科学协作工具的未来研究和开发提供了方向。
主要研究贡献
研究结果:研究人员发现,数据科学工作者不仅会进行广泛的协作,而且在数据科学项目工作流程的不同阶段,他们还会扮演各种角色并与各种利益相关者一起工作。
这项调查很重要,因为它加深了对当前数据科学团队成员(例如数据科学家和工程师)之间的协作实践的理解。这些发现还可以为未来的数据科学团队合作和研究方向提出设计建议。
原文:
https://arxiv.org/abs/2001.06684v1v
生成可以“蒙骗”神经网络的对抗性示例
位于中国北京百度X-Lab的研究人员近日发布了Advbox,这是一个基于Python的工具箱,它能用于生成对抗示例。这些示例可以欺骗PaddlePaddle、PyTorch、Caffe2、MxNet、Keras、TensorFlow的神经网络。
Advbox实现了几种流行的对抗性攻击,它们可以搜索对抗性示例,并且可以对机器学习模型的稳健性进行基准测试。 他们的研究重点是基于我们的AdvBox的对抗性示例攻击、防御和检测方法,涵盖以下内容:
● 基本原则和实施思路。
● 对抗性示例攻击、防御和检测方法。
● 对机器学习即服务的黑匣子攻击。
●更多攻击场景,例如人脸识别攻击、隐形T恤和Deepfake FaceDetect。
隐形T恤方案:研究人员设计了一种具有对抗性图案的“隐形T恤”,以欺骗对象检测器。这款T恤可以将穿着它的人从开源物体检测器中隐藏起来。通过佩戴并在相机前显示敌对模式,并在相机后方显示物体检测器,佩戴者会消失,而不穿T恤衫的人仍处于物体检测器的检测之下。
与以前的作品相比,该平台支持对服务型机器学习的黑盒攻击,以及更多的攻击方案,例如人脸识别攻击、隐形T恤和DeepFake人脸检测。Advbox很容易制作对抗示例,因为某些攻击方法可以执行内部超参数调整以找到最小的扰动。
源代码:
https://github.com/advboxes/AdvBox
原文:
https://arxiv.org/abs/2001.05574v3
物体识别中不平衡问题的分类及其解决方案
在本文中,研究人员回顾了深度学习时代的物体识别相关文献,并确定了八个不同的不平衡问题。他们将分类学中的这些问题分为四种主要类型:类不平衡、规模不平衡、空间不平衡和客观不平衡:
虽然不平衡问题在机器学习、计算机视觉和模式识别中具有广泛的范围,但研究人员将本文的重点限制在对象检测中的不平衡问题。由于当前的最新技术是由基于深度学习的方法决定的,因此他们讨论了与深度对象检测器有关的问题和方法。这项工作有助于确定我们的位置以及应遵循的研究方向,并以此开发出更好的解决方案来解决对象检测中的不平衡问题。
该工作还提供了一个网页(该网页将随着新的研究而不断更新),是我们基于问题的分类法而组织的,可以作为解决不平衡问题的实用文献资料库。
原文:
https://arxiv.org/abs/1909.00169v2
论社会认知主体的社会认同
研究人员最近提出了一种基于认知社会框架概念的社会认知主体模型,该模型允许根据主体如何解释其周围环境(其社会背景)来适应主体的认知。
该模型在物理世界的个人构造,社会背景和代理的认知资源之间建立了联系。该机制允许代理基于其显著的CSF来解释现实世界,并部署不同的认知资源来匹配环境的要求。它还建立了一个框架,促进社会认知主体与生活在充满社会规则和互动机会的环境中的其他社会行为者一起部署。
人们越来越需要能够与人类一起生活的智能代理,新的智能代理需要处理各种社会情况,并具有社交属性。
该模型旨在使社会认知主体的发展能够根据其社会背景(对其社会世界的解释)调整其认知。通过利用一种基于认知社会框架概念的机制,该机制作为主体的社会环境与其认知之间的纽带,该模型能够实现这一目标。
任何能够实施拟议机制的社会认知主体都可以按照社会语境和建构主义原则来解释世界,而不仅仅是感知世界。此外,该机制的第二阶段允许社会认知主体构建一种心理表征,即社会语境,描述其与感知元素的关系。
原文:
https://arxiv.org/abs/2001.07142v1
基于文本的道德情感变化推断
加拿大多伦多大学计算机科学系的学者提出了一种基于文本的框架,用于调查公众的道德情感变化。
他们的框架基于这样一个前提,即人们对语言的使用反应了人们对道德观念的是非判断。因此,他们通过探索从时间性词嵌入中汲取的道德偏见来构建方法论。研究人员还演示了无参数模型在一些道德观念上的转变,诸如人们对奴隶制和民主等概念几个世纪以来的认知状况,他们展示了道德相关性,道德极性和细粒度的道德尺寸。
该框架从多个层面考察了道德情绪的变化,并捕获了与道德基础理论的相关性,极性和细粒度类别有关的道德动力。
将方法论应用于个体概念中道德变化的自动分析,可以洞悉与公众道德变化率相关的语言变量。该框架提供了将自然语言处理应用于表征社会道德风尚变化的机会。
原文:
https://arxiv.org/abs/2001.07209v1
其他爆款论文
为图像着色的最新方法:
https://arxiv.org/abs/1907.09837v2
Google AI宣布新的转换器模型,旨在于单个加速器上仅使用16GB内存来处理多达100万个单词的语境窗口:
https://ai.googleblog.com/2020/01/reformer-efficient-transformer.html
残差算法(RA)是解决基于模型的规划中分布不匹配问题的更有效方法:
https://arxiv.org/abs/1905.01072v2
从科学规范和出版物中建立语义丰富的模型统一表示:
https://arxiv.org/abs/2001.07295v1
强化学习的变分推理框架,其性能优于最新方法:
https://arxiv.org/abs/1811.01132v8
AI大事件
人工智能和生物共同努力,建造世界上第一个活着的机器人:
https://singularityhub.com/2020/01/22/not-bot-not-beast-scientists-create-first-ever-living-programmable-organism/?utm_campaign=Artificial%2BIntelligence%2BWeekly&utm_medium=email&utm_source=Artificial_Intelligence_Weekly_144
人类法官VS机器人法官:
https://www.zdnet.com/article/ai-in-the-court-are-robot-judges-next/
专栏作者介绍
Christopher Dossman是Wonder Technologies的首席数据科学家,在北京生活5年。他是深度学习系统部署方面的专家,在开发新的AI产品方面拥有丰富的经验。除了卓越的工程经验,他还教授了1000名学生了解深度学习基础。
LinkedIn:
https://www.linkedin.com/in/christopherdossman/