专栏首页机器之心业界 | 蚂蚁金服首届ATEC开发者大赛人工智能大赛圆满落幕,一文详解最佳解题方案

业界 | 蚂蚁金服首届ATEC开发者大赛人工智能大赛圆满落幕,一文详解最佳解题方案

机器之心报道

作者:孙茜茜

一个历时 4 个多月、吸引了 5618 位参赛选手、Michael I. Jordan 和蚂蚁金服 CTO 亲自在证书上签名的大赛。

杭州·云栖大会期间,首届「ATEC 蚂蚁开发者大赛人工智能大赛」在 ATEC 展馆落下帷幕。

此次大赛于今年 4 月 18 日预报名启动,8 月 26 日复赛结束,持续时长 131 天。「不错的业务场景」及「真实的数据集」吸引了来自来自全球 20 多个国家地区 1000 所院校及企业,近 1/3 海外高校, 共 5618 位选手参赛,是一场真正的国际化顶级比赛!

值得一提的是,参赛者中,拥有硕士及以上学历的占比 70%,行业界人士占比 40%,这让此次比赛更为激烈和贴近实战。

此次大赛分为「风险大脑-支付风险识别」、「金融大脑-智能客服 NLP 相似度计算」两个赛道,两个赛道各有五支队伍进入决赛,进行现场演示和答辩。排名前三的团队(共 6 支队伍)共获得 120 万元现金奖励,并获得直通蚂蚁金服集团技术岗的终面资格。

颁奖典礼上,蚂蚁金服科学智囊团主席、加州大学伯克利分校教授 Michael I. Jordan,蚂蚁金服副总裁、首席数据科学家漆远等学术及行业嘉宾为获奖团队颁发了获奖证书并签名、合影留念。

Michael I. Jordan 在获奖证书上签名

清华大学朱军教授、哈尔滨工业大学刘挺教授也出席了颁奖典礼,他们是大赛评委。

朱军教授是支付大脑的评委之一,他对比赛做出了这样的点评:「AI 用到金融里,现在不管是学术界或者是应用,都是大家比较关心的。但是 AI 要用到行业里、想做出好的解决方案,需要对问题和场景有非常深入的理解。我觉得你们都非常了不起,能够把机器学习算法用到实际里。虽然大家的思路都比较一致,但我觉得里面有很多精细的工作,做得还非常漂亮。特别是看到除了特征工程之外,大家对原理和方法有一些自己的思考,我觉得这个是特别值得鼓励的。不管是从学术界还是从工业界来看,我希望能够看到更多更有意思的例子和成果。」

金融大脑的比赛结束后,刘挺教授现场致辞:「现在这个时代真的是工业界领先的时代,搞 NLP 的人,我们的优势是能够和工业界结合,去拿到他们的真实数据。我们现在有机会和工业界合作,我希望大家更多去倾听工业界的声音,他们提炼出真实的问题、提供真实的数据。未来,希望大家能更深入地去分析,从原理上、从本源处去发明创造,去拐大弯儿。」

「优秀的数据集和场景」吸引了参赛经验丰富的工程师应缜哲,他是金融大脑赛道亚军 Skyhigh 的队长。Skyhigh 是一支参赛经验丰富的队伍,共有三名成员,除了已经工作了的应缜哲,还有两位研究生。自 2017 年认识以来,三人组团参加了五六次比赛,且都取得了不错的成绩。

应缜哲说,「这次比赛是国内一个非常好的中文的课题,这种赛题非常少。数据很真实,我们做了很多特征工程,这是这个比赛我认为最有意思、也是我花时间最多的地方。如果下次比赛,赛题还这么有趣,我还会来的。」

蚂蚁金服这次精心呈上的两个经典赛题究竟是什么?两支冠军队伍又分别给出了怎样的解题方案?下文将作出详细解答。

「风控老兵」来参赛,斩获冠军

移动互联网的新金融业务在蓬勃发展的同时,黑产攻击的能力也在不断升级。信息泄露导致过亿的敏感数据被盗用、利用,给用户和银行带来了巨大的经济损失。保护消费者和风险识别,越来越成为金融行业和学术界关注的焦点。

在这一背景下,蚂蚁金服设置了「支付风险识别」的赛题:用 2017 年 9 月到 10 月的交易数据构建算法,识别 2018 年 2 月的交易欺诈行为。

这一赛题,吸引了多位金融科技领域的资深从业人士来参赛。斩获冠军的,也是「风控行业的老兵」,他们的解决方案兼具「创新性」和「实用性」。

「我们是一支来自上海的队伍。」「谋杀电冰箱」的队长熊文文说,团队共有 4 人,平均年龄 27 岁,都来自互联网金融行业,对风险控制和风险模型的开发有一定的了解。

「这个比赛提供了一个新场景——支付场景,大家就都想试一试。」熊文文说,他们之前在信贷场景下做风险控制,不同于支付场景中的风险控制,「信贷主要是刻画一个人(账户)的资质情况,支付不是刻画账户的资质、而是刻画某单交易异常的情况。」

如何解题?他们的特征工程以交易的账户(人)、交易账户所处的环境、与这个账户交易的商户三个要素为核心,结合这三要素交叉时间维度,寻找静/动态异常交易的特征。

通过数据分析,他们发现,「盗刷交易存在一定的集中性」。比如,1% 的用户覆盖了 80% 的盗刷时间;某用户在 3 天内被盗刷几百次;某交易方(也即商户)交易 1175 次,其中 80% 是盗刷。「如果之前的交易就是有风险的,如果能检测到之前风险的话,那我就可以在判定这单交易时,把风险加进去。」于是,他们创新地提出了「先验风险信息」的概念,并设计了一个可以提炼先验风险信息的模型结构来强化识别效果。

他们将数据按照时间的先后分为第一个月的数据和第二个月的数据。首先,通过第一个月的数据训练 3 个子模型(各有侧重),这 3 个子模型的 AUC 停留在 0.986 左右,判定分数在 0.56-0.57 之间;再利用 3 个子模型对第二个月的数据进行预测,进而得到第二个月每单交易的三个风险分数(即先验风险);最后通过风险分数及其衍生变量,加上第二个月数据的常规变量,训练得到模型 D。模型 D 给出的结果即为最后的结果。最终,模型 D 线下的测试 AUC 可以达到 0.991,线下的判定分数能达到 0.7。

此外,他们还挖掘了一些白名单的规则:如,用户每月 3000 笔以后的交易可以直接定义为正常;设备每月 400 笔之后,可以定义为正常。「通过白名单的规则,大概可以覆盖 10% 的样本,可以将判定分数提升几个千分位。」

分时间段建模、将效果不好的早期数据化作变量、进行融合建模的做法以及策略+模型的解题思路,让他们取得了第一名的成绩(A 榜得分 0.627,B 榜得分 0.797),也斩获了评委们的心。

逆袭:从第十一到第一,「有一种触电的感觉」

「金融大脑」的赛题是问题相似度计算,即给定客服里用户描述的两句话,用算法来判断是否表示了相同的语义。

「这个任务非常有实用价值」「一支优秀的队伍」是此赛道的冠军,队长段誉说:「想象你在做一个客服系统,事先会有一个问题-答案的表单,客服的工作其实就是在面对用户的提问时,迅速找到与之最接近的问题,并整理出答案来给用户。文本匹配系统一旦做的好了,可以直接解决第二个阶段的问题,也是最需要人力的部分——找到最接近的问题,这能大大减轻客服的压力,让他们去解决真正困难的问题。」

最先获知这个比赛的是研一师弟梁嘉辉,他刚开始接触 NLP,「想通过这个比赛提高自己的能力」。因为一个人参赛难度太大,便找到「正处于学术空档期」的段誉(研三),共同组队参加比赛。一个关键 BUG 的解决让他们从第十一逆袭到第一,「有一种触电的感觉」。

与进入决赛的其他 4 支队伍相比,他们在特征工程上花费了很少的时间,主要立足于对模型的充分改进和探索,将单一模型的效果发挥到了极致。

他们的最佳成绩是将三个模型 ensemble 后得来的,这三个模型结构大概相同,只在细节(例如模型输入)上有细微差别。他们的最优模型如下:

首先,他们的模型输入为五个层面的 char-level feature,除 exact match、idf 外,自动提取了几个特征:用 skip-gram 在本地训练 300 维 char embedding,为了防止过拟合,训练时是 fix 住的;为了弥补因 fix 而损失的模型能力,额外引入了 50 维可以训练的 char embedding;利用其他文献的方法分别提取了 1 维的句子间特征以及 1 维的句子本身特征。

通过输入层后,引入 Noise+Dropout,用来提升模型鲁棒性,再用 bi-GRU 当作 encoder,并引入 fuse gate 来加速信息流通,然后用一层 mlp+残差进一步整合信息。之后对两个句子进行对齐。对齐之后,通过正交分解,分别提取相关性和不相关性的信息。

用 Multi-Head attention + Multi-Head pooling 对相关信息、不相关信息进行推断后,再过一次一层 mlp+残差,然后分别得到相关信息表达、不相关信息表达。用 fuse gate 对两方面的信息综合考虑后,再经过 dropout 以及两层 MLP,得出最终的结果。

段誉在论坛里分享了自己的经验,他写道:「从一开始我们就选择了 ESIM 模型,相比现在动不动就好多层网络结构的 NLI 模型,ESIM 思路清晰、能说服我们、网络结构相对简单、没有用很多 trick、扩展性也强、效果很棒,所以就一眼相中了。」

「对于 NLP 语义相似度识别这个任务来讲,模型的潜力是蛮大的,我们没有做任何的预处理,完整地保留了每个句子的所有信息(当然了 padding 和截取是必须的)。我们没有使用词级别的向量,而是纯用的字级别的向量,在做实验的过程中发现基于词级别的结果普遍要差一点,这和分词质量不无关系,而且本人认为 GRU、LSTM 这样的网络因为引入了 fuse gate,已经具备一定程度的分词作用了。但是可以料想的是,如果经过了良好的分词处理,结合 word 和 char 级别的 embedding,应该是有一定帮助的。」

梁嘉辉表示,通过参加这次大赛,他体验到了深度学习的魅力,也明确了未来的研究方向,「就是 NLP(自然语言处理)」。

通过大赛解决实际问题,是蚂蚁金服的初衷。「我们非常欢迎更多人参与进来,能够去学习新技术、用技术解决实际问题。」蚂蚁技术合作与发展部的柴文意是此次大赛的负责人,她表示,此次比赛结束后,蚂蚁金服将会把赛题和数据开放出来,也会尽可能地将参赛者的策略、方案应用到蚂蚁金服的真实场景中去。

漆远表示,「这(此次比赛)只是一个开始,我们会把这个作为一个长期的机制——打榜机制,开放出平台,让更多朋友参加这个比赛。」

蚂蚁金服副总裁、首席数据科学家漆远

「ATEC 大赛是一个非常好的链接生态的平台,将会持续举办。」柴文意表示,接下来,他们会在不同领域推出不同赛题,把行业中一些通用的问题提炼出来,把一些脱敏过的数据开放给选手,「让他们在这个过程中得到锻炼和学习」。

本文为机器之心报道,转载请联系原作者获得授权。

本文分享自微信公众号 - 机器之心(almosthuman2014),作者:孙茜茜

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-10-15

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 分析了自家150个ML模型之后,这家全球最大的旅行网站得出了6条经验教训

    「150 successful Machine Learning models: 6 lessons learned at Booking.com」是一篇绝佳的...

    机器之心
  • 学界 | 百度提出冷聚变方法:使用语言模型训练Seq2Seq模型

    选自arXiv 机器之心编译 参与:路雪、蒋思源 近日,百度研究院发表论文提出冷聚变(Cold Fusion)方法,即在 Seq2Seq 模型训练过程中加入语言...

    机器之心
  • 当推荐遇到社交:美图的推荐算法设计优化实践

    在美图公司社交战略部署下,推荐算法存在多方面的挑战,为了解决这些挑战,我们团队从工具和算法两个方面分别开展了工作。

    机器之心
  • 数学建模如何诱骗了华尔街

    现实世界——从种族隔离制度到金融市场——一直在警示我们:那些试图通过科技来掌握复杂人类行为的做法会使我们误入歧途。 无论是在科学领域,还是在日常生活中,我们都...

    钱塘数据
  • 如何用R语言在机器学习中建立集成模型?

    在本文中,我将向您介绍集成建模的基础知识。另外,为了向您提供有关集合建模的实践经验,我们将使用R对hackathon问题进行集成。

    拓端
  • 第14天:NLP补充——条件随机场(CRF)

      条件随机场在NLP领域中应用的较为广泛,也是自然语言处理中较为常用的算法之一,因此接下来给大家详细介绍条件所机场。   条件随机场模型是Lafferty于...

    stefan666
  • 谷歌大脑提出EfficientNet平衡模型扩展三个维度,取得精度-效率的最大化!

    今天要跟大家重磅介绍上午谷歌大脑新出的论文《EfficientNet: Rethinking Model Scaling for Convolutional N...

    CV君
  • 重磅!谷歌大脑提出EfficientNet平衡模型扩展三个维度,取得精度-效率的最大化!

    今天要跟大家重磅介绍上午谷歌大脑新出的论文《EfficientNet: Rethinking Model Scaling for Convolutional N...

    CV君
  • 如何系统性掌握深度学习模型设计和优化

    模型是深度学习的核心技术之一,我们平时在从事相关工作时,有很大一部分精力都在模型设计和优化上。对于新手朋友们来说,往往只会跑一跑别人的模型或者只会盲目的简单修改...

    用户1508658
  • AutoML 在推荐系统中的应用

    今天,推荐系统的模型和应用已经相当成熟,然而部署一套全新的推荐系统,甚至仅在已有系统上添加数据维度和模型优化依然是非常耗时耗力的事情。

    用户1737318

扫码关注云+社区

领取腾讯云代金券