微软AI面试题有多难?这里有一份样卷

大数据文摘作品

编译:张南星、卫青、钱天培

究竟什么样的AI人才能被微软这样的巨头聘用呢?

是不是要码力超群,上来就能徒手写个AlphaGo呢?还是要眼光毒辣,当场就能构想出未来20年AI发展前景呢?

当然不是!

今天,文摘君就淘来了几道微软AI 面试题,同时给出了最基本的解答。(注意是最基本解答哦,欢迎在文末留言给出你认为更好的答案。)

神秘的微软AI面试题,其实非常平易近人。一起来答答看!

合并k个数列(比如k=2)数列并进行排序

代码如上。最简单的方法当然就是冒泡排序法啦。虽然不是最有效的,但却容易描述和实现。

L1/L2正则度量有什么区别?

L1范数损失函数也叫做最小一乘法(LAD)以及最小绝对误差(LAE)。它主要在于最小化目标值(y_i)同预测值(f(x_i))之间的绝对差值之和。

公式一

L2范数损失函数也叫做最小平方误差(LSE)。它主要在于最小化目标值(Yi)以及预测值[f(xi)]之间差值平方之和。

公式二

对于较大的误差误差,L2比L1给出的惩罚更大。此外,加入L2正则后,模型系数会向0聚拢,但不会出现完全为0的情况,而L1损失函数则能使部分系数完全为0。

如何寻找百分位数?

就拿上面这道题目为例吧:过去12小时内共有1000人来过这个购物中心,请估测,截止至何时,购物中心刚好达到30%的总客流量?

我们可以通过多项式线性回归(polynomial regression)或者平滑样条(spline smoothing)等技巧作出下图。

即为30%的客流量对应3000人

从Y值为3000的点画一条水平线,当与曲线相交时,画一条垂直线在横轴上找到对应的时间值就可以啦。

怎么区分好的可视化与坏的可视化?

针对这个问题,我们会有很多不同的答案。比如,一个不能很好地处理异常值(outliers)的可视化,就不是一个好的可视化。

比如说我们有一个数组,在一系列小数字中有一个很大的数据([1,2,3,4,7777,5,6,9,2,3]),当我们可视化这个数组的时候,会产生如下的图:

右图→原始图片;中间图→规范化值;左图→标准化值

怎样才能更好地可视化这组数据呢?正如上图所示,即使我们对分析值进行了标准化或者规范化,产生的折线图依然不能很好地表示这组数组。究竟要怎么做呢?欢迎留言发表看法。

怎样更快地计算出逆矩阵?

比如,可以考虑Gauss-Jordan法。

如果是一个2x2的矩阵就很简单了。

逆矩阵是:

ad-bc≠0

只需要交换a和b,取b和c的负值,然后除以方阵ad-bc。

定义方差

方差是每个数据点与整个数据集平均值之间差值的平方和。换而言之,就是数据的变化性。下面这张图就很好地解释了什么是方差。

首先我们计算出每只狗和平均身高的差值;为了计算方差,将每个差值平方后加总,再求平均值。

最后,献上本文出现的所有代码:

https://colab.research.google.com/drive/1DYimC5CEKeXdT15tbptifYL2v5MPkyHj

相关报道:

https://towardsdatascience.com/my-take-on-microsoft-ai-interview-questions-with-interactive-code-part-1-c271388af633

原文发布于微信公众号 - 大数据文摘(BigDataDigest)

原文发表时间:2018-05-13

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据挖掘DT机器学习

R语言与机器学习(分类算法)logistic回归

由于我们在前面已经讨论过了神经网络的分类问题,如今再从最优化的角度来讨论logistic回归就显得有些不合适了。Logistic回归问题的最优化问题可以表述为:...

6954
来自专栏素质云笔记

NLP+2vec︱认识多种多样的2vec向量化模型

1、word2vec 耳熟能详的NLP向量化模型。 Paper: https://papers.nips.cc/paper/5021-distributed...

5667
来自专栏专知

CMU2017年秋季课程:深度学习——Ruslan Salakhutdinov主讲(附PPT下载)

【导读】本文是对美国卡耐基梅隆大学(CMU)2017年秋季课程——深度学习的介绍,CMU一直走在深度学习领域的前列,虽然该课程是2017年秋季开课的,但是其关于...

4489
来自专栏AI启蒙研究院

【读书笔记】之概率统计知识梳理

753
来自专栏AI2ML人工智能to机器学习

变分の美

变分法(Variational method)已经成为微积分后主流的分析工具, 在物理和应用数学有着极大的功能。 变分法的诞生起源于最强大的数学家家族两个兄弟之...

1111
来自专栏数据科学与人工智能

【机器学习】机器学习资料大汇总

注:本页面主要针对想快速上手机器学习而又不想深入研究的同学,对于专门的researcher,建议直接啃PRML,ESL,MLAPP以及你相应方向的书(比如Num...

2719
来自专栏Vamei实验室

概率论08 随机变量的函数

作者:Vamei 出处:http://www.cnblogs.com/vamei 欢迎转载,也请保留这段声明。谢谢!

1602
来自专栏大数据

数据挖掘干货总结(一)-NLP基础

本文共计1463字,预计阅读时长八分钟 NLP-基础和中文分词 一、本质 NLP (Natural Language Processing)自然语言处理是一门研...

2648
来自专栏CreateAMind

变分自编码器(Variational Autoencoder, VAE)通俗教程,细节、基础、符号解释很齐全

现在有一个数据集DX(dataset, 也可以叫datapoints),每个数据也称为数据点。

993
来自专栏AI2ML人工智能to机器学习

随机眼里的临界

以前,来自清华的师兄给我讲过一句话, 叫随机过程随机过, 实变函数学十遍。 至今印象深刻。 我想说的是, 一遇概率脑子绝对不够用~~~

761

扫码关注云+社区