前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >算法大佬教你社招如何收割offer (抖音/蚂蚁/寒武纪/国企研究院等)

算法大佬教你社招如何收割offer (抖音/蚂蚁/寒武纪/国企研究院等)

作者头像
枫桦
发布2022-08-02 14:38:22
8140
发布2022-08-02 14:38:22
举报
文章被收录于专栏:AI算法札记AI算法札记

作者|年年的铲屎官@知乎(已授权) 来源|https://zhuanlan.zhihu.com/p/546364420 编辑|枫桦

算法工程师面经

作者是NLP算法方向,历经1个多月的刷题复习+1个多月的面试,社招基本结束,面试了多家公司(抖音/蚂蚁/寒武纪/国企研究院等),收割了其中大部分offer,在此记录一下其中的面试题,希望对大家有用~

/ 背景介绍 /

# #

知乎上有个问题是《有哪些行为堪比1949年加入国民党‍》,那么我觉得我选择在2022年跳槽也算是一种吧[捂脸]。

2022年大环境不太好,整体hc比2021年少了很多,回想2021年,各个候选人所到之处,各家大厂中厂竭诚欢迎,hc充足,大家挑花了眼,那种生机勃勃,万物竞发的景象犹在眼前,没想到短短一年之后,居然情况急转直下

情况介绍:我主要做nlp,也涉及到多模态和强化学习的东西。2022年的大环境比较差,能投的公司不是很多,比如腾讯,主要还是高级别的,所以腾讯我就没投(说得好像我投了能面过一样...)

面了的公司包括小红书,抖音,寒武纪,蚂蚁,还有一些国企和研究院,比如北京智源人工智能研究院,某国内金融公司,其他的用来练手也面了一些,比如蔚来汽车,吉利汽车,华人运通,boss直拒,还有一些元宇宙公司,AI制药公司之类的,拿到了其中大部分offer,当然我自己也遇到一些拉胯情况,比如小红书二面挂[笑哭]

/ 面试感受 /

# #

这一个面下来,总体面试考察主要包括下面几个模块:代码题+项目细节+八股文+场景题,其中:

1,代码题,写不出来大概率还是要跪的,我觉得刷200道左右一般就问题不大。200道争取达到肌肉记忆,就是给出你题目你要10s之内给出思路,哪怕没有bug free,但是一定要保证有思路

2,项目细节我的感触最深,有些面试官会问的很细,在不断的试探我们的边界,所以项目细节还是要准备到位。通过这段时间的面试我反而对项目的理解更深刻,不知道这算不算面试给我带来的收益?这里有一个提高通过率的小trick:可以和1个或者多个靠谱小伙伴一起,让大家看对方的简历,假设自己是面试官,然后针对项目出一些题目,这样一来可以查漏补缺,有点co-teaching的感觉,这个方法还是挺管用的,大家可以试试~

3,八股文的话主要围绕项目出题,比如你做了强化学习的东西,那么常见的reinforce,actor-critic,on policy和off policy的区别,一定要掌握。比如你项目用到了swin-transformer,那么swin-transformer和传统的transformer的区别是什么,要清楚。

4,场景题可能是大厂喜欢考察,小厂不一定问。

/ 面经 /

# #

小红书:

代码语言:javascript
复制
小红书一面:
1,聊项目
2,你们的训练集和验证集,测试集分别是多少?怎么来的?
3,宏平均和微平均是用来干什么的?是如何计算的?他俩的主要区别?
4,知识蒸馏为什么有效,详细介绍一下知识蒸馏?
5,强化学习适合在哪些场景使用?
6,智力题:如何用rand6实现rand10
代码题:
lc 76,最小覆盖子串
代码语言:javascript
复制
小红书二面:
1,聊项目
2,layer normalization的好处是?和batch normalization的区别?你有没有看过有的transformer也用bn?
3,BERT的主要改进,包括结构的改进,预训练方式的改进,都说一下?(这里能说的很多,挑自己熟悉的说就行)
4,Reformer中,LSH(局部敏感哈希)是如何实现的?
5,CRF和HMM的区别,哪个假设更强?他们的解码问题用什么算法?
6,lstm参数量计算,给出emb_size和hidden_size,求lstm参数量
7,cv中有哪些常见的数据增强方式
8,简单实现一个layer normalization类,只需要实现__init__和forward就行

总结:这一面压力不小,而且面试官从一开始就多次打断我的说话,说我目前做的项目没意义,而且表情好像不耐烦,不知道是不是晚上面试耽误他下班了。这是我体验最差的一场面试,当时我有点想和他怼起来,但是想想还是忍住了,最后挂了也是意料之中

抖音

代码语言:javascript
复制
抖音一面
1,聊项目
2,AUC的两种公式是?你能证明这两种等价的吗?
3,BERT-CRF中,为什么要加CRF?好处是?
4,self-attention为什么要用QKV三个矩阵,不用有什么问题?有没有哪个模型的Q和K矩阵是一样的?
5,reinforce属于on-policy还是off-policy?为什么?
6,reinforce带上baseline好处是?reinforce的loss写一下?
7,策略梯度会推导吗?简单写一下?

代码题(代码题一般别着急写,先跟面试官说下思路,确定了再写):
1,lc 46,全排列(lc表示leetcode,下同)
2,lc 73,矩阵置0

总结:这一面我以为面试官只会问多模态,不会问强化学习,没想到这个面试官好厉害,强化学习也很懂,真的很强啊,我比较好奇,他们哪里来那么多时间看那么多领域的东西

代码语言:javascript
复制
抖音二面
1,介绍项目
2,知识蒸馏有哪几种?你觉得哪种效果最好?
3,nlp的数据增强方法,主要有哪几种?每一种举个例子?
4,分类的损失函数为什么是交叉熵而不是mse?
5,BERT对输入文本的长度有什么限制,为什么要限制长度呢?
6,BigBird里面有哪几种注意力机制?相比原始transformer的self-attention的优势?
7,场景题:如何根据拼多多的商品数量,估计淘宝的商品数量?
8,给出emb_size, max_len, vocab_size, ff_inner_size,num_heads, 12层,求BERT参数量
代码题:
n皇后问题

总结:给我来了一道hard题目,我以为我要挂了,结果没几分钟HR告诉我过了

代码语言:javascript
复制
抖音三面
1,简单聊项目
2,CRF和HMM区别?CRF为什么比HMM效果好?
3,如果BERT词表很大,比如vocab_size达到几百万,怎么办?
4,快速手写一些transformer的mha(多头注意力),伪代码意思一下就行
5,为什么对比学习中,temperature很小,而知识蒸馏的temperature比较大?
6,你觉得在抖音买东西,和淘宝、拼多多他们的区别是?(我没在抖音买过,就只能现场编。。)
7,你最近看到过哪些paper?简单介绍下?
8,你觉得自己有那些优缺点?平时喜欢怎么缓解压力?

总结:这一面的面试官很和蔼,一直笑呵呵的,后面就是闲聊了,体验很不错

蚂蚁

代码语言:javascript
复制
蚂蚁一面:
1,聊项目
2,多模态的预训练方式你知道哪些,知道的都说一下?
3,coca和CLIP的区别?为什么coca效果比CLIP好?
4,CLIP预训练的时候,batch size达到了32768,他用到了哪些trick去提高batch size?
5,CRF的loss写一下,CRF打破了HMM的哪个假设?
6,对比学习为什么有效?cv和nlp的经典的对比学习的模型说一下?
7,多头注意力的头的数量,对参数量有影响吗?为什么?
8,transformer里面为什么要加add&norm模块?好处是什么?

代码:
1,简单实现一个transformer-encoder-layer,要求pre-norm和post-norm可选
2,编辑距离

这和我想的蚂蚁的面试不太一样,我以为蚂蚁的代码题会容易一些呢,之前看到的面经,蚂蚁的代码题一般以medium为主

代码语言:javascript
复制
蚂蚁二面:
1,聊项目
2,衡量对比学习的两个指标是哪些?公式?
3,transformer相比lstm的优势有哪些?
4,distillBERT, tinyBERT, mobileBERT和miniLM,他们是如何对BERT蒸馏的?
5,ViT是如何对图片进行处理的?为什么要加position embedding?
6,说到position embedding,transformer一定要加position embedding么?有些模型没有加pe,你知道吗?
7,beam search的思想,伪代码实现
代码题:
lc 33,排序数组的搜索
代码语言:javascript
复制
蚂蚁三面:
1,聊项目
2,多头注意力,给出序列长度n和hidden_size,那么多头注意力的时间复杂度是多少?
3,ALBert相比BERT的改进,说一下?
4,BERT预训练有哪些问题?后面的模型怎么改进的?重点说说ELECTRA和MacBERT
5,有没有了解过,有的模型用生成的方式做信息抽取?
6,讲一下UIE模型是怎么做信息抽取的?其中的SSI和SEL说一下?
7,你老家哪里的?有哪些兴趣爱好?
8,你觉得自己优缺点有哪些?
9,我们走个流程,来一道代码题把,lc  207,课程表

寒武纪

代码语言:javascript
复制
寒武纪一面:
1,聊项目
2,你知道哪些对比学习的方法?cv和nlp都说一下
3,simCLR和moco区别?moco里面加k_encoder的作用?
4,moco v2, moco v3相对moco的改进有哪些?
5,resnet为什么效果好?残差连接的好处?
6,pytorch中,dataloader dataset和sampler的关系?
7,动态图和静态图区别?
8,蒸馏,量化和剪枝的原理大致说一下?
代码语言:javascript
复制
寒武纪二面:
1,聊项目
2,简单介绍一些CRF的好处,CRF条件概率的公式写一下
3,transformer相比lstm的优势有哪些?
4,transformer优点那么多,是不是可以淘汰lstm了,以后全用transformer?
5,swin-transformer和ViT的区别?数据量少的时候,他们和ResNet比,哪个效果好?为什么?
6,寒武纪做什么你知道吗?分布式训练用过吗?
7,pytorch的ddp和dp区别是什么?
8,你对混合精度的了解多吗?说一下混合精度的原理?

/ 面试感受 /

# #

1,高密度的面试挺累的,所以我建议分阶段面试:前期面试一些练手的小公司,同时这些小公司也不能太水,不然达不到练手的效果,然后比如隔一周时间稍微总结下,接下来正式面试自己的dream company

2,结对跳槽是个不错的选择,这次跳槽我和朋友一起跳,相互给对方出题,相互吐槽自己遇到的奇葩面试官,比自己一个人跳槽有趣的多。这次面试的复习过程也得到了很多大佬的帮助,比如 @Notic @顾逸 @还我漂漂拳

@马东什么 给了我很多指点和建议,没有他们的帮助我估计面试通过率下降一半,所以内心真的特别感谢~

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-07-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI算法札记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 抖音
  • 蚂蚁
  • 寒武纪
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档