NLP社招面经分享!
作者 | 年年的铲屎官 整理 | NewBeeNLP https://zhuanlan.zhihu.com/p/546364420
背景介绍
知乎上有个问题是有哪些行为堪比「1949年加入国民党」?[1], 那么我觉得我选择在2022年跳槽也算是一种吧[捂脸]。
2022年大环境不太好,整体hc(head count)比2021年少了很多 ,回想2021年,各个候选人所到之处,各家大厂中厂竭诚欢迎,hc充足,大家挑花了眼,那种生机勃勃,万物竞发的景象犹在眼前,没想到短短一年之后,居然情况急转直下。
情况介绍:我主要做nlp,也涉及到多模态和强化学习的东西。2022年的大环境比较差,能投的公司不是很多,比如腾讯,主要还是高级别的,所以腾讯我就没投(说得好像我投了能面过一样...)
面了的公司包括 小红书,抖音,寒武纪,蚂蚁 ,还有一些 国企和研究院 ,比如北京智源人工智能研究院,某国内金融公司,其他的用来练手也面了一些,比如 蔚来汽车,吉利汽车,华人运通,boss直拒 ,还有一些元宇宙公司,AI制药公司之类的,拿到了其中大部分offer,当然我自己也遇到一些拉胯情况,比如小红书二面挂[笑哭]
面试总结
这一个多月面下来,总体面试考察主要包括下面几个模块: 代码题+项目细节+八股文+场景题 ,其中:
代码
代码题,写不出来大概率还是要跪的,我觉得刷200道左右一般就问题不大。200道争取达到肌肉记忆,就是给出你题目你要10s之内给出思路,哪怕没有bug free,但是一定要保证有思路。
有一点要注意, 200道高频题刷2遍,好过400道题目刷一遍,重点还是刷高频题 。另外推荐的 刷题地址 ,里面可以选择公司和标签:
https://codetop.cc/home
项目
项目细节我的感触最深,有些面试官会问的很细,在不断的试探我们的边界,所以项目细节还是要准备到位。通过这段时间的面试我反而对项目的理解更深刻,不知道这算不算面试给我带来的收益?
这里有一个 提高通过率的小trick :可以和1个或者多个 靠谱 小伙伴一起, 让大家看对方的简历,假设自己是面试官,然后针对项目出一些题目 ,这样一来可以查漏补缺,有点co-teaching的感觉,这个方法还是挺管用的,大家可以试试~
八股文
八股文的话主要 围绕项目出题 ,比如你做了强化学习的东西,那么常见的reinforce,actor-critic,on policy和off policy的区别,一定要掌握。
比如你项目用到了swin-transformer,那么swin-transformer和传统的transformer的区别是什么,patch merging怎么做的,要清楚。
场景题
场景题可能是大厂喜欢考察,小厂不一定问。
面经
废话不多说,面经奉上:
小红书
小红书一面:
聊项目
你们的训练集和验证集,测试集分别是多少?怎么来的?
宏平均和微平均是用来干什么的?是如何计算的?他俩的主要区别?
知识蒸馏为什么有效,详细介绍一下知识蒸馏?
强化学习适合在哪些场景使用?
智力题:如何用rand6实现rand10
代码题:lc 76,最小覆盖子串
小红书二面:
聊项目
layer normalization的好处是?和batch normalization的区别?你有没有看过有的transformer也用bn?
BERT的主要改进,包括结构的改进,预训练方式的改进,都说一下?(这里能说的很多,挑自己熟悉的说就行)
Reformer中,LSH(局部敏感哈希)是如何实现的?
CRF和HMM的区别,哪个假设更强?他们的解码问题用什么算法?
lstm参数量计算,给出emb_size和hidden_size,求lstm参数量
cv中有哪些常见的数据增强方式
简单实现一个layer normalization类,只需要实现__init__和forward就行
总结:这一面压力不小,而且面试官从一开始就多次打断我的说话,说我目前做的项目没意义,而且表情好像不耐烦,不知道是不是晚上面试耽误他下班了。这是我体验最差的一场面试,当时我有点想和他怼起来,但是想想还是忍住了,最后挂了也是意料之中
抖音
抖音一面
聊项目
AUC的两种公式是?你能证明这两种等价的吗?
BERT-CRF中,为什么要加CRF?好处是?
self-attention为什么要用QKV三个矩阵,不用有什么问题?有没有哪个模型的Q和K矩阵是一样的?
reinforce属于on-policy还是off-policy?为什么?
reinforce带上baseline好处是?reinforce的loss写一下?
策略梯度会推导吗?简单写一下?
代码题(代码题一般别着急写,先跟面试官说下思路,确定了再写):
lc 46,全排列(lc表示leetcode,下同)
lc 73,矩阵置0
总结:这一面我以为面试官只会问多模态,不会问强化学习,没想到这个面试官好厉害,强化学习也很懂,真的很强啊,我比较好奇,他们哪里来那么多时间看那么多领域的东西
抖音二面
介绍项目
知识蒸馏有哪几种?你觉得哪种效果最好?
nlp的数据增强方法,主要有哪几种?每一种举个例子?
分类的损失函数为什么是交叉熵而不是mse?
BERT对输入文本的长度有什么限制,为什么要限制长度呢?
BigBird里面有哪几种注意力机制?相比原始transformer的self-attention的优势?
场景题:如何根据拼多多的商品数量,估计淘宝的商品数量?
给出emb_size, max_len, vocab_size, ff_inner_size,num_heads, 12层,求BERT参数量
代码题:n皇后问题
总结:给我来了一道hard题目,我以为我要挂了,结果没几分钟HR告诉我过了
抖音三面
简单聊项目
CRF和HMM区别?CRF为什么比HMM效果好?
如果BERT词表很大,比如vocab_size达到几百万,怎么办?
快速手写一些transformer的mha(多头注意力),伪代码意思一下就行
为什么对比学习中,temperature很小,而知识蒸馏的temperature比较大?
你觉得在抖音买东西,和淘宝、拼多多他们的区别是?(我没在抖音买过,就只能现场编。。)
你最近看到过哪些paper?简单介绍下?
你觉得自己有那些优缺点?平时喜欢怎么缓解压力?
总结:这一面的面试官很和蔼,一直笑呵呵的,后面就是闲聊了,体验很不错
蚂蚁
蚂蚁一面:
聊项目
多模态的预训练方式你知道哪些,知道的都说一下?
coca和CLIP的区别?为什么coca效果比CLIP好?
CLIP预训练的时候,batch size达到了32768,他用到了哪些trick去提高batch size?
CRF的loss写一下,CRF打破了HMM的哪个假设?
对比学习为什么有效?cv和nlp的经典的对比学习的模型说一下?
多头注意力的头的数量,对参数量有影响吗?为什么?
transformer里面为什么要加add&norm模块?好处是什么?
代码:
简单实现一个transformer-encoder-layer,要求pre-norm和post-norm可选
编辑距离
这和我想的蚂蚁的面试不太一样,我以为蚂蚁的代码题会容易一些呢,之前看到的面经,蚂蚁的代码题一般以medium为主
蚂蚁二面:
聊项目
衡量对比学习的两个指标是哪些?公式?
transformer相比lstm的优势有哪些?
distillBERT, tinyBERT, mobileBERT和miniLM,他们是如何对BERT蒸馏的?
ViT是如何对图片进行处理的?为什么要加position embedding?
说到position embedding,transformer一定要加position embedding么?有些模型没有加pe,你知道吗?
beam search的思想,伪代码实现
代码题:lc 33,排序数组的搜索
蚂蚁三面:
聊项目
多头注意力,给出序列长度n和hidden_size,那么多头注意力的时间复杂度是多少?
ALBert相比BERT的改进,说一下?
BERT预训练有哪些问题?后面的模型怎么改进的?重点说说ELECTRA和MacBERT
有没有了解过,有的模型用生成的方式做信息抽取?
讲一下UIE模型是怎么做信息抽取的?其中的SSI和SEL说一下?
你老家哪里的?有哪些兴趣爱好?
你觉得自己优缺点有哪些?
我们走个流程,来一道代码题把,lc 207,课程表
寒武纪
寒武纪一面:
聊项目
你知道哪些对比学习的方法?cv和nlp都说一下
simCLR和moco区别?moco里面加k_encoder的作用?
moco v2, moco v3相对moco的改进有哪些?
resnet为什么效果好?残差连接的好处?
pytorch中,dataloader dataset和sampler的关系?
动态图和静态图区别?
蒸馏,量化和剪枝的原理大致说一下?
寒武纪二面:
聊项目
简单介绍一些CRF的好处,CRF条件概率的公式写一下
transformer相比lstm的优势有哪些?
transformer优点那么多,是不是可以淘汰lstm了,以后全用transformer?
swin-transformer和ViT的区别?数据量少的时候,他们和ResNet比,哪个效果好?为什么?
寒武纪做什么你知道吗?分布式训练用过吗?
pytorch的ddp和dp区别是什么?
你对混合精度的了解多吗?说一下混合精度的原理?
面试感受
高密度的面试挺累的,所以我建议 分阶段面试 :前期面试一些练手的小公司,同时这些小公司也不能太水,不然达不到练手的效果,然后比如隔一周时间稍微总结下,接下来正式面试自己的dream company 结对跳槽 是个不错的选择,这次跳槽我和朋友一起跳,相互给对方出题,相互吐槽自己遇到的奇葩面试官,比自己一个人跳槽有趣的多。这次面试的复习过程也得到了很多大佬的帮助,比如 @Notic、@顾逸、@还我漂漂拳、@马东什么 给了我很多指点和建议,没有他们的帮助我估计面试通过率下降一半,所以内心真的特别感谢~
3,针对有些大厂,流程可能有些长,建议速战速决(比如约面试时间,如果准备好了,那面试安排的越早越好),不然拖得太久了可能被流程里面更match或者更优秀的候选人挤掉
如何对待面经:
现在市面上面经很多,我的感受是要有的放矢,避免对面经的过拟合,比如我之前也看了很多学长学姐的面经,里面很多传统机器学习的问题,比如GBDT,xgboost之类的,我这次面试,也花了不少时间准备了一些相关内容,然而面试的时候,GBDT,xgboost之类的压根就没遇到,白白准备了半天。
究其原因,一个是因为他们的简历有相关内容,所以面试官会问,第二个原因也可能是大家遇到的公司类型不一样,有的喜欢顺带考察一些机器学习的内容。所以大家如果时间紧张,那看面经的时候,发现面经里面很多问题不会,不用太过担心,把项目相关的基础知识+常见八股搞懂就可以了。当然了如果你还是不放心,或者你要面试的部门可能考察,那可以花几天准备下。
END
分享
收藏
点赞
在看