【干货大礼包】NLP大模型开发18个干货资料合集(高频面试问题答案)
共 4950字,需浏览 10分钟
·
2023-10-09 00:00
这是求职产品经理系列的第189篇文章
哈喽大家好,最近很多小伙伴求职NLP大模型算法工程师,找我要的一个干货资料:《NLP大模型开发18个干货资料合集》耗时25天终于整理完成了!
干货合集一:NLP大模型面试最全题库整理篇
一、大模型基本概念相关问题(9个)
二、基础知识相关问题(32个)
三、大模型算法相关问题(12个)
四、训练框架相关问题(3个)
五、评测相关问题(4个)
六、数据相关问题(3个)
( 不含答案,大家可以当做题库使用,但是这63道问题的答案基本已包含在其他干货合集中)
干货合集二:网易NLP大模型实习面试题及解析(含答案)
1、文本生成的几大预训练任务?
2、多模态中常见的SOTA模型有哪些?
3、介绍一下stable diffusion的原理。
4、instructGPT的原理,讲讲rlhf和reward。
5、讲讲T5和Bart的区别,讲讲bart的DAE任务。
6、讲讲Bart和Bert的区别。
7、对比学习负样本是否重要?负样本构造成本过高应该怎么解决?
8、介绍一下lora的原理和ptuning的原理。
干货合集三:科大讯飞-NLP大模型算法面试题及解析(含答案)
1、jieba分词的原理
2、word2vec的原理,怎么训练的?
3、ChatGPT是怎么训练出来的
4、BERT模型简述
5、PyTorch中的train和eval模块:
6、Python中字典的结构及实现方式
7、有一组无序数组,如何取前10个最大的数
干货合集四:荣耀NLP算法工程师面试题及解析(含答案)
1、讲一下transformer
2、transformer怎么调优
3、讲讲word2vec和word embedding区别
4、有做过NER吗,讲讲prompt learning
5、讲讲生成模型和判别模型的区别
6、讲讲LDA算法
干货合集五:华为NLP算法工程师面试题及解析(含答案)
1、NLP中常见的分词方法有哪些?
2、讲一下BERT的结构?
3、自然语言处理有哪些任务?
4、L1,L2正则化的区别,岭回归是L1正则化还是L2正则化?
5、怎么处理类别不平衡?
6、模型提速的方法有哪些?
7、了解数据挖掘的方法嘛?
8、了解对比学习嘛?
9、说一下广度优先遍历和深度优先遍历?
干货合集六:大厂常考Transformer模型面试题及解析(含答案)
1、Transformer在哪里做了权重共享,为什么可以做权重共享?
2、不考虑多头的原因,self-attention中词向量不乘QKV参数矩阵,会有什么问题?
3、什么BERT选择mask掉15%这个比例的词,可以是其他的比例吗?
4、为什么BERT在第一句前会加一个[CLS]标志?
5、Self-Attention公式为什么要除以d_k的开方?
干货合集七:百度NLP实习面试及解析(含答案)
1、说一下transformer。
2、Layer Normalization 和 Batch Normalization。
3、项目里面具体怎么实现PGN的。
4、你知道什么生成任务的模型吗。
干货合集八:NLP大模型-Transformer面试题总结100道题
( 不含答案,但是这100道问题的答案基本已包含在其他干货合集中)
干货合集九:LLM大模型面试准备题库及答案(上)(含答案)
1. 如何定义“大模型”在现代AI领域的概念?
2. GPT的全称是什么,其中每个词汇的具体含义是什么?描述ChatGPT、GPT和大模型之间的关系和区别。
3.如何定义AGI这一概念?AIGC代表的是什么概念或技术?
4.对于OpenAI来说,语言类大模型有哪些,其基座模型是什么?
5.OpenAI的文本向量化模型是用来做什么的?
6.请描述LLM的涌现能力及其主要包含的方面,以及其激活方法
7.定义提示工程是什么?
8.在提示工程中,主要采用哪些方式添加提示?
9.微调的定义是什么?
10.当微调与提示工程进行比较时,优势和劣势是什么?
11.微调和提示工程在应用场景中的关系和联系是什么?
12.请描述代码提示工程的核心概念
13.什么是Zero-shot提示方法
14.什么是Few-shot提示方法
15.阐述One-shot和Few-shot提示策略及其应用场景
16.什么是思维链?思维链的本质是什么
17.什么是逐步Zero-shot
18.定义Zero-shot-CoT提示策略并描述其应用方法
19.解释Few-shot-CoT提示策略及其实际使用方式
20.什么是模型的推理能力?
21.LtM提示策略是如何分阶段进行的
22.Few-shot-LtM策略包含哪些主要阶段及其职责
干货合集十:LLM大模型面试准备题库及答案(下)(含答案)
1.相比较于llama而言,llama2有哪些改进,对于llama2是应该如何finetune?
2、什么是多模态,多模态中常见的SOTA模型有哪些?
3、什么是stable diffusion,请你介绍一下diffusion模型的原理?
4、instructGPT的原理,讲讲RLHF、SFT、和reward。
5、讲讲T5和Bart的区别,讲讲Bart的DAE任务。
6、讲讲Bart和Bert的区别。
7、对比学习负样本是否重要?负样本构造成本过高应该怎么解决?
8、介绍一下lora的原理和ptuning的原理。
9.aigc方向国内的典型研究机构以及代表性工作有哪些?
10.什么是langchain,原理是什么,有什么应用?
干货合集十一:NLP常见面试题及答案汇总(含答案)
一 、基础问题
1. NLP有哪些常见任务
2. 请介绍下你知道的文本表征的方法(词向量)。
3. 如何生成句向量?
4. 如何计算文本似度
5. 样本不平衡的解决方法?
6. 过拟合有哪些表现,怎么解决?
7. 用过 jiaba 分词吗,了解原理吗
8. 了解命名实体识别吗?通常用什么方法,各自有什么特点
9. 了解HMM和CRF吗?
10. 了解RNN吗,LSTM呢,LSTM相对RNN有什么特点
11. 会用正则表达式吗?re.match() 和 re.search() 有什么区别?
二 进阶问题
1. elmo、GPT、bert三者之间有什么区别?
2. 了解BERT?讲一下原理?有用过吗?
3. word2vec和fastText对比有什么区别
4. LSTM时间复杂度,Transformer 时间复杂度
5. 如何减少训练好的神经网络的推理时间?
干货合集十二:NLP/Transformer/BERT/Attention面试问题与答案(含答案)
一、BERT相关问题(15个)
二、Transformer相关问题(8个)
三、后BERT相关问题(6个)
四、Self Attention相关问题(6个)
五、Norm相关问题(8个)
干货合集十三:小红书/抖音/蚂蚁/寒武纪/Boss直聘NLP大模型社招面经汇总
(每一场面试都包含详细的面试问题以及参考答案)
一、整体面试总结
二、面经-小红书
小红书一面:
小红书二面:
三、面经-抖音
抖音一面
抖音二面
抖音三面
四、面经-蚂蚁
蚂蚁一面:
蚂蚁二面:
蚂蚁三面:
五、面经-寒武纪
寒武纪一面:
寒武纪二面:
六、面经-某金融公司
金融公司一面:
金融公司二面:
七、面经-boss直聘
BOSS一面:
BOSS二面:
面试合集十四:货拉拉NLP工程师面试题及答案(含答案)
1.词向量平均法做分类的优劣势是什么
2.词向量的基础上如何做优化
3.Bert模型和Transformer模型之间的关系
4.Bert模型中有哪些预训练的任务
5.Bert模型的做句向量的缺陷
6.如何解决Bert句向量的缺陷
干货合集十五:腾讯/阿里/携程实习详细NLP面试题面经
(每一场面试都包含详细的面试问题以及参考答案)
一、阿里(已offer)
一面:电话面试(30min)
二面:电话面试(30min)
反问:
二、携程(已offer)
一面:线下面试(1h)
二面:线下面试(40min)
三、腾讯(HR面结束)
一面:腾讯会议面试(30min)
二面:腾讯平台面试(1h20min)
HR面:腾讯会议面试(18min)
反问:
干货合集十六:腾讯NLP算法面试题整(抽象归纳多篇腾讯面经)
编程&数学基础(25个)
项目深度(14个)
基础知识(48个)
开放题(17个)
干货合集十七:阿里巴巴NLP算法面试题整(抽象归纳多篇阿里巴巴面经)
编程&数学基础(21个)
项目深度(11个)
基础知识(37个)
开放题(18个)
干货合集十八:百度NLP算法面试题整(抽象归纳多篇百度面经)
编程题(11个)
项目深度(2个)
基础知识(32个)
开放题(6个)
都是移动互联网产品经看,随便截几张预览图片:
随便截图的示例一:
随便截图的示例二:
随便截图的示例三:
随便截图的示例四:
随便截图的示例五:面经
整理不易,耗时25天,所以咱们这个干货资料不是免费的,因为后面打算持续更新,所以价格梯度如下
1-100名:¥49
101-200名:¥79
需要的小伙伴扫码下面的二维码或者直接添加微信:xuelaoban678
微信转账即可。当然后续其他很多干货资料我会直接分享到咱们AI求职交流群(针对想要做AIGC大模型产品经理的小伙伴)和大模型NLP研发交流群针对想要做AIGC大模型算法的小伙伴)中,所以没有在群里的可以私信我,拉你入群。