LLMs 千面郎君 更新版

DayNightStudy

共 19431字,需浏览 39分钟

 ·

2024-05-12 13:28


!! 介绍:本项目是作者们根据个人面试和经验总结出的 大模型(LLMs)面试准备的学习笔记与资料,该资料目前包含 大模型(LLMs)各领域的 面试题积累。

Github 地址:https://github.com/km1994/LLMs_interview_notes


!! NLP 面无不过 面试交流群 (注:人满 可 添加 小编wx:yzyykm666 加群!)

大模型(LLMs)基础面

  1. 目前 主流的开源模型体系 有哪些?
  2. prefix Decoder 和 causal Decoder 和 Encoder-Decoder 区别是什么?
  3. 大模型LLM的 训练目标 是什么?
  4. 涌现能力是啥原因?
  5. 为何现在的大模型大部分是Decoder only结构?
  6. 简单 介绍一下 大模型【LLMs】?
  7. 大模型【LLMs】后面跟的 175B、60B、540B等 指什么?
  8. 大模型【LLMs】具有什么优点?
  9. 大模型【LLMs】具有什么缺点?
  • 点击查看答案

大模型(LLMs)进阶面

  1. LLMs 复读机问题
    1. 什么是 LLMs 复读机问题?
    2. 为什么会出现 LLMs 复读机问题?
    3. 如何缓解 LLMs 复读机问题?
  2. llama 系列问题
    1. llama 输入句子长度理论上可以无限长吗?
  3. 什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
  4. 各个专业领域是否需要各自的大模型来服务?
  5. 如何让大模型处理更长的文本?
  • 点击查看答案

大模型(LLMs)微调面

大模型(LLMs)微调面

  1. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存?
  2. 为什么SFT之后感觉LLM傻了?
  3. SFT 指令微调数据 如何构建?
  4. 领域模型Continue PreTrain 数据选取?
  5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?
  6. 领域模型Continue PreTrain ,如何 让模型在预训练过程中就学习到更多的知识?
  7. 进行SFT操作的时候,基座模型选用Chat还是Base?
  8. 领域模型微调 指令&数据输入格式 要求?
  9. 领域模型微调 领域评测集 构建?
  10. 领域模型词表扩增是不是有必要的?
  11. 如何训练自己的大模型?
  12. 训练中文大模型有啥经验?
  13. 指令微调的好处?
  14. 预训练和微调哪个阶段注入知识的?
  15. 想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?
  16. 多轮对话任务如何微调模型?
  17. 微调后的模型出现能力劣化,灾难性遗忘是怎么回事?
  18. 微调模型需要多大显存?
  19. 大模型LLM进行SFT操作的时候在学习什么?
  20. 预训练和SFT操作有什么不同
  21. 样本量规模增大,训练出现OOM错
  22. 大模型LLM进行SFT 如何对样本进行优化?
  23. 模型参数迭代实验
  24. 微调大模型的一些建议
  • 点击查看答案

大模型(LLMs)训练经验帖

  • 分布式训练框架选择?
  • LLMs 训练时 有哪些有用的建议?
  • 模型大小如何选择?
  • 加速卡如何选择?
  • 点击查看答案

大模型(LLMs)langchain 面

大模型(LLMs)langchain 面

  • 什么是 LangChain?

    • 2.1 LangChain 中 Components and Chains 是什么?
    • 2.2 LangChain 中 Prompt Templates and Values 是什么?
    • 2.3 LangChain 中 Example Selectors 是什么?
    • 2.4 LangChain 中 Output Parsers 是什么?
    • 2.5 LangChain 中 Indexes and Retrievers 是什么?
    • 2.6 LangChain 中  Chat Message History 是什么?
    • 2.7 LangChain 中  Agents and Toolkits 是什么?
    1. LangChain 包含哪些 核心概念?
    1. 什么是 LangChain Agent?
    1. 如何使用 LangChain ?
    1. LangChain 支持哪些功能?
    1. 什么是 LangChain model?
    1. LangChain 包含哪些特点?
    • 8.1 LangChain 如何调用 LLMs 生成回复?
    • 8.2 LangChain 如何修改 提示模板?
    • 8.3 LangChain 如何链接多个组件处理一个特定的下游任务?
    • 8.4 LangChain 如何Embedding & vector store?
    1. LangChain 如何使用?
  • LangChain 存在哪些问题及方法方案?

    1. LangChain 缺乏标准的可互操作数据类型问题
    1. LangChain 行为不一致并且隐藏细节问题
    1. LangChain 太多概念容易混淆,过多的“辅助”函数问题
    1. LangChain 文档的问题
    1. LangChain 低效的令牌使用问题
  • LangChain 替代方案?

  • 点击查看答案

基于LLM+向量库的文档对话 经验面

  • 一、基于LLM+向量库的文档对话 基础面

    • 1.1 为什么 大模型 需要 外挂(向量)知识库?
    • 1.2. 基于LLM+向量库的文档对话 思路是怎么样?
    • 1.3. 基于LLM+向量库的文档对话 核心技术是什么?
    • 1.4. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
  • 二、基于LLM+向量库的文档对话 存在哪些痛点?

  • 三、基于LLM+向量库的文档对话 工程示例面

  • 点击查看答案

LLM文档对话 —— pdf解析关键问题

  • 一、为什么需要进行pdf解析?

  • 二、为什么需要 对 pdf 进行解析?

  • 三、pdf解析 有哪些方法,对应的区别是什么?

  • 四、pdf解析 存在哪些问题?

  • 五、如何 长文档(书籍)中关键信息?

  • 六、为什么要提取标题甚至是多级标题?

  • 七、如何提取 文章标题?

  • 八、如何区分单栏还是双栏pdf?如何重新排序?

  • 九、如何提取表格和图片中的数据?

  • 十、基于AI的文档解析有什么优缺点?

  • 点击查看答案

基于LLM+向量库的文档对话 经验面

  • 一、基于LLM+向量库的文档对话 基础面

    • 1.1 为什么 大模型 需要 外挂(向量)知识库?
    • 1.2. 基于LLM+向量库的文档对话 思路是怎么样?
    • 1.3. 基于LLM+向量库的文档对话 核心技术是什么?
    • 1.4. 基于LLM+向量库的文档对话 prompt 模板 如何构建?
  • 二、基于LLM+向量库的文档对话 存在哪些痛点?

  • 三、基于LLM+向量库的文档对话 工程示例面

  • 点击查看答案

大模型(LLMs)参数高效微调(PEFT) 面

大模型(LLMs)参数高效微调(PEFT) 面

  • 微调方法是啥?如何微调?

  • 为什么需要 PEFT?

  • 介绍一下 PEFT?

  • PEFT 有什么优点?

  • 微调方法批处理大小模式GPU显存速度?

  • Peft 和 全量微调区别?

  • 多种不同的高效微调方法对比

  • 当前高效微调技术存在的一些问题

  • 高效微调技术最佳实践

  • PEFT 存在问题?

  • 能不能总结一下各种参数高效微调方法?

  • 点击查看答案

配器微调(Adapter-tuning)篇

  • 一、为什么 需要 适配器微调(Adapter-tuning)?

  • 二、适配器微调(Adapter-tuning)思路?

  • 三、 适配器微调(Adapter-tuning)特点是什么?

  • 四、AdapterFusion 思路 是什么?

  • 五、AdapterDrop 思路 是什么?

  • 六、AdapterDrop 特点 是什么?

  • 七、MAM Adapter 思路 是什么?

  • 八、MAM Adapter 特点 是什么?

  • 点击查看答案

提示学习(Prompting)

  • 一、为什么需要 提示学习(Prompting)?

  • 二、什么是 提示学习(Prompting)?

  • 三、提示学习(Prompting) 有什么优点?

  • 四、提示学习(Prompting)有哪些方法,能不能稍微介绍一下它们间?

    • 4.4.1 为什么需要 P-tuning v2?
    • 4.4.2 P-tuning v2 思路是什么?
    • 4.4.3 P-tuning v2 优点是什么?
    • 4.4.4 P-tuning v2 缺点是什么?
    • 4.3.1 为什么需要 P-tuning?
    • 4.3.2 P-tuning 思路是什么?
    • ...
  • 点击查看答案

LoRA 系列篇

  • 一、LoRA篇

    • 1.1 什么是 LoRA?
    • 1.2 LoRA 的思路是什么?
    • 1.3 LoRA 的特点是什么?
  • 二、QLoRA篇

    • 2.1 QLoRA 的思路是怎么样的?
    • 2.2 QLoRA 的特点是什么?
  • 三、AdaLoRA篇

    • 3.1 AdaLoRA 的思路是怎么样的?
  • 四、LoRA权重是否可以合入原模型?

  • ...

  • 点击查看答案

大模型(LLMs)推理面

大模型(LLMs)推理面


    1. 为什么大模型推理时显存涨的那么多还一直占着?
    1.  模型在gpu和cpu上推理速度如何?
    1. 推理速度上,int8和fp16比起来怎么样?
    1. 大模型有推理能力吗?
    1. 大模型生成时的参数怎么设置?
      • ...
    有哪些省内存的大语言模型训练/微调/推理方法?
      ...

  • 点击查看答案

大模型(LLMs)预训练面

大模型(LLMs)增量预训练篇

  1. 为什么要增量预训练?
  2. 进行 增量预训练 需要做哪些准备工作?
  3. 增量预训练 所用 训练框架?
  4. 增量预训练 训练流程 是怎么样?
  • 点击查看答案

大模型(LLMs)评测面

  1. 大模型怎么评测?
  2. 大模型的honest原则是如何实现的?模型如何判断回答的知识是训练过的已知的知识,怎么训练这种能力?
  3. 如何衡量大模型水平?
  4. 大模型评估方法 有哪些?
  5. 大模型评估工具 有哪些?
  • 点击查看答案

大模型(LLMs)强化学习面

    1. 简单介绍强化学习?
    2. 简单介绍一下 RLHF?
    3. 奖励模型需要和基础模型一致吗?
    4. RLHF 在实践过程中存在哪些不足?
    5. ...

      点击查看答案

大模型(LLMs)软硬件配置面

  1. 建议的软件环境是什么?
  2. ...
  • 点击查看答案

大模型(LLMs)训练集面

  1. SFT(有监督微调)的数据集格式?
  2. RM(奖励模型)的数据格式?
  3. ...

  • 点击查看答案

大模型(LLMs)显存问题面

  1. 大模型大概有多大,模型文件有多大?
  2. 能否用4 * v100 32G训练vicuna 65b?
  3. 如果就是想要试试65b模型,但是显存不多怎么办?
  4. nB模型推理需要多少显存?
  5. nB模型训练需要多少显存?
  6. 如何 估算模型所需的RAM?
  7. 如何评估你的显卡利用率?
  8. 测试你的显卡利用率 实现细节篇
    1. ...

  • 点击查看答案

大模型(LLMs)分布式训练面

大模型(LLMs)分布式训练面

  • 理论篇


    • 1.1 训练 大语言模型 存在问题?
    • 1.2 什么是 点对点通信?
    • 1.3 什么是 集体通信?
    • 1.4 什么是 数据并行?
    • 1.5 数据并行 如何 提升效率?
    • 1.6 什么是 流水线并行?

    • ...


    2. 实践篇
    • 2.1 假如有超多的8卡A100节点(DGX A100),如何应用3D并行策略?
    • 2.2 如果想构这样一个大规模并行训练系统,训练框架如何选?
      ...

  • 点击查看答案

图解分布式训练(一) —— 流水线并行(Pipeline Parallelism)面

  • 为什么需要流水线并行(Pipeline Parallelism)?

  • 一、流水线并行(Pipeline Parallelism) 优化目标是什么?

  • 二、图解 流水线并行(Pipeline Parallelism)模型并行 必要性?

  • ...

  • 点击查看答案

图解分布式训练(二) —— nn.DataParallel面

  • 为什么需要nn.DataParallel?

  • 一、pytorch中的GPU操作默认是什么样?

  • 二、介绍一下 nn.DataParallel 函数?

  • 三、nn.DataParallel 函数 处理逻辑 介绍一下?

  • 四、nn.DataParallel 函数 常见问题及解答 有哪些?

    • ...

  • 五、nn.DataParallel 函数 参数更新方式 ?

  • 六、nn.DataParallel 函数 优点 介绍一下?

  • ...

  • 点击查看答案

图解分布式训练(三) ——  nn.parallel.DistributedDataParallel

  • 为什么需要 nn.parallel.DistributedDataParallel ?

  • 一、什么是 DistributedDataParallel 核心 —— Ring-AllReduce?

  • 二、nn.parallel.DistributedDataParallel 函数 介绍一下?

  • ...

  • 点击查看答案

图解分布式训练(四) ——  torch.multiprocessing 详细解析

  • 一、torch.multiprocessing 函数介绍一下?

  • 二、torch.multiprocessing 函数如何使用?

  • 三、介绍一下 共享CUDA张量?

  • ...

  • 点击查看答案

图解分布式训练(五) ——  AMP混合精度训练 详细解析

  • 为什么需要 AMP混合精度训练?

  • 一、什么是自动混合精度训练(AMP)

  • 二、为什么需要自动混合精度?

  • 三、混合精度训练的优点是什么?

  • ...

  • 点击查看答案

图解分布式训练(六) —— Pytorch的 DeepSpeed 详细解析

  • 一、为什么需要 Deepspeed?

  • 二、DeepSpeed 基本概念 介绍一下?

  • 三、DeepSpeed 通信策略 介绍一下?

  • ...

  • 点击查看答案

图解分布式训练(七)—— accelerate 分布式训练 详细解析

  • 一、为什么需要 accelerate 分布式训练?

  • 二、什么是 accelerate 分布式训练?

  • ...

  • 点击查看答案

图解分布式训练(八)—— ZeRO 学习

  • 一、什么是 3D 并行?

  • 二、3D 并行 策略有哪些?

  • 三、为什么需要 ZeRO?

  • ...

  • 点击查看答案

大模型(LLMs)agent 面

  1. 如何给LLM注入领域知识?
  2. ...
  3. 点击查看答案

Token及模型参数准备篇

  1. 预训练数据 Token 重复 是否影响 模型性能?
  2. ...
  • 点击查看答案

LLMs 位置编码篇

  • 1 什么是位置编码?

  • 2 什么是绝对位置编码?

  • 3 什么是相对位置编码?

  • 4 旋转位置编码 RoPE篇

    • ...
  • 点击查看答案

LLMs Tokenizer 篇

LLMs Tokenizer 篇

  • Byte-Pair Encoding(BPE)篇

    • 1 Byte-Pair Encoding(BPE) 如何构建词典?
  • WordPiece 篇

    • ...
  • 点击查看答案

怎么让英文大语言模型支持中文?(一) —— 构建中文tokenization

  • 一、为什么需要 构建中文tokenization?

  • 二、如何对 原始数据预处理?

  • 三、如何构建中文的词库?

  • ...


  • 点击查看答案

怎么让英文大语言模型支持中文?(二) —— 继续预训练篇

  • 一、为什么需要进行继续预训练?

  • 二、如何对 继续预训练 数据预处理?

  • ...


  • 点击查看答案

怎么让英文大语言模型支持中文?(三) —— 对预训练模型进行指令微调

  • 一、为什么需要对预训练模型进行指令微调?

  • 二、对预训练模型进行指令微调 数据 如何处理?

  • 三、对预训练模型进行指令微调 tokenization 如何构建?

  • ...

  • 点击查看答案

Layer normalization 篇

  • Layer normalization-方法篇

    • Deep Norm 思路?
    • 写一下 Deep Norm 代码实现?
    • RMS Norm 的计算公式写一下?
    • RMS Norm 相比于 Layer Norm 有什么特点?
    • ...

  • Layer normalization-位置篇

    • 1 LN 在 LLMs 中的不同位置 有什么区别么?如果有,能介绍一下区别么?
  • Layer normalization 对比篇

    • LLMs 各模型分别用了 哪种 Layer normalization?
  • 点击查看答案

LLMs 激活函数篇

  • 1 介绍一下 FFN 块 计算公式?

  • 2 介绍一下 GeLU 计算公式?

  • 3 介绍一下 Swish 计算公式?

  • ...


  • 点击查看答案

LLMs 激活函数篇

  • 1 介绍一下 FFN 块 计算公式?

  • 2 介绍一下 GeLU 计算公式?

  • 3 介绍一下 Swish 计算公式?

  • ...

  • 点击查看答案

大模型(LLMs)加速篇

大模型(LLMs)加速篇

  • 当前优化模型最主要技术手段有哪些?推理加速框架有哪一些?都有什么特点?


  • 3 vLLM 篇

    • 3.1 vLLM 的 功能有哪些?
    • 3.2 vLLM 的 优点有哪些?
    • 3.3 vLLM 的 缺点有哪些?
    • 3.4 vLLM 离线批量推理?
    • 3.5 vLLM API Server?
  • 4 Text generation inference 篇

    • 4.1 介绍一下 Text generation inference?
    • 4.2 Text generation inference 的 功能有哪些?

    • ...


  • 点击查看答案

LLM(大语言模型)部署加速方法——PagedAttention篇

  • 一、vLLM 用于大模型并行推理加速 存在什么问题?

  • 二、vLLM 如何 优化 大模型并行推理加速?

  • 三、什么是 PagedAttention?

  • ...


  • 点击查看答案

大模型推理加速工具 —— vLLM

  • 一、引言

    • 1.1 前言
    • 1.2 为什么 需要 vLLM ?
    • 1.3 vLLM 具有哪些特点 ?
    • 1.4 vLLM 支持哪些 Huggingface 模型 ?
  • 二、vLLM 性能如何?

  • 三、vLLM 依赖包


  • ...


  • 点击查看答案

LLM(大语言模型)部署加速方法——Faster Transformer篇

  • 一、为什么需要 FasterTransformer?

  • 二、FasterTransformer 介绍一下?

  • 三、FasterTransformer 核心是什么?

  • ...

  • 点击查看答案

纯Python超轻量高性能LLM推理框架 —— LightLLM

  • 一、引言

    • 1.1 前言
    • 1.2 为什么 需要 LightLLM ?
    • 1.3 目前 LLM推理框架 有 哪些?
  • ...

  • 点击查看答案

Attention 升级面

  • 1 传统 Attention 存在哪些问题?

  • 2 Attention 优化方向

  • 3 Attention 变体有哪些?

  • ...

  • 点击查看答案

大模型幻觉(LLM Hallucination)面

大模型幻觉(LLM Hallucination)面

  • 一、什么是大模型幻觉?

  • 二、为什么LLM会产生幻觉?

  • 三、为什么需要解决LLM的幻觉问题?

  • 四、幻觉一定是有害的吗?

  • ...


  • 点击查看答案

大模型的幻觉问题篇

  • 一、什么是 大模型幻觉问题?

  • 二、为什么 会 出现 大模型幻觉问题?


  • ...


  • 点击查看答案

大模型的幻觉问题篇

  • 一、为什么 会 出现 大模型幻觉?

  • ...

  • 点击查看答案

LLMs 对比篇

LLMs 对比篇

  • LLMs 训练数据 和 数据量 对比如何?

  • ...

  • 点击查看答案

百川智能baichuan7B、13B、53B、baichuan2 总结篇

  • 一、baichuan-7B篇

    1. baichuan-7B 如何 提高 训练稳定性和吞吐?
    1. baichuan-7B 如何 收集原始数据并 构建 训练数据?
    1. 你了解baichuan-7B解构么?介绍一下?
  • 二、baichuan-13B篇

    1. 如何 对 baichuan-13B 进行微调?
    1. 如何 对 baichuan-13B 进行推理和部署?
    1. 相比于 baichuan-7B,baichuan-13B 的 特点体现在哪里?
  • ...

  • 点击查看答案

思维链 Chain-of-Thought(COT)篇

思维链 Chain-of-Thought(COT)篇

  • 一、什么是思维链提示?

  • 二、思维链提示本质是什么?

  • 三、思维链提示 与 标准的提示学习方法有什么不同?

  • ...


  • 点击查看答案

思维链 Chain-of-Thought(COT)变体篇

  • 思维链 Chain-of-Thought(COT):思维链的启蒙

    1. 思维链 Chain-of-Thought(COT)存在问题?
    2. ..

    1. 思维树 Tree of Thoughts(TOT):一种用树结构解决复杂问题的方法

      1. 思维树 Tree of Thoughts(TOT)涉及问题有哪些?
      2. ...

      1. 思维图 Graph of Thoughts(GOT):一种把思维链过程建模层图结构的方法

        1. 思维图 Graph of Thoughts(GOT)核心思想是什么 ?
        2. ...

        1. ...

        2. 点击查看答案

        思维链 Chain-of-Thought(COT)变体篇

        • 一、为什么需要 Graph RAG?

        • 二、什么是 Graph RAG?

        • ...

        • 点击查看答案


        浏览 37
        点赞
        评论
        收藏
        分享

        手机扫一扫分享

        分享
        举报
        评论
        图片
        表情
        推荐
        点赞
        评论
        收藏
        分享

        手机扫一扫分享

        分享
        举报