怒写400篇AI文章!这群妹子卷疯了…

共 13138字,需浏览 27分钟

 ·

2022-08-04 12:11


今天这篇文章不谈技术,给大家分享一些干货!首先来聊聊一个AI圈子里画风清奇的公众号 夕小瑶的卖萌屋。公号的作者中不仅妹子居多,颜值能打,而且喜欢将学术研究和大厂业务上线中的收获与读者分享。

卖萌屋的作者们就读或毕业于北大、中科院、北邮、蒙特利尔大学MILA、墨尔本大学 等国内外的顶尖CS院校&实验室,在微软、百度、腾讯等大厂核心研究/业务团队从事搜索、推荐、NLP/CV相关的研究和业务落地,顶会收割机、上线狂魔、顶级赛事冠军、SSP offer收割机、知乎大V等只是ta们的部分标签。公众号主页点击「这是哪儿」了解更多ta们的故事(有照片哦)
同样,这个公众号一直保持原创输出,四年时间写出的300多篇高质量的技术文章整理成了一个 1200 页+的AI全栈技术手册,内容从零基础到进阶,方向不限于:
  • 机器学习篇

    • 经典机器学习算法
      • 逻辑回归
      • 朴素贝叶斯
      • ...
    • 数学基础

  • 算法岗求职经验技巧篇

    • 秋招经验

    • 岗位分析

    • 面试必备基础知识

    • ...

  • 深度学习篇

    • 基础篇

    • 前沿篇

    • 技巧篇

      • 加速训练篇

      • 模型压缩篇

      • 上分技巧篇

      • ...

  • 自然语言处理与知识图谱篇

    • 基础知识

    • 学术前沿

    • 子方向综述

      • 对话系统

      • 知识图谱

      • 预训练模型

      • ...

  • 计算机视觉与跨模态篇

  • 编程基础篇

手册内容截屏

下载方式

关注公号,后台回复「666」即可下载

手册内容展示

图文并茂

思维导图

机器学习

自然语言处理

论文解读


手册目录树

├── 0.编程基础

│   ├── 7款优秀Vim插件帮你打造完美IDE

│   ├── All in Linux:一个算法工程师的IDE断奶之路

│   ├── Git从入门到进阶,你想要的全在这里

│   ├── 一份北大信科内部流传的 “CS 自救指南”(无广推荐)  

│   └── 算法工程师的效率神器——vim篇

├── 1.机器学习基础

│   ├── 0.数学基础

│   │   ├── 线性代数应该这样讲-三--向量2范数与模型泛化

│   │   ├── 线性代数应该这样讲-四--奇异值分解与主成分分析

│   │   ├── 线性代数应该这样讲(一)

│   │   └── 线性代数应该这样讲(二)

│   ├── 1.经典统计机器学习模型

│   │   ├── LightGBM最强解析,从算法原理到代码实现~

│   │   ├── 深入解析GBDT二分类算法(附代码实现)

│   │   ├── 机器学习系列-强填EM算法在理论与工程之间的鸿沟(上)

│   │   ├── 机器学习系列-强填EM算法在理论与工程之间的鸿沟(下)

│   │   ├── 深度前馈网络与Xavier初始化原理

│   │   ├── 从逻辑回归到最大熵模型

│   │   ├── 朴素贝叶斯与拣鱼的故事

│   │   ├── 从逻辑回归到受限玻尔兹曼机

│   │   ├── 逻辑回归与朴素贝叶斯的战争

│   │   ├── 从点到线:逻辑回归到条件随机场

│   │   └── 解开玻尔兹曼机的封印会发生什么?

│   ├── 怎样将Embedding融入传统机器学习框架?

│   ├── 持续学习简述

│   ├── 数据清洗指南

│   ├── 置信学习简述

│   ├── 入门指导手册1

│   ├── 入门指导手册2

│   ├── 入门指导手册3

│   ├── 类别不均衡问题

│   ├── 为什么回归问题用MSE?

│   ├── 强化学习扫盲贴:从Q-learning到DQN

│   ├── 在错误的数据上,刷到 SOTA 又有什么意义?

│   ├── 机器学习模型可解释性

│   └── 为什么搜索与推荐场景用AUC评价模型好坏?

├── 2.深度学习基础、前沿与实战技巧

│   ├── 基础篇

│   │   ├── 深度解析LSTM神经网络的设计原理

│   │   ├── 训练神经网络时如何确定batch的大小?

│   │   ├── 0公式深度解析全连接前馈网络与卷积神经网络

│   │   ├── 你的模型真的陷入局部最优点了吗?

│   │   └── 从前馈到反馈:解析循环神经网络(RNN)及其tricks

│   ├── 技巧篇

│   │   ├── All in Linux:一个算法工程师的IDE断奶之路

│   │   ├── BERT重计算:用22.5%的训练时间节省5倍的显存开销(附代码)

│   │   ├── 训练效率低?GPU利用率上不去?快来看看别人家的tricks吧~

│   │   ├── 谈谈怎样提高炼丹手速

│   │   ├── 算法工程师的效率神器——vim篇

│   │   ├── 万万没想到,我的炼丹炉玩坏了

│   │   ├── 显存不够,如何训练大型神经网络?

│   │   ├── 模型训练太慢?显存不够用?这个算法让你的GPU老树开新花

│   │   └── 别再喊我调参侠!夕小瑶“科学炼丹”手册了解一下

│   └── 学术前沿

│       ├── AdaX:一个比Adam更优秀,带”长期记忆“的优化器

│       ├── ICLR2020---如何判断两个神经网络学到的知识是否一致

│       ├── ICLR2020满分论文 - 为什么梯度裁剪能加速模型训练?

│       ├── ICML2021 | Self-Tuning- 如何减少对标记数据的需求?  

│       ├── NYU & Google- 知识蒸馏无处不在,但它真的有用吗?  

│       ├── 你的 GNN,可能 99% 的参数都是冗余的  

│       ├── 可交互的 Attention 可视化工具!我的Transformer可解释性有救了?

│       ├── 硬核推导Google AdaFactor:一个省显存的宝藏优化器

│       ├── 负采样,yyds! 

│       ├── 年末回顾:2021年 AI 领域十大研究趋势及必读论文  

│       ├── 一时学习一时爽,_持续学习_持续爽

│       ├── 一训练就显存爆炸?Facebook 推出 8 比特优化器,两行代码拯救你的显存!  

│       ├── 深度学习,路在何方?  

│       ├── 在错误的数据上,刷到 SOTA 又有什么意义?  

│       ├── 大模型炼丹无从下手?谷歌、OpenAI烧了几百万刀,总结出这些方法论…  

│       ├── 高效利用无标注数据:自监督学习简述

│       ├── 我拿模型当朋友,模型却想泄漏我的隐私?

│       ├── 我删了这些训练数据…模型反而表现更好了!?  

│       ├── 恕我直言,很多小样本学习的工作就是不切实际的

│       ├── 恕我直言,你的实验结论可能严重依赖随机数种子!  

│       ├── 别让数据坑了你!用置信学习找出错误标注(附开源实现)

│       └── 谷歌重磅:可以优化自己的优化器!手动调参或将成为历史!?

├── 3.自然语言处理与知识图谱

│   ├── 2020学术前沿

│   │   ├── ACL20 - 让笨重的BERT问答匹配模型变快!

│   │   ├── ACL2020 - 线上搜索结果大幅提升!亚马逊提出对抗式query-doc相关性模型

│   │   ├── ACL2020---FastBERT:放飞BERT的推理速度

│   │   ├── ACL2020---基于Knowledge-Embedding的多跳知识图谱问答

│   │   ├── ACL2020---对话数据集Mutual:论对话逻辑,BERT还差的很远

│   │   ├── FLAT:中文NER屠榜之作!

│   │   ├── GPT-3诞生,Finetune也不再必要了!NLP领域又一核弹!

│   │   ├── Google - 突破瓶颈,打造更强大的Transformer

│   │   ├── LayerNorm是Transformer的最优解吗?

│   │   ├── Transformer哪家强?Google爸爸辨优良!

│   │   ├── 当NLPer爱上CV:后BERT时代生存指南之VL-BERT篇

│   │   ├── 吊打BERT-Large的小型预训练模型ELECTRA终于开源!真相却让人---

│   │   ├── 万能的BERT连文本纠错也不放过

│   │   ├── 如何让BERT拥有视觉感知能力?两种方式将视频信息注入BERT

│   │   ├── 还在用[CLS]?从BERT得到最强句子Embedding的打开方式!

│   │   ├── 别再蒸馏3层BERT了!变矮又能变瘦的DynaBERT了解一下

│   │   ├── 卖萌屋上线Arxiv论文速刷神器,直达学术最前沿!

│   │   ├── 告别自注意力,谷歌为Transformer打造新内核Synthesizer

│   │   ├── 无需人工!无需训练!构建知识图谱 BERT一下就行了!

│   │   ├── 如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述

│   │   └── 陈丹琦“简单到令人沮丧”的屠榜之作:关系抽取新SOTA!

│   ├── 2021-2022.3学术前沿

│   │   ├── 1000层的Transformer,诞生了! 

│   │   ├── AllenAI | 用GPT-3帮助增建数据,NLI任务直接提升十个点!?  .webarchive

│   │   ├── AllenAI 发布万能问答系统 MACAW!各类题型样样精通,性能大幅超越 GPT-3!  

│   │   ├── Fine-tune之后的NLP新范式:Prompt越来越火,CMU华人博士后出了篇综述文章  

│   │   ├── Google Research新成果,让表格理解和检索更上一层楼!

│   │   ├── Google掀桌了,GLUE基准的时代终于过去了?  

│   │   ├── Prompt tuning新工作,五个参数解决下游任务 fine-tuning  

│   │   ├── Transformer太大了,我要把它微调成RNN

│   │   ├── 从 ACL’22 投稿情况,速览当下 NLP 研究热点!  

│   │   ├── 以4%参数量比肩GPT-3!Deepmind 发布检索型 LM,或将成为 LM 发展新趋势!?  

│   │   ├── 中文BERT上分新技巧,多粒度信息来帮忙

│   │   ├── 迁移Prompt–解决Prompt Tuning三大问题!  

│   │   ├── 别再Prompt了!谷歌提出tuning新方法,强力释放GPT-3潜力!  

│   │   ├── 超硬核 ICML’21 _ 如何使自然语言生成提速五倍,且显存占用减低99%

│   │   ├── 谁说发 paper 一定要追快打新?2021年,研究 word2vec 也能中顶会!  

│   │   ├── 清华提出LogME,无需微调就能衡量预训练模型的下游任务表现!  

│   │   ├── 用多模态信息做 prompt,解锁 GPT 新玩法  

│   │   ├── 如何提升大规模Transformer的训练效果?Primer给出答案  

│   │   ├── 发现一篇专门吐槽 NLP 内卷现状的 ACL 论文 ...  

│   │   ├── 软硬兼施极限轻量BERT!能比ALBERT再轻13倍?!

│   │   ├── 打破情感分类准确率 80 分天花板!更加充分的知识图谱结合范式  

│   │   ├── 分类问题后处理技巧CAN,近乎零成本获取效果提升

│   │   ├── 别再双塔了!谷歌提出DSI索引,检索效果吊打双塔,零样本超BM25!

│   │   ├── 丹琦女神的对比学习新SOTA,在中文表现如何?我们补充实验后,惊了!

│   │   ├── 这篇论文提出了一个文本_-_知识图谱的格式转换器.._

│   │   ├── 把数据集刷穿是什么体验?MetaQA已100%准确率

│   │   ├── 预训练卷不动,可以卷输入预处理啊!  

│   │   ├── 对比学习有多火?文本聚类都被刷爆了…

│   │   ├── 丹琦女神新作:对比学习,简单到只需要Dropout两下

│   │   └── 加了元学习之后,少样本学习竟然可以变得这么简单!  

│   ├── 基础知识

│   │   ├── 45个小众而实用的NLP开源字典和工具

│   │   ├── NLP-Subword三大算法原理:BPE、WordPiece、ULM

│   │   ├── NLP最佳入门与提升路线

│   │   ├── NLP的游戏规则从此改写?从word2vec,-ELMo到BERT

│   │   ├── Step-by-step-to-Transformer:深入解析工作原理(以Pytorch机器翻译为例)

│   │   ├── 那些击溃了所有NLP系统的样本

│   │   ├── 如何打造高质量的NLP数据集

│   │   ├── 文本分类问题不需要ResNet?小夕解析DPCNN设计原理(上)

   │   ├── 文本分类问题不需要ResNet?小夕解析DPCNN设计原理(下)

│   │   ├── 搜索引擎核心技术与算法-——-倒排索引初体验

│   │   ├── 斯坦福大学最甜网剧:知识图谱CS520面向大众开放啦!

│   │   ├── 如何优雅地编码文本中的位置信息?三种positioanl encoding方法简述的副本

│   │   ├── 中文分词的古今中外,你想知道的都在这里

│   │   ├── 文本分类有哪些论文中很少提及却对性能有重要影响的tricks?

│   │   └── 史上最可爱的关系抽取指南?从一条规则到十个开源项目

│   ├── 子方向综述

│   │   ├── 2202年了,“小样本”还值得卷吗?  

│   │   ├── CMU & MILA & 谷歌 _ 三家巨头发布史上最干文本增强总结

│   │   ├── NLP数据增强方法综述:EDA、BT、MixMatch、UDA

│   │   ├── NLP中的少样本困境问题探究

│   │   ├── NLP进入预训练模型时代:从word2vec,ELMo到BERT

│   │   ├── NLP哪个细分方向最具社会价值?

│   │   ├── 后BERT时代:15个预训练模型对比分析与关键点探究

│   │   ├── 打破BERT天花板:11种花式炼丹术刷爆NLP分类SOTA!

│   │   ├── 超一流 - 从XLNet的多流机制看最新预训练模型的研究进展

│   │   ├── 如何提高NLP模型鲁棒性和泛化能力?对抗训练论文综述

│   │   ├── 一文跟进Prompt进展!综述+15篇最新论文逐一梳理  

│   │   ├── 搜索中的Query理解及应用

│   │   ├── 工业界求解NER问题的12条黄金法则

│   │   ├── 对比学习综述

│   │   ├── 从零构建知识图谱

│   │   ├── 格局打开,带你解锁 prompt 的花式用法  

│   │   ├── 对话系统的设计艺术

│   │   ├── 文本对抗攻击入坑宝典

│   │   ├── 多轮对话与检索式聊天机器人(chatbot)综述

│   │   ├── 文本匹配相关方向打卡点总结

│   │   ├── 文本生成评价指标的进化与推翻

│   │   ├── 限定域文本语料的短语挖掘综述

│   │   ├── 任务完成型对话之对话状态追踪DST综述

│   │   ├── 基于知识图谱的篇章标签生成综述

│   │   ├── 智能问答系统与机器阅读理解分方向综述

│   │   ├── 预训练模型关键问题梳理与面试必备高频FAQ

│   │   ├── 中文分词的古今中外,你想知道的都在这里

│   │   └── 一人之力,刷爆三路榜单!信息抽取竞赛夺冠经验分享

│   └── 写了一篇关于 NLP 综述的综述!

├── 4.计算机视觉与跨模态

│   ├── ACL'21 _ 多模态数值推理新挑战,让 AI 学解几何题

│   ├── ACL’21 | 对话系统也要进军多模态了!  

│   ├── Allen AI提出MERLOT,视频理解领域新SOTA!

│   ├── Facebook 推出多模态通用模型 FLAVA,吊打 CLIP 平均十个点!  

│   ├── GAN 的内在漏洞!只看眼睛就能找出虚拟人脸?

│   ├── MSRA-万字综述 直击多模态文档理解  

│   ├── Meta AI 发布 data2vec!统一模态的新里程碑!  

│   ├── 吊打BERT、GPT、DALL·E,跨模态榜单新霸主诞生!

│   ├── 屠榜CV还不是这篇论文的终极目标,它更大的目标其实是……

│   ├── 刷新SOTA!Salesforce提出跨模态对比学习新方法,仅需4M图像数据!  

│   ├── 谷歌:CNN击败Transformer,有望成为预训练界新霸主!LeCun却沉默了.._

│   ├── 图灵奖大佬 Lecun 发表对比学习新作,比 SimCLR 更好用!  

│   ├── 图灵奖大佬+谷歌团队,为通用人工智能背书!CV 任务也能用 LM 建模!  

│   ├── 再介绍一篇最新的Contrastive Self-supervised Learning综述论文  

│   ├── 谷歌:一篇论文,让研究者吃我三份安利

│   ├── 惊呆!不用一张图片,却训出个图像识别SOTA?

│   ├── 视觉增强词向量:我是词向量,我开眼了!

│   ├── 多模态为什么比单模态好?第一份严谨证明来了!  

│   ├── 多模态为什么比单模态好?第一份严谨证明来了!

│   └── 对比学习效果差?谷歌提出弱语义负样本,有效学习高级特征!

├── 5.算法岗求职经验技巧

│   ├── 13个offer,8家SSP,谈谈我的秋招经验

│   ├── 6 年大厂面试官,谈谈我对算法岗面试的一些看法  

│   ├── Google、MS和BAT教给我的面试真谛

│   ├── 工作6年,谈谈我对“算法岗”的理解

│   ├── 大厂生存36计

│   ├── 面试必备基础知识

│   │   ├── 算法与数据结构--空间复杂度O-1-遍历树

│   │   ├── 「小公式」平均数与级数

│   │   ├── 算法工程师思维导图—深度学习篇

│   │   ├── 「小算法」回文数与数值合法性检验

│   │   ├── 算法工程师思维导图—数据结构与算法

│   │   ├── 算法工程师思维导图—统计机器学习篇

│   │   ├── 预训练模型关键问题梳理与面试必备高频FAQ

│   │   └── 卖萌屋算法岗面试手册上线!通往面试自由之路

│   ├── 一个接了等于自杀的高薪offer  

│   ├── 别再搜集面经啦!小夕教你斩下NLP算法岗offer!

│   ├── 在大厂和小厂做算法有什么不同?

│   └── 拒绝跟风,谈谈几种算法岗的区别和体验

├── 6.其他文章(搞笑、鬼畜、吐槽、科研技巧等)

│   ├── 11 个好用的科研工具推荐!工作效率提升 max!  

│   ├── 在斯坦福,做 Manning 的 phd 要有多强?  

│   ├── 在斯坦福,做 Manning 的 phd 要有多强?

│   ├── 无内鬼,来点ICML_ACL审稿人笑话

│   ├── 机器学习梗图大赏

│   ├── 两个月,刷了八千篇Arxiv,我发现……  

│   ├── 谢撩,人在斯坦福打SoTA

│   ├── 如果你跟夕小瑶恋爱了---(上)

│   ├── 如果你跟夕小瑶恋爱了---(下)

│   ├── 我在斯坦福做科研的碎碎念  

│   ├── 近期神奇机器学习应用大赏  

│   ├── 他与她,一个两年前的故事

│   ├── 如何优雅的追到女神夕小瑶

│   ├── 论文投稿新规则,不用跑出SOTA,还能“内定”发论文?!

│   ├── 万万没想到,我的炼丹炉玩坏了

│   ├── 我对你的爱,是只为你而留的神经元

│   ├── 盘点我跳过的科研天坑,进坑就是半年白干  

│   ├── 吐血整理:论文写作中注意这些细节,能显著提升成稿质量  

│   └── 一位老师,一位领导,一个让全体学生考上目标学校的故事

└── tree.txt

其它宝藏

除此之外,这群硬核的萌妹子将公众号其它宝藏整理了一番,分享给大家:

1. 自然语言处理入门书单与热门方向论文列表

2. 通往面试自由之路的算法岗面试手册,涵盖数学基础、数据结构与算法、统计机器学习和深度学习。

3. NLP经典公开课Stanford CS224n追剧计划深度学习经典公开课Berkeley CS101追剧计划,收录了中英字幕视频、笔记、FAQ、课后作业等,还有数千人的讨论群。

4. 轻松跟紧前沿的NLP/CV/IR方向Arxiv神器(学术站)。

获取方式

关注公号,后台回复「666」即可获取

浏览 83
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报