2021年8月Shopee-算法工程师 面试题5道!

共 1722字,需浏览 4分钟

 ·

2021-09-19 03:19

文 | 七月在线
编 | 小七


目录

FIGHTING


问题1: 逻辑回归和SVM的异同

问题2: LR的参数可以初始化0 吗?

问题3: CNN中[1,1]卷积核的作用

问题4: 详细介绍下Batch Normolization

问题5: ROC与AUC


问题1: 逻辑回归和SVM的异同

LR与SVM的相同点

  1. 都是有监督的分类算法

  2. 如果不考虑核函数,LR和SVM都是线性分类算法

  3. 它们的分类决策面都是线性的。

  4. LR和SVM都是判别式模型。

LR与SVM的不同点:

  1. 本质上是loss函数不同,或者说分类的原理不同。

  2. SVM是结构风险最小化,LR则是经验风险最小化。

  3. SVM只考虑分界面附近的少数点,而LR则考虑所有点。

  4. 在解决非线性问题时,SVM可采用核函数的机制,而LR通常不采用核函数的方法。

  5. SVM计算复杂,但效果比LR好,适合小数据集;LR计算简单,适合大数据集,可以在线训练。


问题2:LR的参数可以初始化0 吗?


可以。

在逻辑回归中,

因此在LR的反向传播中,我们假设w=[w1,w2]Tw=[w_1,w_2]^Tw=[w1,w2]T,则

因而

可以看出,就算初始w1,w2,bw_1,w_2,bw1,w2,b设为0,后续梯度还是会更新的。


问题3:CNN中[1,1]卷积核的作用

实现跨通道的交互和信息整合

进行卷积核通道数的降维和升维

对于单通道feature map 用单核卷积即为乘以一个参数,而一般情况都是多核卷积多通道,实现多个feature map的线性组合

可以实现与全连接层等价的效果。如在faster-rcnn中用1x1xm的卷积核卷积n(如512)个特征图的每一个位置(像素点),其实对于每一个位置的1x1卷积本质上都是对该位置上n个通道组成的n维vector的全连接操作。



问题4: 详细介绍下Batch Normolization

BN(Batch Normolization)是Google提出的用于解决深度网络梯度消失和梯度爆炸的问题,可以起到一定的正则化作用。我们来说一下它的原理:


批规范化,即在模型每次随机梯度下降训练时,通过mini-batch来对每一层卷积的输出做规范化操作,使得结果(各个维度)的均值为0,方差为1。


BN操作共分为四步。输入为xix_ixi,第一步计算均值:

第二步计算数据方差:

第三步进行规范化:

第四步尺度变换和偏移


mmm表示mini-batch中的数据个数,可以看出,BN实际就是对网络的每一层都进行白化操作。白化操作是线性的,最后的“尺度变换和偏移”操作是为了让BN能够在线性和非线性之间做一个权衡,而这个偏移的参数vgammay和 β\betaβ是神经网络在训练时学出来的。


经过BN操作,网络每一层的输出小值被“拉大”,大值被“缩小”,所以就有效避免了梯度消失和梯度爆炸。总而言之,BN是一个可学习、有参数(v、β)的网络层。


 问题5:ROC与AUC

AUC是一种模型分类指标,且仅仅是二分类模型的评价指标。AUC是Area Under Curve的简称,那么Curve就是ROC(Receiver Operating Characteristic),翻译为"接受者操作特性曲线"。也就是说ROC是一条曲线,AUC是 一个面积值。





— 今日学习推荐 —

七月【图像分类与图像搜索】 卷积神经实践解决车辆识别问题,价值千元课程,限时1分秒杀!

课程链接:https://www.julyedu.com/course/getDetail/256

本课程是CV高级小班的前期预习课之一,主要内容包含卷积神经网络基础知识、卷积网络结构、反向传播、图像特征提取、三元组损失等理论,以及目标检测和图像搜索实战项目,理论和实战结合,打好计算机视觉基础。

阅读原文” 1分秒杀【CV实战竞赛课程

浏览 26
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报