深圳鲁班嫡系计算机视觉岗位面试题以及我的答案

编程入门 行业动态 更新时间:2024-10-22 13:49:56

深圳鲁班<a href=https://www.elefans.com/category/jswz/34/1744257.html style=嫡系计算机视觉岗位面试题以及我的答案"/>

深圳鲁班嫡系计算机视觉岗位面试题以及我的答案

机器学习

1.1 请简要描述监督学习和无监督学习的概念

监督的含义是有样本对应的标签参与训练。通过惩罚模型针对某样本的输出和该样本的标签之间的距离达到训练目的。无监督学习没有样本对应的标签,通过挖掘样本特征之间的差异性达到训练目的。

1.2 略
1.3 分类问题有哪些常用的误差函数。

最常用的交叉熵(多类),BCE(binary cross entropy,二类任务),Focal loss, Dice loss, center loss, triplet loss, arcloss. AM-softmax

1.4 略
1.5 简述梯度下降法和随机梯度下降法的区别

GD将全部样本直接送入模型,然后计算loss,得到每个参数对于所有样本的导数。因为在一次迭代中用到了全部样本,所以收敛速度会快(迭代次数少),但是计算资源占用多。
SGD一次只用一个样本做训练。因为一个样本不具有真实样本分布情况的更泛化性的分布,所以需要更多的迭代次数,但计算资源占用很少。

1.6 简述机器学习模型中的bias和variance的含义。

偏差与方差。偏差描述模型输出和真实值得差异性。方差描述模型输出和真实值差异性的变化波动情况。
还可以用来检测拟合情况。参见**.html**

1.7 简述频率学派和贝叶斯学派的关键差异

频率学派简单的认为事件发生的概率可以大概看成多次测试中,该事件发生的次数占所有测试次数的比例。
而贝叶斯学派认为事件发生的概率符合某一种分布,先假设是某一个分布,然后用已知数据去求分布的参数

1.8 简述cross validation的含义

深度学习

2.1 卷积神经网络的卷积惭怍具有怎么样的不变性。

CNN不变性的说法网上传播的有两种,第一种指的是,一个物体不管是在图像上的那个位置,对于分类模型来说,都能得到相同的结论,因为最后一层的pooling层依然能选出最强的特征值。另一种说法是指从原图经过一层层卷积得到更小的特征图,原图的目标位置上,可以通过坐标的相同比例的rescale,得到这个目标在特征图上的特征。

2.2 感受野的含义

卷积操作通过一层一层的叠加,所能在原图坐标下覆盖的范围。

2.3 语义分割和实例分割的区别

2.4 对于分类问题,如果类别之间样本数量不平衡,如何处理

两个方面改进,数据增广, 选择平衡类别数量的损失函数,如balance CE, focal loss, dice loss。

2.5 batch normalization的含义和作用,和设计的出发点

写那三行公式,第一行,第二行计算均值和方差,第二行归一化,第三行乘以拿两个训练参数。 出发点是解决卷积之后出现的分布偏移问题,消除协方差。

2.6 算特征图尺寸,基础功略

2.7 算感受野,

卷积的感受野就是按照公式(k-1)* d +1,k是核尺寸,d是深度,这个公式不适用于空洞卷积。递归的算法如下, R F n = R F n − 1 + ( k n − 1 ) ∗ s t r i d e n RF_n=RF_{n-1} + (kn-1)*stride_n RFn​=RFn−1​+(kn−1)∗striden​值得注意的是池化层的感受野,不是直接和上一层是乘的关系,算法采用上面的公式,和卷积的感受野计算相同。比如核是3的池化层,步长为1,那么可以认为是做了核为3,步长为1的卷积操作,感受野计算方式相同。

2.8 算参数数目,基础功,略

2.9 计算一个模型训练所需要的内存。

求出参数数目, 所有特征图的值的数目,还有给参数梯度留位置,梯度数目和参数数目一致。

更多推荐

深圳鲁班嫡系计算机视觉岗位面试题以及我的答案

本文发布于:2024-03-23 23:45:59,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1744258.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:嫡系   深圳   鲁班   面试题   岗位

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!