万兴算法笔试
15个题,6个选择,3个填空,4个问答,2道编程,非常基础,但题量比较大,60min时间,答题系统比较烂
1、logistic逻辑回归的损失函数是对数损失或者交叉熵损失;
2、SVM支持向量机的核函数:线性核、多项式核、径向基函数核、Sigmoid核、 余弦相似度核、拉普拉斯核
3、cnn中激活函数的作用是引入非线性
4、数据增强cutout随机裁剪、cutmix随机裁剪后粘贴、mixup两个图叠加、mosaic四宫格
5、GAN中鉴别器的作用是区分正负样本
6、BN是作用在HWN平面,也就是单一C;LN是HWC平面,也就是单一N;IN是HW平面,单一C和单一N;GN是HW平面,单一N多个C;
7、224*224*3的输入,通道数为5的7*7,p=0,s=1的卷积,输出是218*218*5,公式是((H+2*p-k)/s)+1
8、sigmoid一阶导的最大值是0.25
9、dropout随机失活:随机将神经网络中部分节点的权重或输出置零
10、python的深浅拷贝和赋值的区别:赋值是赋予的引用,相当于取别名,所以会跟着改;浅拷贝同样是赋予引用,可变元素可改;深拷贝就是完全独立的了
11、训练时出现过拟合的现象是在训练样本上表现得过于优越,导致在验证数据集以及测试数据集中表现不佳;可能的原因:训练集数量级与模型复杂度不匹配、训练集和测试集特征分布不一致、权值学习迭代次数过多、样本噪音干扰过大、模型假设不合理;解决方案:调小模型复杂度、增加训练数据量、正则化、早停策略、随机丢弃、集成学习、异常检测、迁移学习;
12、nn.modulelist和nn.sequential的连接方式与反向传播的差异:nn.ModuleList是一个简单的模块列表,本身不是一个模块,需要自己写代码来迭代nn.ModuleList中的模块,并按需将它们连接起来,本身不定义前向传播;nn.Sequential是一个按顺序包含模块的容器,不需要显式地编写前向传播代码,每个模块也会自动参与反向传播过程;
13、L1和L2损失的定义、优点、异常值时的使用:L1损失,也称为平均绝对误差;L2损失,也称为均方误差;L1损失的优点梯度值稳定、鲁棒性强、可能产生稀疏解;L2损失的优点:数学性质良好、对噪声的鲁棒性、避免过拟合;L1损失更适合于异常值处理;
14、力扣626换座位;
15、力扣239滑动窗口的最大值;
1、logistic逻辑回归的损失函数是对数损失或者交叉熵损失;
2、SVM支持向量机的核函数:线性核、多项式核、径向基函数核、Sigmoid核、 余弦相似度核、拉普拉斯核
3、cnn中激活函数的作用是引入非线性
4、数据增强cutout随机裁剪、cutmix随机裁剪后粘贴、mixup两个图叠加、mosaic四宫格
5、GAN中鉴别器的作用是区分正负样本
6、BN是作用在HWN平面,也就是单一C;LN是HWC平面,也就是单一N;IN是HW平面,单一C和单一N;GN是HW平面,单一N多个C;
7、224*224*3的输入,通道数为5的7*7,p=0,s=1的卷积,输出是218*218*5,公式是((H+2*p-k)/s)+1
8、sigmoid一阶导的最大值是0.25
9、dropout随机失活:随机将神经网络中部分节点的权重或输出置零
10、python的深浅拷贝和赋值的区别:赋值是赋予的引用,相当于取别名,所以会跟着改;浅拷贝同样是赋予引用,可变元素可改;深拷贝就是完全独立的了
11、训练时出现过拟合的现象是在训练样本上表现得过于优越,导致在验证数据集以及测试数据集中表现不佳;可能的原因:训练集数量级与模型复杂度不匹配、训练集和测试集特征分布不一致、权值学习迭代次数过多、样本噪音干扰过大、模型假设不合理;解决方案:调小模型复杂度、增加训练数据量、正则化、早停策略、随机丢弃、集成学习、异常检测、迁移学习;
12、nn.modulelist和nn.sequential的连接方式与反向传播的差异:nn.ModuleList是一个简单的模块列表,本身不是一个模块,需要自己写代码来迭代nn.ModuleList中的模块,并按需将它们连接起来,本身不定义前向传播;nn.Sequential是一个按顺序包含模块的容器,不需要显式地编写前向传播代码,每个模块也会自动参与反向传播过程;
13、L1和L2损失的定义、优点、异常值时的使用:L1损失,也称为平均绝对误差;L2损失,也称为均方误差;L1损失的优点梯度值稳定、鲁棒性强、可能产生稀疏解;L2损失的优点:数学性质良好、对噪声的鲁棒性、避免过拟合;L1损失更适合于异常值处理;
14、力扣626换座位;
15、力扣239滑动窗口的最大值;
全部评论
相关推荐
10-20 18:54
门头沟学院 web前端 点赞 评论 收藏
分享
点赞 评论 收藏
分享