华诺星空笔试
自己的笔试系统,无时间限制,无摄像头,无屏幕共享,30道单选,10道判断,题目比较简单
---更新---没有去线下参加宣讲,所以一直没消息,11月了打电话问我还考虑不,已签约,拒绝了----
1、什么情况下神经网络模型成为深度学习模型:加入更多层,使神经网络深度加深;
2、非线性的引入:relu
3、bn的好处:每一层输入的范围大致相同
4、处理过拟合的手段:dropout、bn、正则化
5、初始化权重:赋予一个初值,然后检查与标签的差值,不断迭代
6、ABC三个稠密矩阵,A7、池化可以保留变换的不变形
8、数据量大无法在RAM中同时处理,用SGD
9、选取神经网络深度时需要考虑:神经网络类型、输入数据、计算能力、学习率、映射的输出函数
10、在imagenet上训练一个网络,输入全白图片,那么输出的结果不是所有类别的可能性都一样
11、权重全部初始化为0,可以训练网络,但所有神经元都会识别同样的东西
12、图像识别用卷积神经网络
13、增加神经网络层数不是一定增加训练集/测试集的分类错误率
14、线性的激活函数无法实现同或函数
15、预测下一个单次用循环神经网络
16、语义分割:输入-卷积-反卷积-输出
17、rnn用梯度裁剪处理梯度爆炸
18、非连续目标用SGD优化
19、反向传播计算预测和标签之间的误差
20、batchsize选用2的次方,便于内存最优进行并行计算
21、Xavier初始化:一开始很小,最后也会很小;不是高斯提出的,是Xavier提出的;可以帮助减少梯度弥散的问题
22、GAN的生成器用的局部跨距卷积,鉴别器用的跨距卷积,替换池化
23、通用的逼近器包括:神经网络、多项式、模糊逻辑、支持向量机、径向基函数、核方法、决策树、随机森林
24、深度学习可以解决:蛋白质结构预测、化学反应预测、外来粒子检测
25、1*1卷积可以降低维度;用于特征池;减少过拟合
26、权重不能全部初始为0,偏差可以
27、mlp中输入8个神经元,隐藏层5个神经元,输出1个神经元,那么隐藏输出层和输入隐藏层的权重矩阵分别为1*5和5*8
28、多分类任务用softmax
29、分类激活函数:sigmoid、tanh、relu
30、bn:防止过拟合、防止激活值过高或过低、加速训练
31、增加多层感知机隐藏层层数不一定会使分类误差减小
32、深度学习之前无需完成特征提取
33、提升卷积核大小,不一定提升神经网络性能
34、relu激活函数永远不会饱和
35、循环神经网络不能理解为完全连接、无限长度的普通神经网络
36、一个网络共用一个学习率
37、GRU没有防止RNN梯度消失的作用
38、最大池化不能减少参数
39、sigmoid换relu可以克服梯度消失
---更新---没有去线下参加宣讲,所以一直没消息,11月了打电话问我还考虑不,已签约,拒绝了----
1、什么情况下神经网络模型成为深度学习模型:加入更多层,使神经网络深度加深;
2、非线性的引入:relu
3、bn的好处:每一层输入的范围大致相同
4、处理过拟合的手段:dropout、bn、正则化
5、初始化权重:赋予一个初值,然后检查与标签的差值,不断迭代
6、ABC三个稠密矩阵,A7、池化可以保留变换的不变形
8、数据量大无法在RAM中同时处理,用SGD
9、选取神经网络深度时需要考虑:神经网络类型、输入数据、计算能力、学习率、映射的输出函数
10、在imagenet上训练一个网络,输入全白图片,那么输出的结果不是所有类别的可能性都一样
11、权重全部初始化为0,可以训练网络,但所有神经元都会识别同样的东西
12、图像识别用卷积神经网络
13、增加神经网络层数不是一定增加训练集/测试集的分类错误率
14、线性的激活函数无法实现同或函数
15、预测下一个单次用循环神经网络
16、语义分割:输入-卷积-反卷积-输出
17、rnn用梯度裁剪处理梯度爆炸
18、非连续目标用SGD优化
19、反向传播计算预测和标签之间的误差
20、batchsize选用2的次方,便于内存最优进行并行计算
21、Xavier初始化:一开始很小,最后也会很小;不是高斯提出的,是Xavier提出的;可以帮助减少梯度弥散的问题
22、GAN的生成器用的局部跨距卷积,鉴别器用的跨距卷积,替换池化
23、通用的逼近器包括:神经网络、多项式、模糊逻辑、支持向量机、径向基函数、核方法、决策树、随机森林
24、深度学习可以解决:蛋白质结构预测、化学反应预测、外来粒子检测
25、1*1卷积可以降低维度;用于特征池;减少过拟合
26、权重不能全部初始为0,偏差可以
27、mlp中输入8个神经元,隐藏层5个神经元,输出1个神经元,那么隐藏输出层和输入隐藏层的权重矩阵分别为1*5和5*8
28、多分类任务用softmax
29、分类激活函数:sigmoid、tanh、relu
30、bn:防止过拟合、防止激活值过高或过低、加速训练
31、增加多层感知机隐藏层层数不一定会使分类误差减小
32、深度学习之前无需完成特征提取
33、提升卷积核大小,不一定提升神经网络性能
34、relu激活函数永远不会饱和
35、循环神经网络不能理解为完全连接、无限长度的普通神经网络
36、一个网络共用一个学习率
37、GRU没有防止RNN梯度消失的作用
38、最大池化不能减少参数
39、sigmoid换relu可以克服梯度消失
全部评论
老哥拿到offer了吗
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享