首页
题库
公司真题
专项练习
面试题库
在线编程
面试
面试经验
AI 模拟面试
简历
求职
学习
基础学习课
实战项目课
求职辅导课
专栏&文章
竞赛
我要招人
发布职位
发布职位、邀约牛人
更多企业解决方案
AI面试、笔试、校招、雇品
HR免费试用AI面试
最新面试提效必备
登录
/
注册
北京这片海
北方工业大学 算法工程师
发布于北京
关注
已关注
取消关注
@健身编码工作三不误:
机器学习面经
经历了2023年的秋招,现在也已经入职半年了,空闲时间将面试中可能遇到的机器学习问题整理了一下,可能答案也会有错误的,希望大家能指出!另外,不论是实习,还是校招,都祝福大家能够拿到满意的Offer!机器学习面经系列的其他部分如下所示(这是我在其他地方写的,感兴趣的同学可以点波关注捏):机器学习面经-共13章节1、机器学习模型1.1 有监督学习模型1.2 无监督学习模型 1.3 概率模型什么是监督学习?什么是非监督学习? 所有的回归算法和分类算法都属于监督学习。并且明确的给给出初始值,在训练集中有特征和标签,并且通过训练获得一个模型,在面对只有特征而没有标签的数据时,能进行预测。 监督学习:通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,将输入映射到合适的输出,例如 分类。 非监督学习:直接对输入数据集进行建模,例如强化学习、K-means 聚类、自编码、受限波尔兹曼机。 半监督学习:综合利用有类标的数据和没有类标的数据,来生成合适的分类函数。 目前最广泛被使用的分类器有人工神经网络、支持向量机、最近邻居法、高斯混合模型、朴素贝叶斯方法、决策树和径向基函数分类。 无监督学习里典型的例子就是聚类了。聚类的目的在于把相似的东西聚在一起,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了。1.5、回归、分类、聚类的区别与联系1.6、生成模式 vs 判别模式 生成模型: 由数据学得联合概率分布函数 P(X,Y),求出条件概率分布P(Y|X)的预测模型。 朴素贝叶斯、隐马尔可夫模型、高斯混合模型、文档主题生成模型(LDA)、限制玻尔兹曼机。 判别式模型: 由数据直接学习决策函数 Y = f(X),或由条件分布概率 P(Y|X)作为预测模型。 K近邻、SVM、决策树、感知机、线性判别分析(LDA)、线性回归、传统的神经网络、逻辑斯蒂回归、boosting、条件随机场。2、线性模型2.1 线性回归 原理: 用线性函数拟合数据,用 MSE 计算损失,然后用梯度下降法(GD)找到一组使 MSE 最小的权重。 线性回归的推导如下所示:2.1.1 什么是回归?哪些模型可用于解决回归问题? 指分析因变量和自变量之间关系. 线性回归: 对异常值非常敏感 多项式回归: 如果指数选择不当,容易过拟合。 岭回归 Lasso回归 弹性网络回归2.1.2 线性回归的损失函数为什么是均方差?2.1.3 什么是线性回归?什么时候使用它? 利用最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析. 自变量与因变量呈直线关系; 因变量符合正态分布; 因变量数值之间独立; 方差是否齐性。 2.1.4 什么是梯度下降?SGD的推导? BGD: 遍历全部数据集计算一次loss函数,然后算函数对各个参数的梯度,更新梯度。 BGD、SGD、MBGD之间的区别2.1.5 什么是最小二乘法(最小平方法)? 它通过最小化误差的平方和寻找数据的最佳函数匹配。 2.1.6 常见的损失函数有哪些?0-1损失均方差损失(MSE) 平均绝对误差(MAE) 分位数损失(Quantile Loss) 分位数回归可以通过给定不同的分位点,拟合目标值的不同分位数; 实现了分别用不同的系数控制高估和低估的损失,进而实现分位数回归交叉熵损失合页损失 一种二分类损失函数,SVM的损失函数本质: Hinge Loss + L2 正则化2.1.7 有哪些评估回归模型的指标? 衡量线性回归法最好的指标: R-Squared 什么是正规方程? 正规方程组是根据最小二乘法原理得到的关于参数估计值的线性方程组。正规方程是通过求解编辑来找出使得代价函数最小的参数解出: 编辑2.1.9 梯度下降法找到的一定是下降最快的方向吗? 不一定,它只是目标函数在当前的点的切平面上下降最快的方向。 在实际执行期中,牛顿方向(考虑海森矩阵)才一般被认为是下降最快的方向,可以达到超线性的收敛速度。梯度下降类的算法的收敛速度一般是线性甚至次线性的(在某些带复杂约束的问题)。 2.1.10 MBGD需要注意什么? 如何选择m? 一般m取2的幂次方能充分利用矩阵运算操作。 一般会在每次遍历训练数据之前,先对所有的数据进行随机排序,然后在每次迭代时按照顺序挑选m个训练集数据直至遍历完所有的数据。也称为"对数几率回归"。知识点提炼 1.分类,经典的二分类算法! 2.LR的过程:面对一个回归或者分类问题,建立代价函数,然后通过优化方法迭代求解出最优的模型参数,然后测试验证这个求解的模型的好坏。 3.Logistic 回归虽然名字里带“回归”,但是它实际上是一种分类方法,主要用于两分类问题(即输出只有两种,分别代表两个类别) 4.回归模型中,y 是一个定性变量,比如 y = 0 或 1,logistic 方法主要应用于研究某些事件发生的概率。 5.LR的本质:极大似然估计 6.LR的激活函数:Sigmoid 7.LR的代价函数:交叉熵优点: 1.速度快,适合二分类问题 2.简单易于理解,直接看到各个特征的权重 3.能容易地更新模型吸收新的数据缺点: 对数据和场景的适应能力有局限性,不如决策树算法适应性那么强。LR中最核心的概念是 Sigmoid 函数,Sigmoid函数可以看成LR的激活函数。Regression 常规步骤: 寻找h函数(即预测函数) 构造J函数(损失函数) 想办法(迭代)使得J函数最小并求得回归参数(θ)LR伪代码: 初始化线性函数参数为1 构造sigmoid函数 重复循环I次 计算数据集梯度 更新线性函数参数 确定最终的sigmoid函数 输入训练(测试)数据集 运用最终sigmoid函数求解分类的推导为什么 LR 要使用 sigmoid 函数? 1.广义模型推导所得 2.满足统计的最大熵模型 3.性质优秀,方便使用(Sigmoid函数是平滑的,而且任意阶可导,一阶二阶导数可以直接由函数值得到不用进行求导,这在实现中很实用)为什么常常要做特征组合(特征交叉)? LR模型属于线性模型,线性模型不能很好处理非线性特征,特征组合可以引入非线性特征,提升模型的表达能力。 另外,基本特征可以认为是全局建模,组合特征更加精细,是个性化建模,但对全局建模会对部分样本有偏, 对每一个样本建模又会导致数据爆炸,过拟合,所以基本特征+特征组合兼顾了全局和个性化。为什么LR比线性回归要好? LR和线性回归首先都是广义的线性回归;其次经典线性模型的优化目标函数是最小二乘,而LR则是似然函数;另外线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。LR就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,LR的鲁棒性比线性回归的要好参数求解的优化方法?(机器学习中常用的最优化方法) 梯度下降法,随机梯度下降法,牛顿法,拟牛顿法(LBFGS,BFGS,OWLQN) 目的都是求解某个函数的极小值。工程上,怎么实现LR的并行化?有哪些并行化的工具? LR的并行化最主要的就是对目标函数梯度计算的并行化。 无损的并行化:算法天然可以并行,并行只是提高了计算的速度和解决问题的规模,但和正常执行的结果是一样的。 有损的并行化:算法本身不是天然并行的,需要对算法做一些近似来实现并行化,这样并行化之后的双方和正常执行的结果并不一致,但是相似的。 基于Batch的算法都是可以进行无损的并行化的。而基于SGD的算法都只能进行有损的并行化。如何解决低维不可分问题? 通过特征变换的方式把低维空间转换到高维空间,而在低维空间不可分的数据,到高维空间中线性可分的几率会高一些。 具体方法:核函数,如:高斯核,多项式核等等与最大熵模型MaxEnt的关系? 没有本质区别。LR是最大熵对应类别为二类时的特殊情况,也就是当LR类别扩展到多类别时,就是最大熵模型。为什么 LR 用交叉熵损失而不是平方损失(MSE)?编辑 如果使用均方差作为损失函数,求得的梯度受到sigmoid函数导数的影响;编辑求导:编辑 如果使用交叉熵作为损失函数,没有受到sigmoid函数导数的影响,且真实值与预测值差别越大,梯度越大,更新的速度也就越快。编辑求导:编辑 记忆:mse的导数里面有sigmoid函数的导数,而交叉熵导数里面没有sigmoid函数的导数,sigmoid的导数的最大值为0.25,更新数据时太慢了。能否解决非线性分类问题?可以,只要使用kernel trick(核技巧)。不过,通常使用的kernel都是隐式的,也就是找不到显式地把数据从低维映射到高维的函数,而只能计算高维空间中数据点的内积。编辑用什么来评估LR模型?1.由于LR是用来预测概率的,可以用AUC-ROC曲线以及混淆矩阵来确定其性能。2.LR中类似于校正R2 的指标是AIC。AIC是对模型系数数量惩罚模型的拟合度量。因此,更偏爱有最小的AIC的模型。如何解决多分类问题?(OvR vs OvO)编辑在训练的过程当中,如果有很多的特征高度相关或者说有一个特征重复了100遍,会造成怎样的影响? 如果在损失函数最终收敛的情况下,其实就算有很多特征高度相关也不会影响分类器的效果。但是对特征本身来说的话,假设只有一个特征,在不考虑采样的情况下,你现在将它重复100遍。训练以后完以后,数据还是这么多,但是这个特征本身重复了100遍,实质上将原来的特征分成了100份,每一个特征都是原来特征权重值的百分之一。如果在随机采样的情况下,其实训练收敛完以后,还是可以认为这100个特征和原来那一个特征扮演的效果一样,只是可能中间很多特征的值正负相消了。2.2.13 为什么在训练的过程当中将高度相关的特征去掉? 去掉高度相关的特征会让模型的可解释性更好。 可以大大提高训练的速度。如果模型当中有很多特征高度相关的话,就算损失函数本身收敛了,但实际上参数是没有收敛的,这样会拉低训练的速度。 其次是特征多了,本身就会增大训练的时间。 今日先更新到这里了,机器学习的总共为12章节,除此之外还有深度学习!等后续一序列更新~
点赞 27
评论 4
全部评论
推荐
最新
楼层
暂无评论,快来抢首评~
相关推荐
04-26 19:46
蔚来_AI算法应用工程师(准入职员工)
蔚来汽车内推-蔚来内推码
2.6投的简历,2.7就有电话来约面试,2.8就面试,进程推进还是蛮快的,应该是缺人,所以想去蔚来base上海的,可以去冲冲!分享一下一面面经:1. 自我介绍2. 了解工作时长,一周工作几天,之后的时间规划3. 为什么往测试开发方向发展,你对于测试的理解是什么?4. 测试是一项什么样的工作?5. 你发现缺陷后会继续跟踪缺陷的解决方案吗?6.关于缺陷本身是怎么解决的?缺陷解决的流程理解7. 介绍上一份实习经历测试的对象,需要满足什么样的用户需求8.在这个实习经历中担任的角色,负责跟踪新需求还是做回归测试比较多9. 测试用例数量很多,有疑问为什么有这么多用例和缺陷10. 测试用例是自己写的吗,还...
点赞
评论
收藏
分享
04-14 14:48
复旦大学 运维工程师
这是简历挂了嘛
你背过凌晨4点的八股文么:
简历挂了的话会是流程终止,像我一样
点赞
评论
收藏
分享
03-15 14:55
已编辑
门头沟学院 golang
26届学院本上岸字节暑期!
bg:双非学院本 ACM银 go选手timeline:3.1号开始暑期投递3.7号第二家公司离职顽岩科技 ai服务中台方向 笔试➕两轮面试,二面挂(钱真的好多😭)厦门纳克希科技 搞AI的,一面OC猎豹移动 搞AIGC方向 一面OC北京七牛云 搞AI接口方向 一面OC上海古德猫宁 搞AIGC方向 二面OC上海简文 面试撞了直接拒深圳图灵 搞AIGC方向一面后无消息懒得问了,面试官当场反馈不错其他小厂没记,通过率80%,小厂杀手😂北京字节 具体业务不方便透露也是AIGC后端方向2.28约面 (不知道怎么捞的我,我也没在别的地方投过字节简历哇)3.6一面 一小时 半小时拷打简历(主要是AIGC部分)剩余半小时两个看代码猜结果(经典go问题)➕合并二叉树(秒a,但是造case造了10分钟哈哈)一天后约二面3.12 二面,让我挑简历上两个亮点说,主要说的docker容器生命周期管理和raft协议使用二分法优化新任leader上任后与follower同步时间。跟面试官有共鸣,面试官还问我docker底层cpu隔离原理和是否知道虚拟显存。之后一道easy算法,(o1空间解决 给定字符串含有{和}是否合法)秒a,之后进阶版如何用10台机加快构建,想五分钟后a出来。面试官以为45分钟面试时间,留了18分钟让我跟他随便聊,后面考了linux top和free的部分数据说什么意思(专业对口了只能说,但是当时没答很好)。因为当时手里有7牛云offer,跟面试官说能否快点面试,马上另外一家时间到了。10分钟后约hr面3.13,上午hr面,下午走完流程offer到手3.14腾讯技术运营约面,想直接拒😂感受: 因为有AIGC经验所以特别受AI初创公司青睐,AIGC后端感觉竞争很小(指今年),全是简历拷打,基本没有人问我八股(八股吟唱被打断.jpeg),学的东西比较广的同时也能纵向深挖学习,也运气比较好了哈哈可能出于性格原因,没有走主流Java路线,也没有去主动跟着课写项目,项目都是自己研究和写的哈哈
烤点老白薯:
你根本不是典型学院本的那种人,贵了你这能力
查看7道真题和解析
点赞
评论
收藏
分享
04-29 09:47
已编辑
北京师范大学 模拟IC设计
美团/饿了么/京东 配送端面经
收到了美团、饿了么、京东的OC,给大家伙分享一下面经吧 希望对各位牛牛们有所帮助一、美团timeline:4.21一面&OC,只有一面,时长30分钟,面试官还挺友善的,牛客之前有面经,问的问题基本吻合1、说说你平时怎么送餐的?用的工具是什么2、如果送餐途中下雨,订单可能超时,你会如何处理?3、当同时配送5单时手机突然播放"您的美团订单即将超时",怎样规划路线最优?4、送到餐了,联系不上用户你该怎么办?5、遇到写字楼电梯故障但剩余12分钟配送22楼订单,如何极限操作?6、配送时发现客户是竞对平台员工,备注栏写'美团狗都不吃'怎么处理?7、如果遇到京东小哥...
创作小队长:
我给你这件衣服,三家hr不都炸了嘛
查看图片
我的求职精神状态
点赞
评论
收藏
分享
评论
点赞成功,聊一聊 >
点赞
收藏
分享
评论
提到的真题
返回内容
全站热榜
更多
1
...
暑期后端高频问题汇总
7.4W
2
...
左手敲代码的程序员,不配拥有offer吗?
6.6W
3
...
想听实话吗,校招ssp聊聊大厂客户端
3.7W
4
...
北京到底有谁在啊?
8853
5
...
五一假期,弯道超车时间表
8819
6
...
后端简历上最值得写的项目
8664
7
...
美团/饿了么/京东 配送端面经
6313
8
...
五一别写你那破开源代码了
6265
9
...
五一准备刷完这些面试八股题!!
5859
10
...
拼多多服务端信息确认
5346
创作者周榜
更多
正在热议
更多
#
设计人如何选offer
#
97954次浏览
680人参与
#
找工作,行业重要还是岗位重要?
#
7046次浏览
88人参与
#
五一之后,实习真的很难找吗?
#
44730次浏览
313人参与
#
盲审过后你想做什么?
#
12387次浏览
110人参与
#
外包能不能当跳板?
#
22063次浏览
191人参与
#
领导秒批的请假话术
#
9720次浏览
74人参与
#
考研可以缓解求职焦虑吗
#
20654次浏览
244人参与
#
五一假期,你打算“躺”还是“卷”?
#
27030次浏览
408人参与
#
面试等了一周没回复,还有戏吗
#
115314次浏览
1072人参与
#
找工作前vs找工作后的心路变化
#
7141次浏览
64人参与
#
牛友们的论文几号送审
#
27169次浏览
623人参与
#
你喜欢工作还是上学
#
37401次浏览
409人参与
#
应届生薪资多少才合理?
#
3061次浏览
24人参与
#
写简历别走弯路
#
714193次浏览
7850人参与
#
如果有时光机,你最想去到哪个年纪?
#
43227次浏览
766人参与
#
如何缓解入职前的焦虑
#
171785次浏览
1267人参与
#
每人推荐一个小而美的高薪公司
#
72826次浏览
1357人参与
#
硬件人,你被哪些公司给挂了
#
46526次浏览
720人参与
#
如果不工作真的会快乐吗
#
101028次浏览
866人参与
#
大疆的机械笔试比去年难吗
#
69572次浏览
602人参与
牛客网
牛客企业服务