《机器学习高频面试题详解》1.7:坐标轴下降法
点击最下面卡片链接就可以进入专栏,右上角有订阅选项,欢迎大家订阅~
前言
大家好,我是鬼仔,今天带来《机器学习高频面试题详解》专栏的第1.7节:坐标轴下降法。坐标轴下降法主要是解决L1范式不可导的问题,常常会在面试中出现,属于高频面试题。目前这篇是试读,后续的文章需要订阅才能查看哦,专栏预计更新30+篇文章(只增不减),具体内容可以看专栏介绍,大家的支持是鬼仔更新的动力!
PS:上周鬼仔事情比较多(又到了绩效考核的季节Orz...),所以停更了一周,这周会补上的~
一、Ridge回归和Lasso回归
线性回归是最简单的机器学习形式,但直接应用线性回归往往会有过拟合的问题,所以需要加入正则化项。根据正则化项的不同,线性回归可以转化为Ridge回归和Lasso回归:
- 如果加的是L2正则化项,则为Ridge回归,也叫岭回归。因为L2正则化会产生平滑的权值,所以Ridge回归不会舍弃任何一个权值变量,只会缩小其值,使得模型相对而言比较的稳定,但这会使得模型解释性差(因为保留的权值系数过多);
- 如果加的是L1正则化项,则为Lasso回归。因为L1正则化会产生稀疏的权值,所以Lasso回归会使得一些绝对值较小的权值系数直接变为0,因此其适用于特征筛选,得到的模型解释性更强。
但是,Lasso回归存在一个很大的问题,
剩余60%内容,订阅专栏后可继续查看/也可单篇购买
机器学习高频面试题详解 文章被收录于专栏
专栏作者曾在校招期间拿到包括字节、微信和华为等多家大厂的SSP offer,该专栏主要是为了帮助同学们系统性地学习和掌握机器学习中的基础知识。专栏详细地整理了各大厂的算法岗面经,力争深入浅出地讲解重要知识点,适合人群为准备校招或者实习,且目标岗位为算法岗、数据挖掘岗或者数据分析岗的同学。