《神经网络基础概念(二)》-入门级AI学习

神经网络基础概念

前言:这个基础概念分为七个部分:
本章从1.4前向传播-1.5反向传播
下一章从1.6卷积神经网络-1.7循环神经网络
  • 前向传播和反向传播模拟的是人脑中神经元的正向传导和反向反馈信号回路
前向传播输入信号直至输出产生误差;
误差的接收使用损失函数;
反向传播使用损失函数更新权重矩阵。

1.4 前向传播:

  1. 是什么(what):输入信号从输入层传输到输出层的一个过程。
  2. 怎么样(How): 输入为 x ,输入为 y 的 映射函数
输入:样本向量(x)
计算:样本向量各元素经过各隐藏层的逐级加权求和+非线性激活(见底部名词解释)
输出: 预测向量(y)


每一个样本经过模型训练后会得到一个预测值,然后得到的预测值和真实值的差值就成为损失(损失越小,说明模型越成功,鲁棒性越好)。损失函数就是为了计算预测值和真实值的差距的一类函数。

  • 损失函数

  1. 为什么(why):为了让预测值无限接近于真实值,所以需要将差值降到最低(通过引入损失函数)
  2. 是什么(what):失函数就是为了计算预测值和真实值的差距的一类函数。
  3. 怎么做(How):基于前向传播和反向传播两种中间传播之间->乘上(接收模型预测值)启下(计算预测值和真实值的差值,为反向传播输入数据)
  4. 常见的损失函数:
  • 均方误差MSE (基于距离度量的损失函数:将数据映射到基于距离度量的特征空间上,将映射后的样本看作空间上的点,采用合适的损失函数度量特征空间上样本真实值和模型预测值之前的距离,距离越小,模型的预测性越好
公式:
适用于:回归问题(见底部名词解释)求解,度量样本点到回归曲线的距离,通过最小化平方损失使样本点可以更好地拟合回归曲线。

  • 交叉熵损失函数(基于概览分布度量的损失函数:将样本间相似性转化为随机事件出现的可能性,通过度量样本的真实分布于它估计的分布之间的差异情况,交叉熵越小,概览分布越接近
公式:
适用于:分类问题见底部名词解求解,可以有效避免梯度消散见底部名词解。在二分类情况下也叫做对数损失函数。

1.5 反向传播:

  1. 是什么(what):根据损失函数来对网格参数进行优化。
  2. 怎么样(How):
输入:损失函数值
计算:链式求导反向传播(求导相乘)
输出: 更新每一层 W 网格参数
总结而言,前向传播与反向传播的关系可以如图所示:



附录:(名词解释)
  1. 加权求和:权重比求和,比如学校按照不同占比的考试成绩(期中占比40%,期末占比50%,上课占比10%)取最终成绩。
  2. 非线性激活:激活函数是为了解决非线性(图像为非直线)问题求解的过程(见上节分享),使用非线性激活,会让隐藏层计算非线性回归问题。
  3. 回归问题:机器学习三大模型中重要的一环,功能是建模和分析变量之间的关系。多用来预测一个具体的数值,如预测房价、未来天气情况等等。输出是连续型变量,是一种定量输出。(预测明天的温度是多少度)。
  4. 分类问题:分类问题是监督学习的一个核心问题,它从数据中学习一个分类决策函数或分类模型(分类器(classifier)),对新的输入进行输出预测,输出变量为有限个离散值(有一套试卷并有标准答案,写完之后对照正确答案进行比对和学习),包括二分类问题和多分类问题。输出是离散型变量(如: +1、-1),是一种定性输出。(预测明天天气是阴、晴还是雨)
  5. 梯度消散:即梯度消失。是函数上升最快的方向(切线越陡,上升越快)与之相反就是下降最快的方向。
#人工智能##学习路径##深度学习##机器学习#
入门级AI学习-深度学习 文章被收录于专栏

内容:入门级AI课程学习(深度学习领域) 适用人群:初学者、入门级小白研发/产品/测试等 覆盖范围: 1.神经网络基础概念 2.数据集处理 3.网络构建 4.正则化 5.优化器 6.初始化 7.参数调节 8.深度置信网络 9.卷积神经网络 10.循环神经网络

全部评论

相关推荐

头像
11-09 12:17
清华大学 C++
out11Man:小丑罢了,不用理会
点赞 评论 收藏
分享
点赞 收藏 评论
分享
牛客网
牛客企业服务