AI专业术语(二)
- 随机梯度下降(Stochastic gradient descent):一种梯度下降方法,它在每个训练步骤中仅使用一个样本。
- 小批量梯度下降(Mini-batch gradient descent):一种梯度下降方法,它在每个训练步骤中使用一小批量的样本。
- 长短期记忆(Long short-term memory):一种循环神经网络的变体,用于处理长序列数据。
- 自编码器(Autoencoder):一种无监督学习模型,用于学习数据的低维表示。
- 随机森林(Random forest):一种用于分类和回归的集成学习模型。
- K最近邻算法(K-nearest neighbor):一种用于分类和回归的非参数算法。
- 37、贝叶斯网络(Bayesian network):一种基于贝叶斯定理的概率图模型。
- 、马尔可夫链(Markovchain):一种用于建模状态转移过程的随机过程。
- 马尔可夫决策过程(Markovdecision process):一种用于建模决策过程的马尔可夫链。
- Q学习(Q-learning):一种无模型的强化学习算法,用于学习最优策略。
- AdaGrad:一种梯度下降算法,用于自适应地调整每个参数的学习率。
- RMSProp:一种梯度下降算法,用于自适应地调整每个参数的学习率。
- Adam:一种梯度下降算法,结合了AdaGrad和RMSProp的优点。
- 深度强化学习(Deep reinforcement learning):一种强化学习方法,使用深度神经网络来学习最优策略。
- 策略梯度(Policygradient):一种强化学习算法,用于直接优化策略函数。
- 序列到序列模型(Sequence-to-sequence model):一种用于序列到序列的自然语言处理任务的神经网络模型。
- 反向传播(Backpropagation):一种用于计算神经网络中参数梯度的算法。
- AlphaGo:由Google DeepMind开发的人工智能计算机程序,用于下围棋。
- AlphaZero:由Google DeepMind开发的人工智能计算机程序,能够在没有任何人类知识指导的情况下学会玩国际象棋、围棋和日本将棋等游戏。
- 词向量(Wordembedding):一种将单词映射到实数向量的技术,用于自然语言处理任务。
- 优化器(Optimizer):一种用于调整神经网络参数以最小化损失函数的算法。
- 异常检测(Anomaly detection):一种用于检测异常数据的技术。
- 主成分分析(Principal component analysis):一种用于降维的无监督学习方法。
- 聚类(Clustering):一种将数据分组为相似类别的无监督学习方法。
- 交叉验证(Cross-validation):一种用于评估机器学习模型性能的技术。
- 超参数调整(Hyperparameter tuning):一种通过调整模型超参数来提高模型性能的技术。
- 特征工程(Feature engineering):一种将原始数据转换为有意义的特征
- 对抗样本(Adversarial examples):一种人工制造的输入数据,目的是欺骗机器学习模型。
- 对抗训练(Adversarial training):一种训练机器学习模型以抵御对抗样本的方法。
- 可解释性机器学习(Explainable machine learning):一种机器学习方法,可以解释模型的决策过程和预测结果。