監督式機器學習 相關公式
时间: 2023-11-16 22:05:21 浏览: 26
监督式机器学习中常用的公式包括:
1. 损失函数(Loss Function):衡量模型预测值与真实值之间的差距,常见的有均方误差(MSE)、交叉熵(Cross Entropy)等。
2. 梯度下降(Gradient Descent):通过求解损失函数的梯度,不断调整模型参数,使得损失函数最小化。
3. 正则化(Regularization):为了防止模型过拟合,通常会在损失函数中加入正则化项,如L1正则化、L2正则化等。
4. 决策树(Decision Tree):通过对数据进行递归划分,构建一棵树形结构,用于分类或回归。
5. 支持向量机(Support Vector Machine,SVM):通过寻找一个最优的超平面,将不同类别的数据分开。
6. 神经网络(Neural Network):由多个神经元组成的网络结构,通过不断调整权重和偏置,实现对数据的分类或回归。
7. K近邻算法(K-Nearest Neighbor,KNN):通过计算待预测样本与训练集中所有样本的距离,选取距离最近的K个样本进行分类或回归。
相关问题
监督式机器学习涉及的损失函数有哪些
监督式机器学习中,常见的损失函数有以下几种:
1. 均方误差(Mean Squared Error,MSE):用于回归问题,计算预测值与真实值之间的平均差的平方。
2. 交叉熵损失(Cross-entropy Loss):用于分类问题,衡量预测值与真实值之间的差异。包括二元交叉熵和多元交叉熵。
3. 对数似然损失(Log-Likelihood Loss):也用于分类问题,计算模型输出的概率分布与真实标签的对数似然。
4. Hinge Loss:用于支持向量机(SVM)等模型,衡量模型输出与真实值之间的较大差距。
5. L1 Loss:用于回归问题,计算预测值与真实值之间的绝对值差。
6. Huber Loss:综合了MSE和L1 Loss的优点,对预测误差较小的样本使用MSE,对误差较大的样本使用L1 Loss。
7. KL散度(Kullback-Leibler Divergence,KLD):用于计算两个概率分布之间的差异。
不同的损失函数适用于不同的问题和模型,选择合适的损失函数可以提高模型的性能和训练效率。
什么是监督式机器学习?什么是非监督式机器学习?两者的区别是什么?
监督式机器学习是一种机器学习方法,其中算法使用标记数据作为输入,目标是通过学习数据的关系来预测新数据的标记。在监督式学习中,算法从训练数据中学习有关输入和输出之间的关系,然后使用该知识来预测新数据的输出。
非监督式机器学习是另一种机器学习方法,其中算法使用未标记的数据作为输入,并尝试发现数据中的模式和结构。在非监督式学习中,算法不知道输出,它必须从数据中发现结构和模式。
区别在于,监督式学习需要有标记的数据集,而非监督式学习不需要标记的数据集。监督式学习的目标是预测标记,而非监督式学习的目标是发现数据中的模式和结构。监督式学习的应用广泛,例如分类、回归和目标检测等,而非监督式学习的应用包括聚类、异常检测和降维等。