在使用线性回归时,我们可以将所有预测值大于等于 0.5 的结果视为 1,其余小于 0.5 的结果视为 0。但随之而来的问题是:为什么不能用它来进行分类呢?
问题所在:假设我们在对邮件进行分类,判断其是否为垃圾邮件,我们的输出是 y,它可以是 0(垃圾邮件)或 1(非垃圾邮件)。在线性回归的情况下,hθ(x) 可能会大于 1 或小于 0。虽然我们的预测结果应该在 0 和 1 之间,但该模型预测的值可能会超出这个范围,即可能大于 1 或小于 0。因此,这就是为什么对于分类任务,逻辑/ Sigmoid 回归能发挥其作用的原因。
逻辑回归是机器学习中常用于二分类问题的一种统计方法,其目标是预测两种可能结果之一,例如真/假或 是/否。以下是逻辑回归在分类任务中被广泛使用的一些原因:
简单且可解释:逻辑回归是一种相对简单的算法,易于理解和解释。它可以让我们深入了解自变量与特定结果概率之间的关系。
线性决策边界:逻辑回归可用于对线性决策边界进行建模,这使得它在分离属于不同类别的数据点时非常有用。
训练高效:逻辑回归可以快速训练,即使是大型数据集也是如此,并且比神经网络等更复杂的模型计算成本更低。
对噪声具有鲁棒性:逻辑回归可以处理输入数据中的噪声,并且与其他机器学习算法相比,它不太容易过拟合。
适用于小数据集:即使在可用数据有限的情况下,逻辑回归也能表现出色,这使其成为处理小数据集时的有用算法。
总体而言,逻辑回归是解决二分类问题的一种流行且有效的方法。然而,对于存在多个类别或输入变量与结果之间存在非线性关系的更复杂的分类问题,它可能并不适用。
$$h_{\Theta} (x) = g (\Theta ^{T}x)$$
$$z = \Theta ^{T}x$$
$$g(z) = \frac{1}{1+e^{-z}}$$
在这里,我们将 θTx 代入逻辑函数,其中 θ 是权重/参数,x 是输入,hθ(x) 是假设函数。g() 是 Sigmoid 函数。
$$h_{\Theta} (x) = P( y =1 | x ; \Theta )$$
这意味着当 x 由 θ 参数化时,y = 1 的概率。为了得到用于分类的离散值 0 或 1,我们需要定义离散的边界。假设函数可以转化为:
$$h_{\Theta} (x) \geq 0.5 \rightarrow y = 1$$
$$h_{\Theta} (x) < 0.5 \rightarrow y = 0$$
$$ {g(z) \geq 0.5} \Rightarrow {\Theta ^{T}x \geq 0} \Rightarrow {z \geq 0 } $$
决策边界是区分 y=0 区域和 y=1 区域的线。这些决策边界是由所考虑的假设函数产生的。
通过示例理解决策边界:假设我们的假设函数是:
$$h{\Theta}(x)= g[\Theta{0}+ \Theta1x1+\Theta2x2+ \Theta3x1^2 + \Theta4x2^2 ]$$
那么决策边界看起来就像这样:
让我们的权重或参数为 –
$$ \Theta=\begin{bmatrix} -1\\ 0\\ 0\\ 1\\ 1 \end{bmatrix} $$
因此,如果满足以下条件,它预测 y = 1:
$$ -1 + x{1}^2 + x{2}^2 \geqslant 0 $$
$$ \Rightarrow x{1}^2 + x{2}^2 \geqslant 1 $$
这就是一个以原点为中心、半径为 1 的圆的方程。这就是我们定义的假设的决策边界。