zl程序教程

您现在的位置是:首页 >  其他

当前栏目

逻辑斯谛回归

2023-02-26 09:52:13 时间

1. 简介

逻辑斯谛回归是统计学习中的经典分类方法。

2. 逻辑斯谛分布

  • 定义:设 XXX 是连续随机变量,XXX 服从逻辑斯谛分布是指 XXX 具有下列分布函数和密度函数: F(x)=P(X≤x)=11+e−(x−μ)/γf(x)=F′(x)=e−(x−μ)/γγ(1+e−(x−μ)/γ)2F(x) = P(X \leq x) = \frac{1}{1 + e^{-(x-\mu)/\gamma}} \\ f(x) = F^{'}(x) = \frac{e^{-(x-\mu)/\gamma}}{\gamma(1 + e^{-(x-\mu)/\gamma})^2} F(x)=P(X≤x)=1+e−(x−μ)/γ1​f(x)=F′(x)=γ(1+e−(x−μ)/γ)2e−(x−μ)/γ​ 其中,μ\muμ 是位置参数,γ>0\gamma > 0γ>0 为形状参数。

逻辑斯谛分布的 PDF 和 CDF 函数曲线如下图所示:

3. 二项逻辑斯谛回归模型

二项逻辑斯谛回归模型是一种分类模型,其由条件概率分布 P(Y∣X)P(Y | X)P(Y∣X) 表示,形式为参数化的逻辑斯谛分布。随机变量 XXX 取值为实数,随机变量 YYY 取值为 111 或 000,我们通过监督学习的方法来估计模型参数。

  • 定义:二项逻辑斯谛回归模型是如下的条件概率分布:P(Y=1∣x)=exp⁡(w⋅x+b)1+exp⁡(w⋅x+b)P(Y=0∣x)=11+exp⁡(w⋅x+b)P(Y = 1 | x) = \frac{\exp(w \cdot x + b)}{1 + \exp(w \cdot x + b)} \\ P(Y = 0 | x) = \frac{1}{1 + \exp(w \cdot x + b)} P(Y=1∣x)=1+exp(w⋅x+b)exp(w⋅x+b)​P(Y=0∣x)=1+exp(w⋅x+b)1​ 其中,x∈Rnx \in \mathbf{R}^nx∈Rn 为输入,Y∈{0,1}Y \in \{0, 1\}Y∈{0,1} 为输出,w∈Rnw \in \mathbf{R}^nw∈Rn 和 b∈Rb \in \mathbf{R}b∈R 为模型参数,www 为权值向量,bbb 为偏置,w⋅bw \cdot bw⋅b 表示 www 和 bbb 的内积。

对于给定实例 xxx,按照上式分别计算 P(Y=1∣x)P(Y = 1 | x)P(Y=1∣x) 和 P(Y=0∣x)P(Y = 0 | x)P(Y=0∣x),然后比较两个条件概率值,将实例 xxx 分到概率值较大的那一类。

几率:一个事件的几率是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生的概率是 ppp,那么该事件的几率是 p1−p\frac{p}{1-p}1−pp​,该事件的对数几率或 logit 函数是 logit(p)=log⁡p1−p\mathrm{logit}(p) = \log{\frac{p}{1-p}} logit(p)=log1−pp​

对于二项逻辑斯谛回归模型,其 logit 函数为

log⁡P(Y=1∣x)1−P(Y=1∣x)=w⋅x+b\log{\frac{P(Y = 1 | x)}{1 - P(Y = 1 | x)}} = w \cdot x + b log1−P(Y=1∣x)P(Y=1∣x)​=w⋅x+b

也即是说,输入 Y=1Y = 1Y=1 的对数几率是由输入 xxx 的线性函数表示的模型,即逻辑斯谛回归模型。

  • 参数估计:对于给定的训练数据集 T={(x1,y1),(x2,y2),⋯ ,(xN,yN)}T = \{(x_1, y_1), (x_2, y_2), \cdots, (x_N, y_N)\}T={(x1​,y1​),(x2​,y2​),⋯,(xN​,yN​)},其中 xi∈Rnx_i \in \mathbf{R}^nxi​∈Rn,yi∈{0,1}y_i \in \{0, 1\}yi​∈{0,1},可以应用极大似然估计法估计二项逻辑斯谛模型参数。设 P(Y=1∣x)=π(x),P(Y=0∣x)=1−π(x)P(Y = 1 | x) = \pi(x), P(Y = 0 | x) = 1 - \pi(x)P(Y=1∣x)=π(x),P(Y=0∣x)=1−π(x),似然函数为 ∏i=1N[π(xi)]yi[1−π(xi)]1−yi\prod_{i=1}^N [\pi(x_i)]^{y_i} [1-\pi(x_i)]^{1-y_i}∏i=1N​[π(xi​)]yi​[1−π(xi​)]1−yi​,则对数似然函数为 L(w)=∑i=1N[yilog⁡π(xi)+(1−yi)log⁡(1−π(xi))]=∑i=1N[yilog⁡π(xi)1−π(xi)+log⁡(1−π(xi))]=∑i=1N[yi(w⋅x+b)−log⁡(1+exp⁡(w⋅x+b))]\begin{aligned} L(w) & = \sum_{i=1}^N [y_i \log{\pi(x_i)} + (1-y_i) \log{(1-\pi(x_i))}] \\ & = \sum_{i=1}^N \left[ y_i \log{\frac{\pi(x_i)}{1 - \pi(x_i)} + \log{(1-\pi(x_i))}} \right] \\ & = \sum_{i=1}^N [y_i (w \cdot x + b) - \log{(1 + \exp(w \cdot x +b))}] \end{aligned} L(w)​=i=1∑N​[yi​logπ(xi​)+(1−yi​)log(1−π(xi​))]=i=1∑N​[yi​log1−π(xi​)π(xi​)​+log(1−π(xi​))]=i=1∑N​[yi​(w⋅x+b)−log(1+exp(w⋅x+b))]​ 对 L(w)L(w)L(w) 求极大值,即可得到 www 的估计值。 −L(w)-L(w)−L(w) 即对应交叉熵损失。

这样,问题就变成了以对数似然函数为目标函数的最优化问题。逻辑斯谛回归学习中通常采用的方法是梯度下降法或拟牛顿法。

4. 多项逻辑斯谛回归

二项逻辑斯谛回归可以推广为多项逻辑斯谛回归模型,用于多类分类。假设离散型随机变量 YYY 的取值集合为 {1,2,⋯ ,K}\{1, 2, \cdots, K\}{1,2,⋯,K},那么多项逻辑斯谛回归模型是

P(Y=k∣x)=exp⁡(wk⋅x)1+∑k=1K−1exp⁡(wk⋅x),k=1,2,⋯ ,K−1P(Y=K∣x)=11+∑k=1K−1exp⁡(wk⋅x)P(Y = k | x) = \frac{\exp(w_k \cdot x)}{1 + \sum_{k=1}^{K-1} \exp(w_k \cdot x)}, k = 1, 2, \cdots, K-1 \\ P(Y = K | x) = \frac{1}{1 + \sum_{k=1}^{K-1} \exp(w_k \cdot x)} P(Y=k∣x)=1+∑k=1K−1​exp(wk​⋅x)exp(wk​⋅x)​,k=1,2,⋯,K−1P(Y=K∣x)=1+∑k=1K−1​exp(wk​⋅x)1​

其中,为了简便,wk=(wk(1),⋯ ,wk(n),b)Tw_k = (w_k^{(1)}, \cdots, w_k^{(n)}, b)^Twk​=(wk(1)​,⋯,wk(n)​,b)T,x=(x(1),⋯ ,x(n),1)Tx = (x^{(1)}, \cdots, x^{(n)}, 1)^Tx=(x(1),⋯,x(n),1)T;x∈Rn+1,wk∈Rn+1x \in \mathbf{R}^{n+1}, w_k \in \mathbf{R}^{n+1}x∈Rn+1,wk​∈Rn+1。二项逻辑斯谛回归模型的参数估计方法也可以推广到多项逻辑斯谛回归模型中。

附录

  • 《统计学习方法》by 李航