sklearn的持续更新-1.1 广义线性回归模型-1.1.1.
模型 更新 持续 回归 1.1 线性 sklearn 广义
2023-09-11 14:13:58 时间
最近感觉学习ml没有什么动力,所有想把sklearn的东西翻译一下,顺便加深自己对算法的理解,也是提高当前本人的英语水平(目前英语惨目忍睹(ノ=Д=)ノ┻━┻)。我会尽量按照我自己的理解来进行翻译,有错还是希望大家能够理解,希望和大家一起学习进步。
1.1.广义线性回归
下面的公式是一组线性回归方法,其中是目标值和真实输入值组合。在数学概念中,假设为预测值。
通过这个模型,我们指定这个向量作为一次性系数coef_以及作为截距intercept_。
要使用广义线性回归进行分类,参考Logistics回归->(这里在之后的1.1.11会涉及到。感觉好多啊,随便都到11)
1.1.1.普通最小二乘
LinerRegression适合用系数进行线性拟合,使用最小二乘来最小化预测值和真实值之间的差距,用预测值来逼近真实值。在数学上解决这个问题用的是一下的公式:
LinearRegression将采用线性拟合的方式拟合数据X和y,并将得到的线性系数存储在coef_成员中:
from sklearn import linear_model
reg=linear_model.LinearRegression()
print(reg.fit([[0,0],[1,1],[2,2]],[0,1,2]))
#LinearRegression(copy_X=True,fit_intercept=True, n_jobs=1, normalize=False)
print(reg.coef_)#[0.5 0.5]
然而,普通的最小二乘法的系数建立依赖于模型项,当得到的矩阵的列有显著的线性相关时,得到的矩阵接近于奇异,导致最小二乘得到的误差值高度敏感,产生大的方差。例如,当没有对数据没有进行有效的处理和收集,就会产生出这种多重共线性的情况。
这个例子只用了糖尿病的第一个特征,画出了二维回归图。如图所示这条直线,可以看到从已知的数据点拟合之后的直线尝试去最小化残差平方和,通过线性的方式进行接近。
这里的系数,残差平方和,方差的值在这里被计算出来。
这里是代码的链接:我是链接
相关文章
- PCL 之vtk计算点云模型的法向量
- Open3D (C++) 点云/模型的体素化
- ML之XGBoost:XGBoost算法模型(相关配图)的简介(XGBoost并行处理)、关键思路、代码实现(目标函数/评价函数)、安装、使用方法、案例应用之详细攻略
- 从零开始学_JavaScript_系列(16)——CSS<3>(文本、对齐、圆角、盒模型、背景)
- Interview之ML:机器学习算法工程师结构知识思维导图集合、求职九大必备技能之【数学基础、特征工程能力、模型评估和优化、机器学习基本概念/经典算法、深度学习算法、业务与应用】(持续更新)
- 移动机器人路径跟踪的设计和仿真模型预测控制(Matlab代码实现)
- Python实现GWO智能灰狼优化算法优化LightGBM回归模型(LGBMRegressor算法)项目实战
- Python实现一个最简单的MapReduce编程模型WordCount
- 【模型↔关系思考法】如何在一个全新的、陌生的领域快速成为专家?模仿 + 一万小时定律 + 创新...
- 理解dropout——本质是通过阻止特征检测器的共同作用来防止过拟合 Dropout是指在模型训练时随机让网络某些隐含层节点的权重不工作,不工作的那些节点可以暂时认为不是网络结构的一部分,但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了
- 深度学习基础:7.模型的保存与加载/学习率调度