基于灰狼算法优化的lssvm回归预测-附代码
基于灰狼算法优化的lssvm回归预测 - 附代码
摘要:为了提高最小二乘支持向量机(lssvm)的回归预测准确率,对lssvm中的惩罚参数和核惩罚参数利用灰狼算法进行优化。
1.数据集
数据信息如下:
data.mat 的中包含input数据和output数据
其中input数据维度为:2000*2
其中output数据维度为2000*1
所以RF模型的数据输入维度为2;输出维度为1。
2.lssvm模型
lssvm请自行参考相关机器学习书籍。
3.基于灰狼算法优化的LSSVM
灰狼算法的具体原理参考博客
灰狼算法的优化参数为惩罚参数和核惩罚参数。适应度函数为RF对训练集和测试集的均方误差(MSE),均方误差MSE越低越好。
f
i
n
t
e
n
e
s
s
=
M
S
E
[
p
r
e
d
i
c
t
(
t
r
a
i
n
)
]
+
M
S
E
[
p
r
e
d
i
c
t
(
t
e
s
t
)
]
finteness = MSE[predict(train)] + MSE[predict(test)]
finteness=MSE[predict(train)]+MSE[predict(test)]
4.测试结果
数据划分信息如下: 训练集数量为1900组,测试集数量为100组
灰狼参数设置如下:https://blog.csdn.net/u011835903/article/details/107716390
%% 利用灰狼算法选择回归预测分析最佳的lssSVM参数c&g
%% 灰狼参数设置
% 定义优化参数的个数,在该场景中,优化参数的个数dim为2 。
% 定义优化参数的上下限,如c的范围是[0.01, 1], g的范围是[2^-5, 2^5],那么参数的下限lb=[0.01, 2^-5];参数的上限ub=[1, 2^5]。
%目标函数
fobj = @(x) fun(x,Pn_train,Tn_train,Pn_test,Tn_test);
% 优化参数的个数 (c、g)
dim = 2;
% 优化参数的取值下限
lb = [0.01,0.01];
ub = [5,5];
% 参数设置
pop =20; %灰狼数量
Max_iteration=5;%最大迭代次数
GWO-LSSVM优化得到的最优参数为:
GWO-LSSVM优化得到的gama为:5
GWO-LSSVM优化得到的sig2为:0.26371
GWO-LSSVM结果:
GWO-LSSVM训练集MSE:0.047222
GWO-LSSVM测试集MSE:0.030908
LSSVM结果:
LSSVM训练集MSE:0.16256
LSSVM测试集MSE:0.17925
从MSE结果来看,经过改进后的灰狼-LSSVM明显优于未改进前的结果。
5.Matlab代码
相关文章
- 智能优化算法简介
- 7个步骤详解AdaBoost 算法原理和构建流程(附代码)
- 【共识算法(9)】-改进BFT-“hotstuff”
- ST表算法与代码实现
- C语言经典算法(七)——递归实现阶乘算法的两种方法「建议收藏」
- 使用回溯法解0/1背包问题n=3,c=9_背包问题C语言算法
- 【视频】K近邻KNN算法原理与R语言结合新冠疫情对股票价格预测|数据分享|附代码数据
- 单源最短路径(狄克斯特拉算法)
- python冒泡排序算法代码_python用冒泡法对10个数排序
- 动画图解:十大经典排序算法动画与解析,看我就够了!(配代码完全版)[通俗易懂]
- 汉诺塔问题java代码_汉诺塔问题编程算法
- 常见的js算法_javascript数据结构与算法
- 【数据结构其实真不难】数据结构和算法概述
- 串的模式匹配算法(KMP算法,BF算法+算法详解+实现代码)
- 小波去噪算法的简易实现及其扩展(小波锐化、高斯拉普拉斯金字塔去噪及锐化)之一。
- 深度学习算法原理——RCNN
- 一种基于交叉选择的柯西反向鲸鱼优化算法QOWOA附matlab代码
- Vue源码之虚拟DOM和diff算法(一)使用snabbdom
- R语言使用随机技术差分进化算法优化的Nelson-Siegel-Svensson模型|附代码数据
- 面向算法选择的元学习研究综述
- shazam音乐检索算法 附完整c代码详解编程语言
- 算法-滑动窗口的最大值详解编程语言
- 贪心算法WOODENSTICKS实例代码
- C#中实现任意List的全组合算法代码
- JAVA实现KMP算法理论和示例代码
- 一组PHP可逆加密解密算法实例代码