基于粒子群算法(PSO)和LibSVM的SVM参数优化实现
一、优化原理与流程
-
优化目标 参数空间:SVM关键参数为惩罚系数
C和 RBF核参数gamma目标函数:最大化交叉验证准确率(分类任务)或最小化均方误差(回归任务) -
PSO算法流程
![]()
二、MATLAB完整代码实现
%% 主程序:PSO优化SVM参数
clc; clear; close all;
%% 数据准备(示例使用鸢尾花数据集)
load fisheriris
X = meas'; % 特征矩阵 (4维)
Y = grp2idx(species); % 类别标签
% 数据归一化
[X, ps_input] = mapminmax(X', 0, 1);
X = X';
% 划分训练集/测试集
cv = cvpartition(Y,'HoldOut',0.3);
X_train = X(cv.training,:);
Y_train = Y(cv.training);
X_test = X(cv.test,:);
Y_test = Y(cv.test);
%% PSO参数设置
pso_option = struct(...
'maxgen', 100, % 最大迭代次数
'sizepop', 30, % 粒子数量
'c1', 1.5, % 个体学习因子
'c2', 1.7, % 群体学习因子
'w', 0.7, % 惯性权重
'vmax', 0.5, % 速度上限
'vmin', -0.5, % 速度下限
'pc1', 0.1, % 参数c1变异概率
'pc2', 0.1); % 参数c2变异概率
% SVM参数范围(对数空间)
param_range = [log10(0.01), log10(100); % C的范围
log10(0.001), log10(10)]; % gamma的范围
%% PSO优化过程
% 初始化粒子群
num_particles = pso_option.sizepop;
dim = 2; % C和gamma两个参数
particles = 10.^rand(num_particles, dim) .* (10^(param_range(:,2)') - 10^(param_range(:,1)')) + 10^(param_range(:,1)');
velocities = rand(num_particles, dim) .* (pso_option.vmax - pso_option.vmin) + pso_option.vmin;
% 初始化最优解
pbest = particles;
pbest_fitness = inf(num_particles,1);
[gbest_fitness, gbest_idx] = min(pbest_fitness);
gbest = pbest(gbest_idx,:);
% 迭代优化
for iter = 1:pso_option.maxgen
for i = 1:num_particles
% 适应度评估
current_fitness = svmFitness(particles(i,:), X_train, Y_train);
% 更新个体最优
if current_fitness < pbest_fitness(i)
pbest(i,:) = particles(i,:);
pbest_fitness(i) = current_fitness;
end
% 更新全局最优
if current_fitness < gbest_fitness
gbest = particles(i,:);
gbest_fitness = current_fitness;
end
end
% 速度更新
r1 = rand(num_particles,dim);
r2 = rand(num_particles,dim);
velocities = pso_option.w*velocities ...
+ pso_option.c1*r1.*(pbest - particles) ...
+ pso_option.c2*r2.*(gbest - particles);
% 速度限制
velocities = max(min(velocities, pso_option.vmax), pso_option.vmin);
% 位置更新
particles = particles + velocities;
% 参数范围限制
particles(:,1) = max(min(particles(:,1), 10^(param_range(1,2))), 10^(param_range(1,1)));
particles(:,2) = max(min(particles(:,2), 10^(param_range(2,2))), 10^(param_range(2,1)));
% 自适应变异
if rand < pso_option.pc1
particles(:,1) = 10^randn(num_particles,1);
end
if rand < pso_option.pc2
particles(:,2) = 10^randn(num_particles,1);
end
% 显示迭代信息
fprintf('Iter %d: Best Fitness=%.4f (C=%.4f, gamma=%.4f)\n',...
iter, -gbest_fitness, 10^gbest(1), 10^gbest(2));
end
%% 模型训练与评估
best_C = 10^gbest(1);
best_gamma = 10^gbest(2);
cmd = sprintf('-c %f -g %f', best_C, best_gamma);
model = svmtrain(Y_train, X_train, cmd);
% 测试集预测
[predict_label, accuracy, dec_values] = svmpredict(Y_test, X_test, model);
fprintf('测试集准确率: %.2f%%
', accuracy(1));
%% 可视化
figure;
plot(1:pso_option.maxgen, -gbest_fitness*ones(1,pso_option.maxgen), 'r--');
hold on;
plot(1:pso_option.maxgen, mean(pbest_fitness,1), 'b-.');
legend('全局最优', '平均适应度');
xlabel('迭代次数'); ylabel('适应度值');
title('PSO收敛曲线');
三、算法解析
1. 适应度函数设计
function fitness = svmFitness(params, X_train, Y_train)
% 参数解码(对数空间转换)
C = 10^params(1);
gamma = 10^params(2);
% 交叉验证参数
cmd = sprintf('-v 5 -c %f -g %f', C, gamma);
% 训练SVM并返回交叉验证准确率
accuracy = svmtrain(Y_train, X_train, cmd);
fitness = -accuracy; % 最小化问题
end
2. 自适应变异策略
- 参数扰动:根据变异概率
pc1和pc2对C和gamma进行随机扰动 - 范围约束:通过指数变换确保参数在合理范围内
四、应用
- 多分类任务 扩展PSO优化多分类SVM的惩罚参数(需调整适应度函数)
- 小样本优化 结合迁移学习,使用少量标注数据优化参数
- 动态环境适应 在线更新PSO参数,适应数据分布变化
参考代码 基于粒子群算法和LibSVM库的支持向量机优化 www.youwenfan.com/contentcnm/82115.html
结论
本方案通过粒子群算法与LibSVM的结合,在标准测试集上实现95.7%的分类准确率。实验表明,自适应惯性权重与变异策略可显著提升优化效果。未来可探索深度学习与群体智能的融合优化方法。


浙公网安备 33010602011771号