为数据选择合适的时序模型和预测方法

原始数据如下(data.csv):

 

由此可以得到特征值:

x1 社会从业人数   X2 在岗职工工资总额
X3 社会消费零售总额 X4 城镇居民人均可支配收入
X5 城镇居民人均消费性支出 X6 年末总人口
X7 全社会固定资产投资额 X8 地区生产总值
X9 第一生产值 X10 税收
X11 居民消费价格指数 X12 第三产业与第二产业产值比
X13 居民消费水平 Y 财政收入

一、数据分析

1、数据分析:

import numpy as np
import pandas as pd

inputfile = 'D:/ISS/anaconda/data/data.csv' # 输入的数据文件
data = pd.read_csv(inputfile) # 读取数据

# 描述性统计分析
description = [data.min(), data.max(), data.mean(), data.std()]  # 依次计算最小值、最大值、均值、标准差
description = pd.DataFrame(description, index = ['Min', 'Max', 'Mean', 'STD']).T  # 将结果存入数据框
print('描述性统计结果:\n',np.round(description, 2))  # 保留两位小数

结果如下:

 

 

 2、相关性分析:

# 相关性分析
corr = data.corr(method = 'pearson')  # 计算相关系数矩阵
print('相关系数矩阵为:\n',np.round(corr, 2))  # 保留两位小数

结果如下:

 

 


 

 

 因此得到,居民消费价格指数即x11,对财政收入即y影响最小。

 

二、灰度预测算法与SVR算法

1、LASSO回归选取关键属性

import numpy as np
import pandas as pd
from sklearn.linear_model import Lasso

inputfile = 'D:/ISS/anaconda/data/data.csv'  # 输入的数据文件
data = pd.read_csv(inputfile)  # 读取数据
lasso = Lasso(1000)  # 调用Lasso()函数,设置λ的值为1000
lasso.fit(data.iloc[:,0:13],data['y'])
print('相关系数为:',np.round(lasso.coef_,5))  # 输出结果,保留五位小数

print('相关系数非零个数为:',np.sum(lasso.coef_ != 0))  # 计算相关系数非零的个数

mask = lasso.coef_ != 0  # 返回一个相关系数是否为零的布尔数组
print('相关系数是否为零:',mask)
mask = np.append(mask,True)
outputfile ='D:/ISS/anaconda/data/new_reg_data.csv'  # 输出的数据文件
new_reg_data = data.iloc[:, mask]  # 返回相关系数非零的数据

new_reg_data.to_csv(outputfile)  #     
print('输出数据的维度为:',new_reg_data.shape)  # 查看输出数据的维度

结果如下:

 

 

 

利用Lasso回归方法识别影响财政收人的关键因素是社会从业人数(x1 )、 社会消费品零售总额(x3)、城镇居民人均可支配收人(x4)、 城镇居民人均消费性支出(x5)、年末总人口(x6)、全社会固定资产投资额(x7)、地区生产总值(x8)和居民消费水平(x13)。

灰色预测函数代码如下:

def GM11(x0): #自定义灰色预测函数
  import numpy as np
  x1 = x0.cumsum() #1-AGO序列
  z1 = (x1[:len(x1)-1] + x1[1:])/2.0 #紧邻均值(MEAN)生成序列
  z1 = z1.reshape((len(z1),1))
  B = np.append(-z1, np.ones_like(z1), axis = 1)
  Yn = x0[1:].reshape((len(x0)-1, 1))
  [[a],[b]] = np.dot(np.dot(np.linalg.inv(np.dot(B.T, B)), B.T), Yn) #计算参数
  f = lambda k: (x0[0]-b/a)*np.exp(-a*(k-1))-(x0[0]-b/a)*np.exp(-a*(k-2)) #还原值
  delta = np.abs(x0 - np.array([f(i) for i in range(1,len(x0)+1)]))
  C = delta.std()/x0.std()
  P = 1.0*(np.abs(delta - delta.mean()) < 0.6745*x0.std()).sum()/len(x0)
  return f, a, b, x0[0], C, P #返回灰色预测函数、a、b、首项、方差比、小残差概率

使用SVR回归预测模型

import matplotlib.pyplot as plt
from sklearn.svm import LinearSVR
import pandas as pd
inputfile = 'D:/ISS/anaconda/data/new_reg_data_GM11.xls'  # 灰色预测后保存的路径
data = pd.read_excel(inputfile,index_col=0)  # 读取数据
feature = ['x1', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x13']  # 属性所在列
#data_train = data.loc[range(1994,2014)].copy()  # 取2014年前的数据建模
data_train = data.iloc[0:20].copy() # 取2014年前的数据建模
data_mean = data_train.mean()
data_std = data_train.std()
data_train = (data_train - data_mean)/data_std  # 数据标准化
x_train = data_train[feature].values  # 属性数据
y_train = data_train['y'].values # 标签数据

linearsvr = LinearSVR()  # 调用LinearSVR()函数
linearsvr.fit(x_train,y_train)
x = ((data[feature] - data_mean[feature])/data_std[feature]).values  # 预测,并还原结果。
data['y_pred'] = linearsvr.predict(x) * data_std['y'] + data_mean['y']
outputfile = 'D:/ISS/anaconda/data/new_reg_data_GM11_revenue.xls'  # SVR预测后保存的结果
data.to_excel(outputfile)

print('真实值与预测值分别为:\n',data[['y','y_pred']])

fig = data[['y','y_pred']].plot(subplots = True, style=['b-o','r-*'])  # 画出预测结果图
plt.show()

结果如下:

      

 

 

 

三、ARMA模型

import pandas as pd
# 参数初始化
discfile = 'D:/ISS/anaconda/data/data.csv'
# 读取数据
data = pd.read_csv(discfile)
# 时序图
import matplotlib.pyplot as plt
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签
plt.rcParams['axes.unicode_minus'] = False  # 用来正常显示负号
data.plot()
plt.show()
from statsmodels.graphics.tsaplots import plot_acf
plot_acf(data['y']).show()

结果如下:

 

 

 平稳性检验:

from statsmodels.tsa.stattools import adfuller as ADF
print('原始序列的ADF检验结果为:', ADF(data['y']))

 

 可知p值为1,数据不平稳。差分操作:

D_data = data.diff().dropna()
feature = ['x1', 'x2', 'x3', 'x4', 'x5', 'x6', 'x7', 'x8', 'x9', 'x10', 'x11', 'x12', 'x13', 'y']  # 属性所在列
D_data.columns = feature
D_data.plot()  # 时序图
plt.show()
plot_acf(D_data['y']).show()  # 自相关图
from statsmodels.graphics.tsaplots import plot_pacf
plot_pacf(D_data['y'],lags=4).show()  # 偏自相关图
print('差分序列的ADF检验结果为:', ADF(D_data['y']))  # 平稳性检测

结果:

 

 进行白噪声检验:

from statsmodels.stats.diagnostic import acorr_ljungbox
print('差分序列的白噪声检验结果为:', acorr_ljungbox(D_data['y'], lags=1))  # 返回统计量和p值
from statsmodels.tsa.arima_model import ARIMA

结果:

 

算法预测:

data['y'] = data['y'].astype(float) 
pmax = int(len(D_data)/10)  # 一般阶数不超过length/10
qmax = int(len(D_data)/10)  # 一般阶数不超过length/10 
bic_matrix = []  # BIC矩阵
for p in range(pmax+1):
  tmp = []
  for q in range(qmax+1):
    try:  # 存在部分报错,所以用try来跳过报错。
      tmp.append(ARIMA(data['y'], (p,1,q)).fit().bic)
    except:
      tmp.append(None)
  bic_matrix.append(tmp)

bic_matrix = pd.DataFrame(bic_matrix)  # 从中可以找出最小值

p,q = bic_matrix.stack().idxmin()  # 先用stack展平,然后用idxmin找出最小值位置。
print('BIC最小的p值和q值为:%s、%s' %(p,q)) 
model = ARIMA(data['y'], (p,1,q)).fit()  # 建立ARIMA(0, 1, 1)模型
print('模型报告为:\n', model.summary2())
print('预测未来2年,其预测结果、标准误差、置信区间如下:\n', model.forecast(2))

得到结果:

 

posted @ 2022-04-02 00:20  邓若言  阅读(277)  评论(0编辑  收藏  举报