时间序列预测模型-ARIMA原理及Python实现!

1、数据介绍

再介绍本篇的内容之前,我们先来看一下本文用到的数据。本文用到的中国银行股票数据下载:http://pan.baidu.com/s/1gfxRFbH。

我们先来导入一下我们的数据,顺便画出收盘价数据的折线图:

 1 import pandas as pd
 2 import matplotlib.pyplot as plt
 3 ChinaBank = pd.read_csv('ChinaBank.csv',index_col = 'Date',parse_dates=['Date'])
 4 
 5 #ChinaBank.index = pd.to_datetime(ChinaBank.index)
 6 sub = ChinaBank['2014-01':'2014-06']['Close']
 7 train = sub.ix['2014-01':'2014-03']
 8 test = sub.ix['2014-04':'2014-06']
 9 plt.figure(figsize=(10,10))
10 print(train)
11 plt.plot(train)
12 plt.show()

 

 

数据如下:

 

 

介绍了数据,我们接下来进入今天的正题。

2、时间序列*稳性

2.1 *稳性

*稳性就是要求经由样本时间序列所得到的拟合曲线在未来一段时间内仍能顺着现有的形态惯性地延续下去。*稳性要求序列的均值和方差不发生明显变化。

严*稳
严*稳表示的分布不随时间的改变而改变。如白噪声(正太),无论怎么取,都是期望为0,方差为1

宽*稳
期望与相关系数(依赖性)不变。未来某时刻的t的值Xt就要依赖于它的过去信息,所以需要依赖性。这种依赖性不能有明显的变化。

2.2 差分法

使用差分法可以使得数据更*稳,常用的方法就是一阶差分法和二阶差分法。

时间序列差分值的求解可以直接通过pandas中的diff函数得到:

 1 ChinaBank['Close_diff_1'] = ChinaBank['Close'].diff(1)
 2 ChinaBank['Close_diff_2'] = ChinaBank['Close_diff_1'].diff(1)
 3 fig = plt.figure(figsize=(20,6))
 4 ax1 = fig.add_subplot(131)
 5 ax1.plot(ChinaBank['Close'])
 6 ax2 = fig.add_subplot(132)
 7 ax2.plot(ChinaBank['Close_diff_1'])
 8 ax3 = fig.add_subplot(133)
 9 ax3.plot(ChinaBank['Close_diff_2'])
10 plt.show()

 

 

绘制的图如下所示:

 

 

可以看到,基本上时间序列在一阶差分的时候就已经接*于*稳序列了。

3、ARIMA模型介绍

3.1 自回归模型AR

自回归模型描述当前值与历史值之间的关系,用变量自身的历史时间数据对自身进行预测。自回归模型必须满足*稳性的要求。

自回归模型首先需要确定一个阶数p,表示用几期的历史值来预测当前值。p阶自回归模型的公式定义为:

 

 

上式中yt是当前值,u是常数项,p是阶数 ri是自相关系数,et是误差。

自回归模型有很多的限制:
1、自回归模型是用自身的数据进行预测
2、时间序列数据必须具有*稳性
3、自回归只适用于预测与自身前期相关的现象

3.2 移动*均模型MA

移动*均模型关注的是自回归模型中的误差项的累加 ,q阶自回归过程的公式定义如下:

 

 

移动*均法能有效地消除预测中的随机波动。

3.3 自回归移动*均模型ARMA

自回归模型AR和移动*均模型MA模型相结合,我们就得到了自回归移动*均模型ARMA(p,q),计算公式如下:

3.4 差分自回归移动*均模型ARIMA

将自回归模型、移动*均模型和差分法结合,我们就得到了差分自回归移动*均模型ARIMA(p,d,q),其中d是需要对数据进行差分的阶数。

4、建立ARIMA模型的过程

一般来说,建立ARIMA模型一般有三个阶段,分别是模型识别和定阶、参数估计和模型检验,接下来,我们一步步来介绍:

4.1 模型识别和定阶

模型的识别问题和定阶问题,主要是确定p,d,q三个参数,差分的阶数d一般通过观察图示,1阶或2阶即可。这里我们主要介绍p和q的确定。我们首先介绍两个函数。

自相关函数ACF(autocorrelation function)
自相关函数ACF描述的是时间序列观测值与其过去的观测值之间的线性相关性。计算公式如下:

 

 

其中k代表滞后期数,如果k=2,则代表yt和yt-2

偏自相关函数PACF(partial autocorrelation function)
偏自相关函数PACF描述的是在给定中间观测值的条件下,时间序列观测值预期过去的观测值之间的线性相关性。

举个简单的例子,假设k=3,那么我们描述的是yt和yt-3之间的相关性,但是这个相关性还受到yt-1和yt-2的影响。PACF剔除了这个影响,而ACF包含这个影响。

拖尾和截尾
拖尾指序列以指数率单调递减或震荡衰减,而截尾指序列从某个时点变得非常小:

 

 

出现以下情况,通常视为(偏)自相关系数d阶截尾:
1)在最初的d阶明显大于2倍标准差范围
2)之后几乎95%的(偏)自相关系数都落在2倍标准差范围以内
3)且由非零自相关系数衰减为在零附*小值波动的过程非常突然

出现以下情况,通常视为(偏)自相关系数拖尾:
1)如果有超过5%的样本(偏)自相关系数都落入2倍标准差范围之外
2)或者是由显著非0的(偏)自相关系数衰减为小值波动的过程比较缓慢或非常连续。

 

 

p,q阶数的确定
根据刚才判定截尾和拖尾的准则,p,q的确定基于如下的规则:

 

 

根据不同的截尾和拖尾的情况,我们可以选择AR模型,也可以选择MA模型,当然也可以选择ARIMA模型。接下来,我们就来画一下我们数据的拖尾和截尾情况:

 1 import statsmodels.api as sm
 2 fig = plt.figure(figsize=(12,8))
 3  
 4 ax1 = fig.add_subplot(211)
 5 fig = sm.graphics.tsa.plot_acf(train, lags=20,ax=ax1)
 6 ax1.xaxis.set_ticks_position('bottom')
 7 fig.tight_layout()
 8  
 9 ax2 = fig.add_subplot(212)
10 fig = sm.graphics.tsa.plot_pacf(train, lags=20, ax=ax2)
11 ax2.xaxis.set_ticks_position('bottom')
12 fig.tight_layout()
13 plt.show()

 

 

结果如下:

 

 

哈哈,咱们这个数据自相关系数4阶拖尾,偏自相关系数2阶截尾,因此可以选择的是AR(2)模型。

4.2 参数估计

通过拖尾和截尾对模型进行定阶的方法,往往具有很强的主观性。回想我们之前在参数预估的时候往往是怎么做的,不就是损失和正则项的加权么?我们这里能不能结合最终的预测误差来确定p,q的阶数呢?在相同的预测误差情况下,根据奥斯卡姆剃刀准则,模型越小是越好的。那么,*衡预测误差和参数个数,我们可以根据信息准则函数法,来确定模型的阶数。预测误差通常用*方误差即残差*方和来表示。

常用的信息准则函数法有下面几种:
AIC准则
AIC准则全称为全称是最小化信息量准则(Akaike Information Criterion),计算公式如下:
AIC = =2 *(模型参数的个数)-2ln(模型的极大似然函数)

BIC准则
AIC准则存在一定的不足之处。当样本容量很大时,在AIC准则中拟合误差提供的信息就要受到样本容量的放大,而参数个数的惩罚因子却和样本容量没关系(一直是2),因此当样本容量很大时,使用AIC准则选择的模型不收敛与真实模型,它通常比真实模型所含的未知参数个数要多。BIC(Bayesian InformationCriterion)贝叶斯信息准则弥补了AIC的不足,计算公式如下:

BIC = ln(n) * (模型中参数的个数) - 2ln(模型的极大似然函数值),n是样本容量

好了,我们通过类似于网格搜索的方式来寻找我们模型最佳的p,q组合吧,这里我们使用BIC进行试验,AIC同理:

 1 #遍历,寻找适宜的参数
 2 import itertools
 3 import numpy as np
 4 import seaborn as sns
 5  
 6 p_min = 0
 7 d_min = 0
 8 q_min = 0
 9 p_max = 5
10 d_max = 0
11 q_max = 5
12  
13 # Initialize a DataFrame to store the results,,以BIC准则
14 results_bic = pd.DataFrame(index=['AR{}'.format(i) for i in range(p_min,p_max+1)],
15                            columns=['MA{}'.format(i) for i in range(q_min,q_max+1)])
16  
17 for p,d,q in itertools.product(range(p_min,p_max+1),
18                                range(d_min,d_max+1),
19                                range(q_min,q_max+1)):
20     if p==0 and d==0 and q==0:
21         results_bic.loc['AR{}'.format(p), 'MA{}'.format(q)] = np.nan
22         continue
23  
24     try:
25         model = sm.tsa.ARIMA(train, order=(p, d, q),
26                                #enforce_stationarity=False,
27                                #enforce_invertibility=False,
28                               )
29         results = model.fit()
30         results_bic.loc['AR{}'.format(p), 'MA{}'.format(q)] = results.bic
31     except:
32         continue
33 results_bic = results_bic[results_bic.columns].astype(float)
34 
35 fig, ax = plt.subplots(figsize=(10, 8))
36 ax = sns.heatmap(results_bic,
37                  mask=results_bic.isnull(),
38                  ax=ax,
39                  annot=True,
40                  fmt='.2f',
41                  )
42 ax.set_title('BIC')
43 plt.show()

 

 

绘制的热力图如下:

 

 

我们上面采用了循环的方式,其实可以用更简单的方法得到p和q的最优值:

1 train_results = sm.tsa.arma_order_select_ic(train, ic=['aic', 'bic'], trend='nc', max_ar=8, max_ma=8)
2  
3 print('AIC', train_results.aic_min_order)
4 print('BIC', train_results.bic_min_order)
 

结果为:

1 AIC (1, 0)
2 BIC (1, 0)

 

 

表明我们应该选择AR(1)模型。

一般来说,BIC准则得到的ARMA模型的阶数较AIC的低。

4.3 模型检验

这里的模型检验主要有两个:
1)检验参数估计的显著性(t检验)
2)检验残差序列的随机性,即残差之间是独立的

残差序列的随机性可以通过自相关函数法来检验,即做残差的自相关函数图:

1 model = sm.tsa.ARIMA(train, order=(1, 0, 0))
2 results = model.fit()
3 resid = results.resid #赋值
4 fig = plt.figure(figsize=(12,8))
5 fig = sm.graphics.tsa.plot_acf(resid.values.squeeze(), lags=40)
6 plt.show()

 

 

结果如下:

 

 

这里很明显的检测是通过的。

4.4 模型预测

预测主要有两个函数,一个是predict函数,一个是forecast函数,predict中进行预测的时间段必须在我们训练ARIMA模型的数据中,forecast则是对训练数据集末尾下一个时间段的值进行预估。

1 model = sm.tsa.ARIMA(sub, order=(1, 0, 0))
2 results = model.fit()
3 predict_sunspots = results.predict(start=str('2014-04'),end=str('2014-05'),dynamic=False)
4 print(predict_sunspots)
5 fig, ax = plt.subplots(figsize=(12, 8))
6 ax = sub.plot(ax=ax)
7 predict_sunspots.plot(ax=ax)
8 plt.show()

 

 

结果如下:

 

 

预估下一个值:

results.forecast()[0]

 

 

参考文献

https://blog.csdn.net/weixin_41988628/article/details/83149849

 

推荐阅读:

算法面试太难?反手就是一波面经

查收一份附带答案的面经!

推荐系统遇上深度学习(二十一)--阶段性回顾

推荐系统遇上深度学习(二十二)--DeepFM升级版XDeepFM模型强势来袭!

推荐系统遇上深度学习(二十三)--大一统信息检索模型IRGAN在推荐领域的应用

 

有关作者:

石晓文,中国人民大学信息学院在读研究生,美团外卖算法实习生

简书ID:石晓文的学习日记(https://www.jianshu.com/u/c5df9e229a67)

天善社区:https://www.hellobi.com/u/58654/articles

腾讯云:https://cloud.tencent.com/developer/user/1622140

开发者头条:https://toutiao.io/u/470599

 

posted @ 2021-08-02 16:54  锦绣良缘  阅读(2795)  评论(0)    收藏  举报