ARMA模型识别与选择

ARMA模型识别与选择

ARMA模型识别与选择


自相关与偏自相关:ARMA模型的“指纹识别器”

要为一个平稳的非白噪声序列选择合适的ARMA模型,我们需要工具来识别其内在结构。自相关函数(ACF)偏自相关函数(PACF) 就是这样的工具,它们的作用类似于“指纹”,不同的模型会留下独特的ACF和PACF模式。

1. 自相关函数 (ACF – Autocorrelation Function)

核心思想:衡量时间序列 Xt 与自身过去值 Xtk 之间的总体线性相关性。

  • 定义:对于一个平稳时间序列 Xt,间隔 k 期(滞后 k)的自相关系数 ρk 定义为: ρk=Corr(Xt,Xtk) 这表示 XtXtk 之间的简单相关系数。

  • 计算ρk=Cov(Xt,Xtk)/Var(Xt) (由于序列平稳,方差恒定)

  • 样本ACF:在实践中,我们使用样本数据来估计 ρk rk=[Σt=k+1T(XtX̄)(XtkX̄)]/[Σt=1T(XtX̄)2] 其中 T 是样本总量。

  • 关键点

    • ACF衡量的是 XtXtk 之间所有路径的相关性,包括通过中间变量 Xt1,Xt2,...,Xtk+1 的间接影响。

    • 必须用于平稳序列。非平稳序列的ACF会衰减得非常慢,没有参考意义。

    • 对于白噪声序列,理论上所有 ρk (k≥1) 都等于0。

2. 偏自相关函数 (PACF – Partial Autocorrelation Function)

核心思想:在控制了中间变量 Xt1,Xt2,...,Xtk+1 的影响后,衡量 XtXtk 之间的纯粹线性相关性。

  • 定义:偏自相关系数 φkkXtXt1,...,Xtk 进行回归时,Xtk 的回归系数。它度量了在排除中间滞后影响后,XtXtk 的额外关联。

  • 解释:可以理解为,φkkXtXtk 在剔除了 Xt1Xtk+1 的线性影响之后的相关性。

  • 关键点

    • PACF切断了 XtXtk 之间通过所有更短滞后的联系,只衡量它们俩的“直接”关系。

    • 同样必须用于平稳序列


二、 ARMA模型的识别:ACF与PACF的模式

下表总结了不同模型下ACF和PACF的典型理论模式,这是模型识别的基石。

模型ACF (自相关图)PACF (偏自相关图)直观理解
AR(p)
(自回归模型)
拖尾
呈指数衰减、正弦波动或两者混合。衰减速度由模型参数决定。
p阶后截尾
在滞后 p 期之后突然急剧地降至接近零。
ACF拖尾:一个AR过程的影响会持续到未来,导致自相关关系缓慢消失。
PACF截尾:在控制了前 p 期的影响后,更早的滞后项对当前值没有直接解释力。
MA(q)
(移动平均模型)
q阶后截尾
在滞后 q 期之后突然急剧地降至接近零。
拖尾
呈指数衰减或振荡衰减。
ACF截尾:一个MA过程只有 q 期的记忆性,超过 q 期后,过去的冲击与当前值不再相关。
PACF拖尾:由于MA模型可转换为无穷阶的AR模型,所以偏自相关关系是逐渐衰减的。
ARMA(p, q)
(混合模型)
拖尾
q 期后开始呈指数或振荡衰减。
拖尾
p 期后开始呈指数或振荡衰减。
ACF和PACF都表现出拖尾特性,因为模型同时包含了AR和MA的成分。这使得单纯看图识别 pq 变得困难。

重要提示

  • “截尾”:指系数在某一阶后理论上严格为0。在样本图中,表现为超出该阶数后,系数几乎全部落入置信区间内(通常为95%的蓝色虚线带)。

  • “拖尾”:指系数随着滞后阶数增加逐渐衰减至0(指数型或振荡型),不会突然切断。

  • 在实际的样本图中,由于随机性,模式可能没有理论那么完美,需要结合统计检验和模型选择准则。


三、 模型选择:AIC与BIC准则

当通过ACF/PACF初步确定模型范围后,或者面对多个备选模型时,我们需要一个客观的统计标准来选择“最佳”模型。这就是AIC(赤池信息准则)BIC(贝叶斯信息准则)

核心问题:如何在模型的拟合优度复杂度之间取得平衡?更复杂的模型(参数更多)拟合效果更好,但可能过拟合。

  • AIC (Akaike Information Criterion) AIC=2k2ln(L)

    • k:模型中参数的个数(AR阶数p + MA阶数q + 常数项等)。

    • L:模型的极大似然函数值,代表了模型对数据的拟合程度(L越大,拟合越好)。

  • BIC (Bayesian Information Criterion) / SBC (Schwarz Bayesian Criterion) BIC=ln(T)k2ln(L)

    • T:样本观测值的总数。

使用规则

  • 选小原则:在多个候选模型中,选择AIC或BIC值最小的模型。

  • AIC vs. BIC

    • BIC的惩罚项 ln(T)k 比 AIC的 2k 更大(当 T8 时,ln(T)>2)。

    • 因此,BIC对模型复杂度的惩罚更重,倾向于选择更简洁(参数更少)的模型,理论上更具一致性。

    • AIC倾向于选择拟合更好的模型,但可能在样本量较大时选择稍复杂的模型。

实践建议:通常同时计算AIC和BIC,如果两者选出的模型一致,则结果非常稳健。如果不一致,需结合业务背景、模型简洁性和预测效果综合判断,但BIC通常是更保守可靠的选择。


总结:完善的ARMA建模流程

  1. 平稳化:确保时间序列是平稳的(通过差分等方法)。这是所有后续分析的基础。

  2. 白噪声检验:如果是白噪声,则停止分析。

  3. 模型识别

    • 绘制平稳序列的ACF和PACF图

    • 根据图表模式(见上表)初步判断模型类型(AR, MA, ARMA)和可能的阶数 (p,q)

  4. 参数估计:使用极大似然估计(MLE) 等算法(由软件完成)对候选模型的参数进行估计。

  5. 模型诊断

    • 残差检验:检查模型残差是否为白噪声(如Ljung-Box检验)。如果残差是白噪声,说明模型已充分提取信息;否则,需要回到第3步重新调整模型。

    • 离群值检查:观察是否有异常参数估计。

  6. 模型选择:在通过诊断的模型中,比较AIC和BIC,选择信息准则值最小的作为最终模型。

  7. 预测:使用最终模型进行预测。

通过这一套完整的流程,我们就能系统性地、科学地建立并选择一个优秀的时间序列模型。