联合预测法的基本方法
这类分析处理问题的基本方法就是大家所熟知的回归分析方法。
1.简单线性回归分析方法
最简单和应用最广泛的回归分析方法就是那些处理两组变量间线性关系的方法。线性回归模型的主要目标是确定回归直线。回归直线就是这样一条直线:已知数据点到该直线距离的平方和最小,即具有最小二乘解。最小二乘回归直线的模型是:
y=a+bx
式中:
y——预测(因变量);
b——直线斜率;
a——x=0时y的值(即直线截距)。
在应用回归分析时往往要利用一些指示变量。实际中存在一些不可控的变量,它们比所研究的变量提前变动或滞后变动。例如,美联储贴现率的变化可能会影响一些商)IL活动。同样地,春季和夏季新开工住宅项目的增加可能会导致秋季和冬季一些住宅设施、地毯、家具及类似商品需求量的增加。仔细地辨别并分析这些指示变量有助于更为精确地预测未来需求。
为有效地利用一项指数,要具备以下三个条件:
①必须对指示变量和所研究变量两者的变动关系做出合乎逻辑的说明。
⑦指示变量要比因变量提前一段足够的时间变动,以便预测结果具有时效性。
③在两种变量之间存在相当程度的相关性。相关系数表明两种变量的相关程度和方向。其变化范围在-1.00-+1.00。相关系数为+1.00,表明一种变量的变化与另一种变量的变化完全一致;相关系数为-1.00,表明随着一种变量的增加,另一种变量以相同的幅度减少;相关系数趋于零,说明两种变量之间基本不具备线性关系。
2.二次曲线和多元回归分析方法
在处理某些预测问题时,如果不适宜采用线性回归模型,或者预测中所包含的自变量多于一个,那么这时候就不宜再采用简单回归分析模型。
当变量问呈现出非线性关系时,应该引入二次曲线回归分析模型;当预测中所要处理的自变量多于一个时,就需要采用多元回归分析模型。尽管这些模型的分析超出了本书的范围,但读者应该知道在实际预测中经常用到这些模型。求解这些模型时,一般使用计算机而不是笔算。利用多元回归模型进行预测总体上增加数据样本点。每作一次预测,都要权衡增加的额外资用及代价和可能带来的预测精度上的改善。