home *** CD-ROM | disk | FTP | other *** search
/ Internet Standards / CD2.mdf / ccitt / 1992 / e / e507.asc < prev    next >
Text File  |  1991-12-30  |  67KB  |  1,137 lines

  1.          All drawings appearing in this Recommendation have been done in Autocad.
  2.          Recommendation E.5071)
  3.                       MODELS FOR FORECASTING INTERNATIONAL TRAFFIC
  4.          1      Introduction
  5.                Econometric and time series  model  development  and  forecasting  requires
  6.          familiarity with methods and  techniques  to  deal  with  a  range  of  different
  7.          situations. Thus, the purpose of this Recommendation is to present  some  of  the
  8.          basic ideas and leave the explanation of the details to the publications cited in
  9.          the reference list. As such, this Recommendation is not intended to be a complete
  10.          guide to econometric and time series modelling and forecasting.
  11.                The Recommendation also gives guidelines for building  various  forecasting
  12.          models:  identification  of  the  model,  inclusion  of  explanatory   variables,
  13.          adjustment for irregularities, estimation of parameters, diagnostic checks, etc.
  14.                In addition the Recommendation describes various methods for evaluation  of
  15.          forecasting models and choice of model.
  16.          2      Building the forecasting model
  17.                This procedure can conveniently be described  as  four  consecutive  steps.
  18.          The first step consists in finding a useful  class  of  models  to  describe  the
  19.          actual situation. Examples of such classes are simple models,  smoothing  models,
  20.          autoregressive models, autoregressive integrated moving average (ARIMA) models or
  21.          econometric models. Before  choosing  the  class  of  models,  the  influence  of
  22.          external variables  should  be  analyzed.  If  special  external  variables  have
  23.          significant impact on the traffic demand,  one  ought  to  include  them  in  the
  24.          forecasting models, provided enough historical data are available.
  25.                The next step is to identify one tentative model in  the  class  of  models
  26.          which have been chosen. If the class is too extensive to be  conveniently  fitted
  27.          directly to data, rough methods for identifying  subclasses  can  be  used.  Such
  28.          methods of model identification employ  data  and  knowledge  of  the  system  to
  29.          suggest an  appropriate  parsimonious  subclass  of  models.  The  identification
  30.          procedure may also, in  some  occasions,  be  used  to  yield  rough  preliminary
  31.          estimates of the parameters in the model. Then the tentative model is  fitted  to
  32.          data by estimating the parameters.  Usually,  maximum  likelihood  estimators  or
  33.          least square estimators are used.
  34.                The next step is to  check  the  model.  This  procedure  is  often  called
  35.          diagnostic checking. The object is to find out how well the model fits  the  data
  36.          and, in case the discrepancy is judged to be too  severe,  to  indicate  possible
  37.          remedies. The outcome of this step may thus be acceptance of the model if the fit
  38.          is acceptable. If on the other hand it is inadequate, it is  an  indication  that
  39.          new tentative models may  in  turn  be  estimated  and  subjected  to  diagnostic
  40.          checking.
  41.                In  Figure  1/E.507  the  steps  in  the  model  building   procedure   are
  42.          illustrated.
  43.                                         Figure 1/E.507 - CCITT 64250
  44.  
  45.          3      Various forecasting models
  46.                The objective of S 3 is to give a brief  overview  of  the  most  important
  47.          forecasting models. In the GAS 10 Manual on planning data and forecasting methods
  48.          [5], a more detailed description of the models is given.
  49.          3.1    Curve fitting models
  50.                In curve fitting models the traffic trend is  extrapolated  by  calculating
  51.          the values of the parameters of some function that is  expected  to  characterize
  52.          the growth of international traffic over time. The numerical calculations of some
  53.          curve fitting models can be performed by using the least squares method.
  54.                The following  are  examples  of  common  curve  fitting  models  used  for
  55.          forecasting international traffic:
  56.                Linear:                                                       Yt = a  +  bt
  57.          (3-1)
  58.                Parabolic:                                              Yt = a                                                      +  bt  +  ct2
  59.          (3-2)
  60.                Exponential:                                                                                                          Yt  =  aebt
  61.          (3-3)
  62.                Logistic: Yt = eq \f( M,1 + aebt)                                    (3-4)
  63.  
  64.          1) The old Recommendation E.506 which  appeared  in  the  Red  Book  was  split  into  two
  65.            Recommendations, revised E.506 and new E.507, and considerable new material  was  added
  66.            to both.
  67.  
  68.  
  69.  
  70.                                                         Fascicle II.3 - Rec. E.507   PAGE1
  71.  
  72.                Gompertz: Yt = M(a)bt                                                                                (3-5)
  73.          where
  74.                Yt is the traffic at time t,
  75.                a, b, c are parameters,
  76.                M is a parameter describing the saturation level.
  77.                The various trend curves are shown in Figures 2/E.507 and 3/E.507.
  78.                The logistic and Gompertz curves differ  from  the  linear,  parabolic  and
  79.          exponential curves by having saturation or ceiling level. For further  study  see
  80.          [10].
  81.                                         FIGURE 2/E.507 - T0200660-87
  82.  
  83.                                         FIGURE 3/E.507 - T0200670-87
  84.  
  85.          3.2    Smoothing models
  86.                By using a smooth process in curve fitting, it  is  possible  to  calculate
  87.          the parameters of the models to fit current data very well  but  not  necessarily
  88.          the data obtained from the distant past.
  89.                The best known smoothing process is that of the moving average. The  degree
  90.          of smoothing is controlled by the number of most recent observations included  in
  91.          the average. All observations included in the average have the same weight.
  92.                In addition to  moving  average  models,  there  exists  another  group  of
  93.          smoothing models based on weighting the observations. The most common models are:
  94.                -   simple exponential smoothing,
  95.                -   double exponential smoothing,
  96.                -   discounted regression,
  97.                -   Holt's method, and
  98.                -   Holt-Winters' seasonal models.
  99.                For example, in the method of exponential smoothing  the  weight  given  to
  100.          previous observations decreases geometrically with age according to the following
  101.          equation:
  102.                       eq \o(\s\up4(^),mt) = (1 - a)Yt + aeq \o(\s\up4(^),m)t-1             (3-6)
  103.          where:
  104.                Yt is the measured traffic at time t,
  105.                mt is the estimated level at time t, and
  106.                a is the discount factor [and (1 - a) is the smoothing parameter].
  107.                The impact of past observations on  the  forecasts  is  controlled  by  the
  108.          magnitude of the discount factor.
  109.                Use  of  smoothing  models  is  especially   appropriate   for   short-term
  110.          forecasts. For further studies see [1], [5] and [9].
  111.          3.3    Autoregressive models
  112.                If the traffic demand,  Xt,  at  time  t  can  be  expressed  as  a  linear
  113.          combination of earlier equidistant observations of the past traffic  demand,  the
  114.          process  is  an  autoregressive  process.  Then  the  model  is  defined  by  the
  115.          expression:
  116.                                Xt = F1Xt-1 + F2Xt-2 + . . . + FpXt-p + at                              (3-7)
  117.          where
  118.                at is white noise at time t;
  119.                Fk, k = 1, . . . p are the autoregressive parameters.
  120.          The model is denoted by AR(p) since the order of the model is p.
  121.                By use of regression analysis  the  estimates  of  the  parameters  can  be
  122.          found. Because of common trends the exogenous variables (Xt-1, Xt-2, . . . Xt-p) 
  123.          usually strongly correlated. Hence the parameter estimates  will  be  correlated.
  124.          Furthermore, significance tests  of  the  estimates  are  somewhat  difficult  to
  125.          perform.
  126.                Another  possibility  is   to   compute   the   empirical   autocorrelation
  127.          coefficients and then use the Yule-Walker equations to  estimate  the  parameters
  128.          [Fk]. This procedure can be performed when the time series [Xt]  are  stationary.
  129.          If, on the other hand, the time series are non stationary, the series  can  often
  130.          be transformed to stationarity e.g., by differencing the series.  The  estimation
  131.          procedure is given in Annex A, S A.1.
  132.          3.4    Autoregressive integrated moving average (ARIMA) models
  133.                An extention of the  class  of  autoregressive  models  which  include  the
  134.          moving average models  is  called  autoregressive  moving  average  models  (ARMA
  135.          models). A moving average model of order q is given by:
  136.                                 Xt = at - q1at-1 - q2at-2 . . . - qqat-q                               (3-8)
  137.  
  138.  
  139.  
  140.  
  141.          PAGE20  Fascicle II.3 - Rec. E.507
  142.  
  143.          where
  144.                at is white noise at time t;
  145.                [qk] are the moving average parameters.
  146.               Assuming that the  white  noise  term  in  the  autoregressive
  147.          models in S 3.3 is described by a moving average model, one obtains
  148.          the so-called ARMA (p, q) model:
  149.                       Xt = F1Xt-1 + F2Xt-2 + . . . + FpXt-p + at - q1at-1 - q2at-2 . . . - qqat-q(3- 
  150.          9)
  151.                The ARMA model describes a stationary time series. If the  time  series  is
  152.          non-stationary, it is necessary to difference the series. This is done as follow:
  153.                Let Yt be the time series and B the backwards shift operator, then
  154.                                           Xt = (1 - B)dYt                            (3-10)
  155.          where
  156.                d is the number of differences to have stationarity.
  157.                The new model ARIMA (p, d, q) is found by inserting  equation  (3-10)  into
  158.          equation (3-9).
  159.                The method for analyzing such time series was developed by  G.  E.  P.  Box
  160.          and G. M. Jenkins [3]. To analyze and forecast such time  series  it  is  usually
  161.          necessary to use a time series program package.
  162.                As indicated in Figure 1/E.507 a tentative model  is  identified.  This  is
  163.          carried  out  by  determination  of  necessary  transformations  and  number   of
  164.          autoregressive and moving average parameters. The identification is based on  the
  165.          structure of the autocorrelations and partial autocorrelations.
  166.                The next step as indicated in Figure 1/E.507 is the  estimation  procedure.
  167.          The maximum likelihood estimates are used. Unfortunately, it is difficult to find
  168.          these estimates  because  of  the  necessity  to  solve  a  nonlinear  system  of
  169.          equations. For practical purposes, a computer  program  is  necessary  for  these
  170.          calculations. The forecasting model is based on equation (3-9) and the process of
  171.          making forecasts l time units ahead is shown in S A.2.
  172.                The forecasting models described so far are univariate forecasting  models.
  173.          It is also possible to introduce explanatory variables. In this case  the  system
  174.          will be described by a transfer function model. The  methods  for  analyzing  the
  175.          time series in a transfer function  model  are  rather  similar  to  the  methods
  176.          described above.
  177.                Detailed descriptions of ARIMA models are given  in  [1],  [2],  [3],  [5],
  178.          [11], [15] and [17].
  179.          3.5    State space models with Kalman Filtering
  180.                State space models are a way to represent discrete-time  process  by  means
  181.          of difference equations. The state space modelling approach allows the conversion
  182.          of any general linear model into a form suitable  for  recursive  estimation  and
  183.          forecasting. A more detailed description of ARIMA state space models can be found
  184.          in [1].
  185.                For a stochastic process such a representation  may  be  of  the  following
  186.          form:
  187.                                         Xt+1 = FXt + Zt + wt                         (3-11)
  188.          and
  189.                                            Yt = HXt + nt                             (3-12)
  190.          where
  191.                Xt is an s-vector of state variables in period t,
  192.                Zt is an s-vector of deterministic events,
  193.                F is an sxs transition matrix that may, in general, depend on t,
  194.                wt is an s-vector of random modelling errors,
  195.                Yt is a d-vector of measurements in period t,
  196.                H is a dxs matrix called the observation matrix, and
  197.                nt is a d-vector of measurement errors.
  198.                Both wt in equation (3-11) and nt in equation (3-12)  are  additive  random
  199.          sequences with known statistics. The expected value of each sequence is the  zero
  200.          vector and wt and nt satisfy the conditions:
  201.                           E eq \b\bc\[(wtw\s(T,j)) = Qt dtj for all t, j,            (3-13)
  202.                           E eq \b\bc\[(ntn\s(T,j)) = Rt dtj for all t, j,
  203.          where
  204.                Qt and Rt are nonnegative definite matrices,2)
  205.          and
  206.                dtj is the Kronecker delta.
  207.  
  208.          2) A matrix A is nonnegative definite, if and only if, for all vectors z, zTAz │ 0.
  209.  
  210.  
  211.  
  212.                                                         Fascicle II.3 - Rec. E.507   PAGE1
  213.  
  214.          Qt is the covariance matrix of the modelling errors  and  Rt  is  the  covariance
  215.          matrix of  the  measurement  errors;  the  wt  and  the  nt  are  assumed  to  be
  216.          uncorrelated and are referred to as white noise. In other words:
  217.                             E eq \b\bc\[(nt w\s(T,j)) = 0 for all t, j,              (3-14)
  218.          and
  219.                               E eq \b\bc\[(nt X\s(T,0)) = 0 for all t.               (3-15)
  220.          Under the assumptions formulated above, determine Xt,t such that:
  221.                           eq E \b\bc\[((Xt,t - Xt)T(Xt,t - Xt)) = minimum,            (3-16)
  222.          where
  223.                Xt,t is an estimate of the state vector at time t, and
  224.                Xt is the vector of true state variables.
  225.                The Kalman Filtering technique allows the  estimation  of  state  variables
  226.          recursively for on-line applications. This  is  done  in  the  following  manner.
  227.          Assuming that there is no explanatory variable Zt, once a new data point  becomes
  228.          available it is used to update the model:
  229.                                     Xt,t = Xt,t-1 + Kt(Yt - HXt,t-1)                     (3-17)
  230.          where
  231.                Kt is the Kalman Gain matrix that can be computed recursively [18].
  232.                Intuitively, the gain matrix determines how much relative  weight  will  be
  233.          given to the last observed forecast error to correct it. To create a k-step ahead
  234.          projection the following formula is used:
  235.                                            Xt+k,t = FkXt,t                             (3-18)
  236.          where
  237.                Xt+k,t is an estimate of Xt+k given observations Y1, Y2, . . ., Yt.
  238.                Equations (3-17) and (3-18) show that the Kalman Filtering technique  leads
  239.          to a convenient forecasting procedure that is recursive in nature and provides an
  240.          unbiased, minimum variance estimate of the discrete time process of interest.
  241.                For further studies see [4], [5], [16], [18], [19] and [22].
  242.                The Kalman Filtering  works  well  when  the  data  under  examination  are
  243.          seasonal. The seasonal traffic load data can be represented by  a  periodic  time
  244.          series. In this way, a seasonal Kalman Filter can be obtained by superimposing  a
  245.          linear growth model with a seasonal model. For  further  discussion  of  seasonal
  246.          Kalman Filter techniques see [6] and [20].
  247.          3.6    Regression models
  248.                The equations (3-1)  and  (3-2)  are  typical  regression  models.  In  the
  249.          equations the traffic, Yt, is the dependent (or explanatory) variable, while time
  250.          t is the independent variable.
  251.                A regression model describes a linear relation between  the  dependent  and
  252.          the independent variables. Given certain assumptions ordinary least squares (OLS)
  253.          can be used to estimate the parameters.
  254.                A model with several independent variables is called a multiple  regression
  255.          model. The model is given by:
  256.                             Yt = ▀0 + ▀1X1t + ▀2X2t + . . . + ▀kXkt + ut             (3-19)
  257.          where
  258.                Yt is the traffic at time t,
  259.                ▀i, i = 0, 1, . . ., k are the parameters,
  260.                Xit, ie = 1, 2, . . ., k is the value of the independent variables at  time
  261.          t,
  262.                ut is the error term at time t.
  263.                Independent or explanatory variables which can be used  in  the  regression
  264.          model are, for instance, tariffs, exports, imports, degree of  automation.  Other
  265.          explanatory  variables  are  given  in  S  2  "Base  data  for  forecasting"   in
  266.          Recommendation E.506.
  267.                Detailed descriptions of regression models are  given  in  [1],  [5],  [7],
  268.          [15] and [23].
  269.          3.7    Econometric models
  270.                Econometric models involve equations which relate a variable which we  wish
  271.          to forecast (the dependent or endogenous variable) to a number of  socio-economic
  272.          variables  (called  independent  or  explanatory  variables).  The  form  of  the
  273.          equations should reflect an expected casual relationship between  the  variables.
  274.          Given an assumed model form, historical or  cross  sectional  data  are  used  to
  275.          estimate coefficients in the equation. Assuming  the  model  remains  valid  over
  276.          time, estimates of future values of the independent variables can be used to give
  277.          forecasts of the variables of interest. An example of a typical econometric model
  278.          is given in Annex C.
  279.  
  280.  
  281.  
  282.  
  283.          PAGE20  Fascicle II.3 - Rec. E.507
  284.  
  285.                There is a wide spectrum of possible models and  a  number  of  methods  of
  286.          estimating the coefficients (e.g.,  least  squares,  varying  parameter  methods,
  287.          nonlinear regression, etc.). In many respects the family  of  econometric  models
  288.          available is far more flexible than other models. For example, lagged effects can
  289.          be  incorporated,  observations  weighted,  ARIMA   residual   models   subsumed,
  290.          information from separate sections pooled  and  parameters  allowed  to  vary  in
  291.          econometric models, to mention a few.
  292.                One of the major benefits of building an econometric model to  be  used  in
  293.          forecasting is that the structure or the process that generates the data must  be
  294.          properly identified and appropriate causal paths  must  be  determined.  Explicit
  295.          structure identification makes the source of errors in  the  forecast  easier  to
  296.          identify in econometric models than in other types of models.
  297.                Changes in structures can  be  detected  through  the  use  of  econometric
  298.          models and outliers in  the  historical  data  are  easily  eliminated  or  their
  299.          influence properly weighted. Also, changes in the factors affecting the variables
  300.          in question can  easily  be  incorporated  in  the  forecast  generated  from  an
  301.          econometric model.
  302.                Often, fairly reliable econometric models  may  be  constructed  with  less
  303.          observations than that required for time series models. In  the  case  of  pooled
  304.          regression models,  just  a  few  observations  for  several  cross-sections  are
  305.          sufficient to support a model used for predictions.
  306.                However, care must  be  taken  in  estimating  the  model  to  satisfy  the
  307.          underlying assumptions of the techniques which  are  described  in  many  of  the
  308.          reference works listed at the end of this Recommendation. For example the  number
  309.          of independent variables which can be used is  limited  by  the  amount  of  data
  310.          available to estimate the model. Also, independent variables which are correlated
  311.          to one another should be avoided. Sometimes correlation between the variables can
  312.          be avoided by using differenced or detrended data or  by  transformation  of  the
  313.          variables. For further studies see [8], [12], [13], [14] and [21].
  314.          4      Discontinuities in traffic growth
  315.          4.1    Examples of discontinuities
  316.                It may be difficult to assess in advance the magnitude of a  discontinuity.
  317.          Often the influence of the factors which cause discontinuties is  spread  over  a
  318.          transitional period, and  the  discontinuity  is  not  so  obvious.  Furthermore,
  319.          discontinuities arising, for example,  from  the  introduction  of  international
  320.          subscriber dialling are difficult to identify accurately, because changes in  the
  321.          method of  working  are  usually  associated  with  other  changes  (e.g.  tariff
  322.          reductions).
  323.                An illustration of the bearing of discontinuities on traffic growth can  be
  324.          observed in the graph of Figure 4/E.507.
  325.                Discontinuities representing the doubling - and  even  more  -  of  traffic
  326.          flow are known. It may also be noted that changes could occur in the growth trend
  327.          after discontinuities.
  328.                In short-term forecasts it may  be  desirable  to  use  the  trend  of  the
  329.          traffic between discontinuities, but for long-term forecasts it may be  desirable
  330.          to use a trend estimate which  is  based  on  long-term  observations,  including
  331.          previous discontinuities.
  332.                In addition to random fluctuations due  to  unpredictable  traffic  surges,
  333.          faults, etc., traffic measurements are also subject to  systematic  fluctuations,
  334.          due to daily or weekly traffic flow cycles, influence of time differences, etc.
  335.          4.2    Introduction of explanatory variables
  336.                Identification of e         y      variables      for      an
  337.          econometric  model  is  probably  the  most  difficult  aspect   of
  338.          econometric model building. The explanatory variables  used  in  an
  339.          econometric model identify the main sources  of  influence  on  the
  340.          variable one is concerned with. A list of explanatory variables  is
  341.          given in Recommendation E.506, S 2.
  342.                                         Figure 4/E.507 - CCITT 34721
  343.  
  344.                Economic  theory  is  the  starting  point  for  variable  selection.  More
  345.          specifically, demand theory provides the basic framework for building the general
  346.          model. However, the description of the structure or the  process  generating  the
  347.          data often dictate what variables enter the set  of  explanatory  variables.  For
  348.          instance, technological relationships may need to be incorporated in the model in
  349.          order to appropriately define the structure.
  350.  
  351.  
  352.  
  353.  
  354.                                                         Fascicle II.3 - Rec. E.507   PAGE1
  355.  
  356.                Although there are some criteria used in  selecting  explanatory  variables
  357.          [e.g., eq \x\to(R)2,  Durbin-Watson  (D-W)  statistic,  root  mean  square  error
  358.          (RMSE), ex-post forecast performance, explained in the  references],  statistical
  359.          problems and/or availability of data (either historical or forecasted) limit  the
  360.          set of potential explanatory variables and one  often  has  to  revert  to  proxy
  361.          variables. Unlike pure statistical models, econometric models  admit  explanatory
  362.          variables, not on the basis of statistical  criteria  alone  but,  also,  on  the
  363.          premise that causality is, indeed, present.
  364.                A completely specified  econometric  model  will  capture  turning  points.
  365.          Discontinuities in  the  dependent  variable  will  not  be  present  unless  the
  366.          parameters of  the  model  change  drastically  in  a  very  short  time  period.
  367.          Discontinuities in the growth of  telephone  traffic  are  indications  that  the
  368.          underlying market or technological structure have undergone large changes.
  369.                Sustained changes in the growth of telephone demand can either be  captured
  370.          through varying parameter regression or through the introduction  of  a  variable
  371.          that  appears  to  explain  the  discontinuity  (e.g.,  the  introduction  of  an
  372.          advertising variable if advertising is judged to be the cause of  the  structural
  373.          change). Once-and-for-all, or step-wise discontinuities, cannot be handled by the
  374.          introduction of explanatory changes: dummy variables can resolve this problem.
  375.          4.3    Introduction of dummy variables
  376.                In  econometric  models,  qualitative  variables  are  often  relevant;  to
  377.          mea          impact     of     qualitative     variables,     dummy
  378.          variables are used. The dummy variable technique uses the  value  1
  379.          for the presence of the qualitative attribute that has an impact on
  380.          the  dependent  variable  and  0  for  the  absence  of  the  given
  381.          attribute.
  382.               Thus,   dummy   variables   are   appropriate   to   use    in
  383.          the case where a discontinuity in the dependent variable has  taken
  384.          place. A dummy variable, for example, would take the value of  zero
  385.          during the historical period when calls were operator  handled  and
  386.          one for the period for which direct dial service is available.
  387.               Dummy variables are often used to capture seasonal effects  in
  388.          the dependent variable or when one needs to eliminate the effect of
  389.          an outlier on the parameters of a model, such as a  large  jump  in
  390.          telephone demand due to a postal strike or a sharp decline  due  to
  391.          facility outages associated with severe weather conditions.
  392.               Indiscriminate use of dummy variables  should  be  discouraged
  393.          for two reasons:
  394.                1)  dummy variables tend  to  absorb  all  the  explanatory  power  during
  395.                   discontinuties, and
  396.                2)  they result in a reduction in the degrees of freedom.
  397.          5      Assessing model specification
  398.          5.1    General
  399.                In this section methods for testing the significance of the parameters  and
  400.          also methods for calculating confidence intervals are presented for some  of  the
  401.          forecasting models given in S 3. In particular the methods relating to regression
  402.          analysis and time series analysis will be discussed.
  403.                All  econometric  forecasting  models  presented  here  are  described   as
  404.          regression models. Also the curve fitting models given in S 3.1 can be  described
  405.          as regression models.
  406.                An exponential model given by
  407.                                            Zt = aebt . ut                              (5-1)
  408.          may be transformed to a linear form
  409.                                      ln Zt = ln a + bt + ln ut                        (5-2)
  410.          or
  411.                                         Yt = ▀0 + ▀1Xt + at                           (5-3)
  412.          where
  413.                Yt  = ln Zt
  414.                ▀0  = ln a
  415.                ▀1  = b
  416.                Xt  = t
  417.                at  = ln ut (white noise).
  418.          5.2    Autocorrelation
  419.                A good forecasting model should lead to small autocorrelated residuals.  If
  420.          the residuals are significantly correlated, the estimated parameters and also the
  421.  
  422.  
  423.  
  424.  
  425.          PAGE20  Fascicle II.3 - Rec. E.507
  426.  
  427.        forecasts  may  be  poor.  To  check  whether  the  errors  are  correlated,  the
  428.        autocorrelation function rk, k = 1, 2, . . . is calculated. rk is  the  estimated
  429.        autocorrelation of residuals at lag k. A way to detect autocorrelation among  the
  430.        residuals is to plot the autocorrelation function and to perform a  Durbin-Watson
  431.        test. The Durbin-Watson statistic is:
  432.                     D-W = eq \f(\i\su(t=2,N, ) (et - et-1)2,\i\su(t=1,N, ) e\s(t2)) (5-4)
  433.        where
  434.              et  is the estimated residual at time t,
  435.              N   is the number of observations.
  436.        5.3    Test of significance of the parameters
  437.              One way to evaluate the forecasting model  is  to  analyse  the  impact  of
  438.        different exogenous variables. After estimating the parameters in the  regression
  439.        model, the significance of the parameters has to be tested.
  440.              In the example of an econometric model in Annex C, the estimated values  of
  441.        the parameters are given. Below these values the estimated standard deviation  is
  442.        given in parentheses. As a rule  of  thumb,  the  parameters  are  considered  as
  443.        significant if the absolute value of the estimates exceeds  twice  the  estimated
  444.        standard deviation. A more accurate  way  of  testing  the  significance  of  the
  445.        parameters is to take into account the distributions of their estimators.
  446.              The        e        correlation        coefficient        (or
  447.        coefficient      of      determination)      may      be       used
  448.        as a criterion for the fitting of the equation.
  449.             The multiple correlation coefficient, R2, is given by:
  450.                     eq R2 = \f(\i\su(i=1,N, )(\o(\s\up4(^),Yj) - \x\to(Y))2,\i\su(i=1,N, 
  451.        )(Yi - \x\to(Y))2)                     (5-5)
  452.              If the multiple correlation coefficient  is  close  to  1  the  fitting  is
  453.        satisfactory. However, a high R2 does not imply an accurate forecast.
  454.              In time series analysis, the discussion of the  model  is  carried  out  in
  455.        another way. As pointed out in S 3.4, the number  of  autoregressive  and  moving
  456.        average parameters in an ARIMA model is determined by an identification procedure
  457.        based on  the  structure  of  the  autocorrelation  and  partial  autocorrelation
  458.        function.
  459.              The  estimation  of  the  parameters  and  their  standard  deviations   is
  460.        performed by an iterative nonlinear estimation procedure. Hence, by using a  time
  461.        series analysis  computer  program,  the  estimates  of  the  parameters  can  be
  462.        evaluated by studying the estimated standard deviations in the  same  way  as  in
  463.        regression analysis.
  464.              An overall test of the fitting is based on the statistic
  465.                                   QN-d = eq \i\su(i=1,N, ) ri2                        (5-6)
  466.        where ri is the estimated autocorrelation at  lag  i  and  d  is  the  number  of
  467.        parameters in the model. Wh n  the  model  is  adequate,  QN-d  is  approximately
  468.        chi-square distributed with N - d degrees of freedom. To test  the  fitting,  the
  469.        value QN-d can be compared with fractiles of the chi-square distribution.
  470.        5.4    Validity of exogenous variables
  471.              Econometric forecasting models are based on a set  of  exogenous  variables
  472.        which explain the development of the endogenous variable (the traffic demand). To
  473.        make forecasts of the traffic demand, it is necessary to make forecasts  of  each
  474.        of the exogenous variables. It is very important to point out that  an  exogenous
  475.        variable should not be included in the forecasting model if the prediction of the
  476.        variable is less confident than the prediction of the traffic demand.
  477.              Suppose that the exact development  of  the  exogenous  variable  is  known
  478.        which, for example, is  the  case  for  the  simple  models  where  time  is  the
  479.        explanatory variables. If the model fitting  is  good  and  the  white  noise  is
  480.        normally distributed with expectation equal to zero, it is possible to  calculate
  481.        confidence limits for the forecasts. This is easily done by a computer program.
  482.              On the other hand, the values of most of the explanatory  variables  cannot
  483.        be predicted exactly. The confidence of the prediction will  then  decrease  with
  484.        the number of periods. Hence, the explanatory variables will cause the confidence
  485.        interval of the forecasts to increase with the number of the forecast periods. In
  486.        these situations it is difficult to calculate a confidence  interval  around  the
  487.        forecasted values.
  488.              If the traffic demand can be described by an autoregressive moving  average
  489.        model, no explanatory variables are included in the model. Hence, if there are no
  490.        explanatory variable in the model,  the  confidence  limits  of  the  forecasting
  491.        values can be calculated. This is done by a time series analysis program package.
  492.  
  493.  
  494.  
  495.  
  496.                                                       Fascicle II.3 - Rec. E.507   PAGE1
  497.  
  498.          5.5    Confidence intervals
  499.                Confidence intervals, in the context of  forecasts,  refer  to  statistical
  500.          constructs of forecast bounds or limits of prediction. Because statistical models
  501.          have errors associated with  them,  parameter  estimates  have  some  variability
  502.          associated with their values. In other words, even  if  one  has  identified  the
  503.          correct forecasting model, the influence of endogenous factors will cause  errors
  504.          in the parameter estimates and  the  forecast.  Confidence  intervals  take  into
  505.          account the uncertainty associated with the parameter estimates.
  506.                In causal models, another source of uncertainty  in  the  forecast  of  the
  507.          series under study are the predictions of the explanatory variables. This type of
  508.          uncertainty cannot be handled by confidence intervals  and  is  usually  ignored,
  509.          even though it may be more  significant  than  the  uncertainty  associated  with
  510.          coefficient estimates. Also, uncertainty due to possible outside  shocks  is  not
  511.          reflected in the confidence intervals.
  512.                For a linear, static regression  model,  the  confidence  interval  of  the
  513.          forecast depends on the reliability of the regression coefficients, the  size  of
  514.          the residual variance, and the values  of  the  explanatory  variables.  The  95%
  515.          confidence interval for a forecasted value YN+1 is given by:
  516.                       eq \o(\s\up4(^),Y)N(1) - 2eq \o(\s\up4(^),s) YN+1 eq \o( 
  517.          \s\up4(^),Y)N(1) + 2eq \o(\s\up4(^),s)(5-7)
  518.          where eq \o(\s\up4(^),Y)N(1) is the  forecast  one  step  ahead  and  só  is  the
  519.          standard error of the forecast.
  520.                This says that we expect, with a 95% probability, that the actual value  of
  521.          the series at time N + 1 will fall within the  limits  given  by  the  confidence
  522.          interval, assuming that there are no errors associated with the forecast  of  the
  523.          explanatory variables.
  524.          6      Comparison of alternative forecasting models
  525.          6.1    Diagnostic check - Model evaluation
  526.                Tests and diagnostic checks are important elements in  the  model  building
  527.          procedure. The quality of the model  is  characterized  by  the  residuals.  Good
  528.          forecasting models should lead to small autocorrelated residuals, the variance of
  529.          the residuals should  not  decrease  or  increase  and  the  expectation  of  the
  530.          residuals should be zero or close to zero.  The  precision  of  the  forecast  is
  531.          affected by the size of the residuals which should be small.
  532.                In addition the confidence  limits  of  the  parameter  estimates  and  the
  533.          forecasts should be relatively small. And in the same way, the mean square  error
  534.          should be small compared with results from other models.
  535.          6.2    Forecasts of levels versus forecasts of changes
  536.                Many econometric models are estimated using levels  of  the  dependent  and
  537.          independent variables. Since economic variables move  together  over  time,  high
  538.          coefficients of determination are obtained. The collinearity among the levels  of
  539.          the explanatory variables does not present a problem when a  model  is  used  for
  540.          forecasting purposes alone, given that  the  collinearity  pattern  in  the  past
  541.          continues to  exist  in  the  future.  However,  when  one  attempts  to  measure
  542.          structural coefficients (e.g., price and income elasticities) the collinearity of
  543.          the explanatory variables (known as multicollinearity) renders the results of the
  544.          estimated coefficients unreliable.
  545.                To avoid the multicollinearity problem and generate  benchmark  coefficient
  546.          estimates and forecasts, one may use changes of the variables  (first  difference
  547.          or first log difference which is equivalent to a percent change)  to  estimate  a
  548.          model and forecast from that model. Using changes  of  variables  to  estimate  a
  549.          model tends to remove the effect of multicollinearity and produce  more  reliable
  550.          coefficient estimates by removing the common effect of economic influences on the
  551.          explanatory variables.
  552.                By generating forecasts through levels of and changes  in  the  explanatory
  553.          variables, one may be able to produce a better forecast through a  reconciliation
  554.          process. That is, the models are adjusted so that the two sets of forecasts  give
  555.          equivalent results.
  556.          6.3    Ex-post forecasting
  557.                Ex-post forecasting is the generation of a forecast from a model  estimated
  558.          over a sub-sample of the data beginning with the  first  observation  and  ending
  559.          several periods prior to the last observation.  In  ex-post  forecasting,  actual
  560.          values of the explanatory variables are used to generate the forecast.  Also,  if
  561.          forecasted values of the explanatory variables are used  to  produce  an  ex-post
  562.          forecast, one can then measure the error associated with  incorrectly  forecasted
  563.  
  564.  
  565.  
  566.  
  567.          PAGE20  Fascicle II.3 - Rec. E.507
  568.  
  569.          explanatory variables.
  570.                The  purpose  of  ex-post  forecasting  is  to  evaluate  the   forecasting
  571.          performance of the model by comparing the forecasted values with the  actuals  of
  572.          the period after the end of the sub-sample to the last observation. With  ex-post
  573.          forecasting, one is able to assess forecast accuracy in terms of:
  574.                1)  percent deviations of forecasted values from actual values,
  575.                2)  turning point performance,
  576.                3)  systematic behaviour of deviations.
  577.                Deviations of forecasted values from actual values give a general  idea  of
  578.          the  accuracy  of  the  model.  Systematic  drifts  in  deviations  may   provide
  579.          information for either re-specifying the  model  or  adjusting  the  forecast  to
  580.          account for the drift in deviations. Of equal importance in  evaluating  forecast
  581.          accuracy is turning point performance, that is, how well the  model  is  able  to
  582.          forecast changes in the movement of the dependent  variable.  More  criteria  for
  583.          evaluating forecast accuracy are discussed below.
  584.          6.4    Forecast performance criteria
  585.                A model might  fit  the  historical  data  very  well.  However,  when  the
  586.          forecasts are compared with future data that  are  not  used  for  estimation  of
  587.          parameters, the fit might not be so good.  Hence  comparison  of  forecasts  with
  588.          actual observations may give additional information  about  the  quality  of  the
  589.          model. Suppose we have the time series, Y1, Y2, . . . ., YN, YN+1, . . . ., YN+M.
  590.                The M last observations are removed from the  time  series  and  the  model
  591.          building procedure. The one-step-ahead forecasting error is given by:
  592.                       eN+t = YN+t - eq \o(\s\up4(^),Y)N+t-1(1)    t = 1, 2, . . . , M(6-1)
  593.          where
  594.                eq \o(\s\up4(^),Y)N+t-1(1) is the one-step-ahead forecast.
  595.                Mean error
  596.               The mean error, ME, is defined by
  597.                                 ME = eq \f(1,M) \i\su(t=1,M, )eN+t                    (6-2)
  598.                ME is  a  criterium  for  forecast  bias.  Since  the  expectation  of  the
  599.          residuals should be zero, a large deviation  from  zero  indicates  bias  in  the
  600.          forecasts.
  601.                Mean percent error
  602.               The mean percent error, MPE, is defined by
  603.                          MPE = eq \f(100,M) \i\su(t=1,M, ) \f( en+t, YN+t)            (6-3)
  604.                This  statistic  also  indicates  possible  bias  in  the  forecasts.   The
  605.          criterium measures percentage deviation in the bias. It is not recommended to use
  606.          MPE when the observations are small.
  607.  
  608.  
  609.  
  610.  
  611.  
  612.  
  613.  
  614.  
  615.  
  616.  
  617.  
  618.  
  619.  
  620.  
  621.  
  622.  
  623.  
  624.  
  625.  
  626.  
  627.  
  628.  
  629.  
  630.  
  631.  
  632.  
  633.  
  634.  
  635.  
  636.  
  637.  
  638.                                                         Fascicle II.3 - Rec. E.507   PAGE1
  639.  
  640.                Root mean square error
  641.               The root mean square error, RMSE, of the forecast  is  defined
  642.          as
  643.                       RMSE = eq \b\bc\[(\f(1,M) \i\su(t=1,M, )e\s(2,N+t))\s\up12(1/2) (6-4)
  644.                RMSE is the most commonly used measure for forecasting precision.
  645.                Mean absolute error
  646.               The mean absolute error, MAE, is given by
  647.                            MAE = eq \f(1,M) \i\su(t=1,M, ) \x\le\ri(eN+t)             (6-5)
  648.                Theil's inequality coefficient
  649.               Theil's inequality coefficient is defined as follows:
  650.                       U = eq \b\bc\[(\i\su(t=1,M, ) \f(e\s(2,N+t),Y\s(2,N+t)))\s\up20(1/2)( 
  651.          6-6)
  652.                Theil's U is preferred as a measure of forecast accuracy because the  error
  653.          between forecasted and actual values can be broken down to errors due to:
  654.                1)  central tendency,
  655.                2)  unequal variation between predicted and realized changes, and
  656.                3)  incomplete covariation of predicted and actual changes.
  657.                This decomposition of prediction errors can be used to adjust the model  so
  658.          that the accuracy of the model can be improved.
  659.                Another quality that  a  forecasting  model  must  possess  is  ability  to
  660.          capture turning points. That is, a forecast must be able to change  direction  in
  661.          the same time period that the actual series under study changes direction.  If  a
  662.          model is estimated over a long period of  time  which  contains  several  turning
  663.          points, ex-post forecast analysis can generally detect  a  model's  inability  to
  664.          trace closely actuals that display turning points.
  665.          7      Choice of forecasting model
  666.          7.1    Forecasting performance
  667.                Although the choice of  a  forecasting  model  is  usually  guided  by  its
  668.          forecasting performance, other considerations must receive attention.  Thus,  the
  669.          length of the forecast period, the functional form, and the forecast accuracy  of
  670.          the explanatory variables of an econometric model must be considered.
  671.                The length of the forecast period affects the decision to use one  type  of
  672.          a model versus another, along with historical data limitations and the purpose of
  673.          the forecasting model. For instance, ARIMA models may be appropriate  forecasting
  674.          models for short-term forecasts when stability is not an issue,  when  sufficient
  675.          historical data are available, and when causality is not of interest. Also,  when
  676.          the structure that generates the data is difficult to identify, one has no choice
  677.          but to use a forecasting model which is based on historical data of the  variable
  678.          of interest.
  679.                The functional form of the model must also be considered in  a  forecasting
  680.          model. While it  is  true  that  a  more  complex  model  may  reduce  the  model
  681.          specification error, it is also true  that  it  will,  in  general,  considerably
  682.          increase the effect of data errors. The model form should be chosen to  recognize
  683.          the trade-off between these sources of error.
  684.                Availability of forecasts for explanatory variables and  their  reliability
  685.          record is another issue affecting the choice of a forecasting model.  A  superior
  686.          model using explanatory variables which may not be forecasted accurately  can  be
  687.          inferior  to  an  average  model  whose  explanatory  variables  are   forecasted
  688.          accurately.
  689.                When market stability is an issue,  econometric  models  which  can  handle
  690.          structural changes should be used to forecast.  When  causality  matters,  simple
  691.          models or ARIMA models cannot be used as forecasting tools. Nor can they be  used
  692.          when insufficient historical data exist. Finally, when the purpose of  the  model
  693.          is to forecast the effects associated with changes in the factors that  influence
  694.          the variable in question, time series models may not  be  appropriate  (with  the
  695.          exception, of course, of transfer function and multiple time series models).
  696.          7.2    Length of forecast period
  697.                For normal extensions of switching equipment and additions of  circuits,  a
  698.          forecast period of about six years  is  necessary.  However,  a  longer  forecast
  699.          period may be necessary for the planning of  new  cables  or  other  transmission
  700.          media or for  major  plant  installations.  Estimates  in  the  long  term  would
  701.          necessarily be  less  accurate  than  short-term  forecasts  but  that  would  be
  702.          acceptable.
  703.                In forecasting with a statistical model, the length of the forecast  period
  704.          is entirely determined by:
  705.  
  706.  
  707.  
  708.  
  709.          PAGE20  Fascicle II.3 - Rec. E.507
  710.  
  711.                a)  the historical data available,
  712.                b)  the purpose or use of the forecast,
  713.                c)  the market structure that generates the data,
  714.                d)  the forecasting model used,
  715.                e)  the frequency of the data.
  716.                The historical data available depends upon the period  over  which  it  has
  717.          been collected and the frequency of collection (or the length of the period  over
  718.          which data is aggregated). A small historical data base can only support a  short
  719.          prediction interval. For example, with 10 or 20 observations a model can be  used
  720.          to forecast 4-5 periods past the sample (i.e. into  the  future).  On  the  other
  721.          hand, with 150-200 observations, potentially reliable forecasts can  be  obtained
  722.          for 30 to 50 periods past the sample - other things being equal.
  723.                Certainly, the purpose of the forecast  affects  the  number  of  predicted
  724.          periods. Long range facility planning requires forecasts extending 15-20 or  more
  725.          years into the future. Rate change evaluations may only require forecasts for 2-3
  726.          years. Alteration of routing arrangements could only require forecasts  extending
  727.          a few months past the sample.
  728.                Stability of a market, or lack thereof,  also  affect  the  length  of  the
  729.          forecast period. With a stable market structure one could conceivably extend  the
  730.          forecast period to equal the historical period. However, a volatile  market  does
  731.          not afford the same luxury to  the  forecaster;  the  forecast  period  can  only
  732.          consist of a few periods into the future.
  733.                The forecasting models used to generate  forecasts  do,  by  their  nature,
  734.          influence the decision on how far into the future one  can  reasonably  forecast.
  735.          Structural models tend to perform better than other models in the long run, while
  736.          for short-run predictions all models seem to perform equally well.
  737.                It should be  noted  that  while  the  purpose  of  the  forecast  and  the
  738.          forecasting model affect the length of the forecast, the number of periods to  be
  739.          forecasted play a crucial role in the choice of the forecasting model and the use
  740.          to which a forecast is put.
  741.                                                    ANNEX A
  742.                                      (to Recommendation E.507)
  743.                         Description of forecasting procedures
  744.          A.1    Estimation of autoregressive parameters
  745.                The empirical autocorrelation at lag k is given by:
  746.                                          rk = eq \f( vk,v0)                            (A-1)
  747.          where
  748.                       vk = eq \f( 1, N - 1) N-kt = 1 (Xt - \x\to(X)) (Xt+k - \x\to(X)) (A-2)
  749.          and
  750.                            eq \x\to(X) = eq \f(1,N)  \i\su(t=1,N, ) Xt                (A-3)
  751.          N being the total number of observations.
  752.                The relation between [rk] and the estimates [eq \o(\s\up4(^),F)k]  of  [Fk]
  753.          is given by the Yule-Walker equations:
  754.                       eq \a\al(r1 = \o(\s\up4(^),F)1 + \o(\s\up4(^),F)2r1 + . . . + 
  755.          \o(\s\up4(^),F)prp-1 ,r2 = \o(\s\up4(^),F)1r1 + \o(\s\up4(^),F)2r2 . . . 
  756.          \o(\s\up4(^),F)prp-2,.,.,.,rp = \o(\s\up4(^),F)1rp-1 + \o(\s\up4(^),F)2rp-2 + . . . + 
  757.          \o(\s\up4(^),F)p)                     (A-4)
  758.                Hence the estimators [eq \o(\s\up4(^),F)k] can be  found  by  solving  this
  759.          system of equations.
  760.                For computations, an alternative to directly solving the equations  is  the
  761.          following recursive procedure. Let 
  762.          [eq \o(\s\up4(^),F)k, j]j be estimators of the parameters at lag j = 1, 2, . . .,
  763.          given  that  the  total  number  of  parameters  are  k.   The   estimators   [eq
  764.          \o(\s\up4(^),F)k+1, j]j are then found by
  765.                       eq \o(\s\up4(^),F)k+1, k+1 = \f(rk+1 \i\su(j=1,k, ) \o(\s\up4(^),F)k;j r 
  766.          k+1-j,1 - \i\su(j=1,k, ) \o(\s\up4(^),F)k;j rj)                                  (A-5)
  767.                       eq \o(\s\up4(^),F)k+1, j = \o(\s\up4(^),F)kj - \o(\s\up4(^),F)k+1, k+1 
  768.          \o(\s\up4(^),F)k,k-j+1                j = 1, 2, . . ., k                       (A-6)
  769.                Defining eq \o(\s\up4(^),F)p, j = \o(\s\up4(^),F)j, j = 1, 2, . . ., p,    
  770.          forecast of the traffic demand at time t+1 is expressed by:
  771.                       eq Xt+1 = \o(\s\up4(^),F)1Xt + \o(\s\up4(^),F)2Xt-1 + . . . + 
  772.          \o(\s\up4(^),F)pXt-p                                (A-7)
  773.  
  774.  
  775.  
  776.  
  777.  
  778.  
  779.  
  780.                                                         Fascicle II.3 - Rec. E.507   PAGE1
  781.  
  782.                  A.2    Forecasting with ARIMA models
  783.                 The forecast l time units ahead is given by:
  784.                        eq \a\ac(\o(\s\up4(^),X)t(l) = \o(\s\up4(^),F)1 [Xt+l-1] + 
  785.           \o(\s\up4(^),F)2 [Xt+l-2] ,+ . . . + \o(\s\up4(^),F)p[Xt+l-p], + [at+l] - 
  786.           \o(\s\up4(^),q)1 [at+l-1],- \o(\s\up4(^),q)2[at+l-2] - . . . - \o(\s\up4(^),q)q[at+l-q])    
  787.           (A-8)
  788.           where  eq \o(\s\up4(^),[X)j]= eq \a\al(\o(\s\up4(^),X)t(j -t)        if j > t,Xj                 
  789.           if j ú t)                              (A-9)
  790.                 [aj] = eq \a\al(0                  if j > t ,Xj - \o(\s\up4(^),X)j       if 
  791.           j ú t)        (A-10)
  792.           which means that [Xj] is defined as a forecast when j > t  and  otherwise  as  an
  793.           actual observation and that [aj] is defined as 0 when j > t since white noise has
  794.           expectation 0. If the observations are known (j ú t), then [aj] is equal  to  the
  795.           residual.
  796.                                                     ANNEX B
  797.                                       (to Recommendation E.507)
  798.                          Kalman Filter for a linear trend model
  799.                 To model telephone traffic, it is assumed that there are  no  deterministic
  800.           changes in the demand pattern. This situation can  be  modelled  by  setting  the
  801.           deterministic component Zt to zero. Then the general state space model is:
  802.                                             Xt+1 = Xt + wt                             (B-1)
  803.                                              Yt = HXt + nt
  804.           where
  805.                 Xt  is an s-vector of state variables in period t,
  806.                 Yt  is a vector of measurements in year t,
  807.                 j   is an sxs transition matrix that may, in general, depend on t,
  808.           and
  809.                 wt  is an s-vector of random modelling errors,
  810.                 nt  is the measurement error in year t.
  811.                 For modelling telephone traffic demand, adapt a simple two-state,  one-data
  812.           variable model defined by:
  813.                        Xt+1 = eq \b\bc\[(\a(xt+1,\o(\s\up4(╖),x)t+1)) = eq \b\bc\[(\a(1 
  814.           0,1 1))   eq \b\bc\[(\a(xt,\o(\s\up4(╖),x)t)) + eq 
  815.           \b\bc\[(\a(wt,\o(\s\up4(╖),w)t))      (B-2)
  816.           and
  817.                                              yt = xt + nt                              (B-3)
  818.           where
  819.                 xt  is the true load in year t,
  820.                 eq \o(\s\up4(╖),xt)     is the true incremental growth in year t,
  821.                 yt  is the measured load in year t,
  822.                 nt  is the measurement error in year t.
  823.           Thus, in our model
  824.                              j = eq \b\bc\[(\a(1 1,0 1)) ,    and H = 1.               (B-4)
  825.           The one-step-ahead projection is written as follows:
  826.                        Xt+1,t = eq \b\bc\[(\a(xt+1.t,\o(\s\up4(╖),x)1.t)) = eq \b\bc\[(\a(1 1,0 
  827.           1))     eq \b\bc\[(\a(xt.t,\o(\s\up4(╖),x)t.t)) = eq \b\bc\[(\a(1 0,1 1))   eq 
  828.           \b\bc\[(\a(xt.t-1 + at(yt - xt.t-1),\o(\s\up4(╖),x)t.t-1 + ▀t(yt - xt\,t-1)))      (B-5)
  829.           where
  830.                 Xt+1,t is the projection of the s   e  variable  in  period  t  +  1  given
  831.           observations through year t.
  832.                 The at and ▀t  coefficients  are  the  Kalman  gain  matrices  in  year  t.
  833.           Rewriting the above equation yields:
  834.                                        xt,t = (1-at)xt,t-1 + atyt                        (B-6)
  835.           and
  836.                        eq \o(\s\up4(╖),x)t,t = (1-▀t)eq \o(\s\up4(╖),xt,t - 1) + ▀t(yt - 
  837.           xt-1,t-1) (B-7)
  838.                 The Kalman Filter creates  a  linear  trend  for  each  time  series  being
  839.           forecast based on the current observation or measurement of  traffic  demand  and
  840.           the previous year's forecast of  that  demand.  The  observation  and  forecasted
  841.           traffic load are combined to produce a smoothed  load  that  corresponds  to  the
  842.           level of the process, and a smoothed growth increment. The Kalman gain values  at
  843.           and ▀t can be either fixed or adaptive. In [16] Moreland presents  a  method  for
  844.           selecting fixed, robust parameters that provide adequate performance  independent
  845.           of system noise, measurement error, and initial conditions. For  further  details
  846.           on the proper selection of these parameters see [6], [20] and [22].
  847.  
  848.  
  849.  
  850.  
  851.           PAGE20  Fascicle II.3 - Rec. E.507
  852.  
  853.                                                     ANNEX C
  854.                                       (to Recommendation E.507)
  855.                                    Example of an econometric model
  856.                 To illustrate the workings of an econometric  model,  we  have  chosen  the
  857.           model of United States billed minutes to Brazil. This model  was  selected  among
  858.           alternative models for three reasons:
  859.                  a)  to demonstrate the introduction of explanatory variables,
  860.                  b)  to point out difficulties associated with models  used  for  both  the
  861.                      estimation of the structure and forecasting purposes, and
  862.                  c)  to show how transformations may affect the results.
  863.                 The demand of United States billed minutes to Brazil (MIN) is estimated  by
  864.           a log-linear equation which includes United  States  billed  messages  to  Brazil
  865.           (MSG), a real telephone price index (RPI), United States personal income in  1972
  866.           prices (YP72), and real bilateral trade between  the  United  States  and  Brazil
  867.           (RTR) as explanatory variables. This model is represented as:
  868.                        ln(MIN)t = ▀0 + ▀1 ln(MSG)t + ▀2 ln(RPI)t + ▀3 ln(YP72)t + ▀4 
  869.           ln(RTR)t + ut (C-1)
  870.           where ut is the error term of the regression and where, ▀1 > 0, ▀2 < 0,  ▀3  >  0
  871.           and ▀4 > 0 are expected values.
  872.                 Using ridge regression to deal with severe multicollinearity  problems,  we
  873.           estimate the equation over the 1971 : 1 (i.e. first quarter of 1971) to 1979 :  4
  874.           interval and obtain the following results:
  875.                        ln(MIN)t = -3.489 + (0.619) ln(MSG)t - (0.447) ln(RPI)t + (1.166) 
  876.           ln(YP72)t + (0.281) ln(RTR)t
  877.                        In(MIN)t = -3.489 + (0.035) ln(MSG)t - (0.095) ln(RPI)t + (0.269) 
  878.           ln(YP72)t + (0.084)                   (C-2)
  879.                        eq \x\to(R)2 = 0.985, SER = 0.083, D-W = 0.922, k = 0.10       (C-3)
  880.           where eq \x\to(R)2 is the adjusted  coefficient  of  determination,  SER  is  the
  881.           standard error of the regression, D-W is the Durbin-Watson statistic,  and  k  is
  882.           the ridge regression constant. The values in parentheses under the  equation  are
  883.           the estimated standard deviation of the estimated parameters eq \o(\s\up4(^),▀)1,
  884.           eq \o(\s\up4(^),▀)2, eq \o(\s\up4(^),▀)3, eq \o(\s\up4(^),▀)4.
  885.                 The introduction of messages as an explanatory variable in this  model  was
  886.           necessitated by the fact that since the mid-seventies  transmission  quality  has
  887.           improved and completion rates have risen while, at  the  same  time,  the  strong
  888.           growth in this market has begun to dissipate. Also, the  growth  rates  for  some
  889.           periods could not have been explained by rate activity on  either  side  or  real
  890.           United States personal income. The behaviour  of  the  message  variable  in  the
  891.           minute equation was able to account for all these factors.
  892.                 Because the model serves a dual purpose - namely, structure estimation  and
  893.           forecasting - at least one more variable is introduced than if the model were  to
  894.           be  used  for  forecasting  purposes  alone.  The  introduction   of   additional
  895.           explanatory  variables  results  in  severe  multicollinearity  and  necessitates
  896.           employing ridge regression  which  lowers  eq  \x\to(R)2  and  the  Durbin-Watson
  897.           statistic. Consequently, the predictive power of the model is reduced somewhat.
  898.                 The effect of transforming the variables  of  a  model  are  shown  in  the
  899.           ex-post forecast analysis performed on the model of United States billed  minutes
  900.           to Brazil. The deviations using levels of the variables are larger than those  of
  901.           the logarithms of the variables which were used  to  obtain  a  better  fit  (the
  902.           estimated RMSE for the log-linear regression model is 0.119  827).  The  forecast
  903.           results in level and logarithmic form are shown in Table C-1/E.507.
  904.                                                 TABLE C-1/E.507
  905.                                   Logarithms                              Levels
  906.                         Forecast     Actual        %         Forecast       Actual     % deviation
  907.                                                deviation  
  908.             1980: 1     14.858     14.938     -0.540     2 836 269     3 073 697      - 7.725
  909.            2             14.842     14.972     -0.872     2 791 250   
  910.  
  911.  
  912.  
  913.  
  914.  
  915.  
  916.  
  917.  
  918.  
  919.  
  920.  
  921.  
  922.                                                          Fascicle II.3 - Rec. E.507   PAGE1
  923.  
  924.                                                                           3 180 334      -12.234
  925.            3             14.916     15.111     -1.296     3 005 637     3 654 092      -17.746
  926.            4             14.959     15.077     -0.778     3 137 698     3 529 016      -11.089
  927.             1981: 1    15.022      15.102      -0.535      3 341 733     3 621 735     - 7.731
  928.            2             14.971     15.141     -1.123     3 175 577     3 762 592      -15.601
  929.            3             15.395     15.261   
  930.  
  931.  
  932.  
  933.  
  934.  
  935.  
  936.  
  937.  
  938.  
  939.  
  940.  
  941.  
  942.  
  943.  
  944.  
  945.  
  946.  
  947.  
  948.  
  949.  
  950.  
  951.  
  952.  
  953.  
  954.  
  955.  
  956.  
  957.  
  958.  
  959.  
  960.  
  961.  
  962.  
  963.  
  964.  
  965.  
  966.  
  967.  
  968.  
  969.  
  970.  
  971.  
  972.  
  973.  
  974.  
  975.  
  976.  
  977.  
  978.  
  979.  
  980.  
  981.  
  982.  
  983.  
  984.  
  985.  
  986.  
  987.  
  988.  
  989.  
  990.  
  991.  
  992.  
  993.           PAGE20  Fascicle II.3 - Rec. E.507
  994.  
  995.                                                -0.879     4 852 478     4 244 178       14.333
  996.          4             15.405     15.302     -0.674     4 901 246     4 421 755      -10.844
  997.           1982: 1     15.365     15.348     -0.110     4 709 065     4 630 238      - 1.702
  998.          2             15.326     15.386     -0.387     4 528 947     4 807 901      - 5.802
  999.                References
  1000.          [1]    ABRAHAM (A.) and LEDOLTER (J.): Statistical  methods  for  forecasting  J.
  1001.                Wiley, New York, 1983.
  1002.          [2]    ANDERSON (O. D.): Time series analysis and  forecasting.  The  Box-Jenkins
  1003.                approach. Butterworth, London, 1976.
  1004.          [3]    BOX (G. E. P.) and JENKINS (G. M.): Time Series Analysis: Forecasting  and
  1005.                Control, Holden-Day, San Francisco, 1976.
  1006.          [4]     BROWN  (R.  G.):  Introduction  to  random  signal  analysis  and  Kalman
  1007.                Filtering. John Wiley & Sons, New York, 1983.
  1008.          [5]    CCITT: Manual planning data and forecasting methods, Vol. I and  II,  ITU,
  1009.                Geneva, 1988.
  1010.          [6]    CHEMOUIL (P.) and GARNIER (B.): An Adaptive Short-Term Traffic Forecasting
  1011.                Procedure Using Kalman Filtering. ITC 11, Tokyo, 1985.
  1012.          [7]    DRAPER (N.) and SMITH (H.): Applied Regression Analysis,  Second  Edition,
  1013.  
  1014.  
  1015.  
  1016.  
  1017.  
  1018.  
  1019.  
  1020.  
  1021.  
  1022.  
  1023.  
  1024.  
  1025.  
  1026.  
  1027.  
  1028.  
  1029.  
  1030.  
  1031.  
  1032.  
  1033.  
  1034.  
  1035.  
  1036.  
  1037.  
  1038.  
  1039.  
  1040.  
  1041.  
  1042.  
  1043.  
  1044.  
  1045.  
  1046.  
  1047.  
  1048.  
  1049.  
  1050.  
  1051.  
  1052.  
  1053.  
  1054.  
  1055.  
  1056.  
  1057.  
  1058.  
  1059.  
  1060.  
  1061.  
  1062.  
  1063.  
  1064.                                                         Fascicle II.3 - Rec. E.507   PAGE1
  1065.  
  1066.          John Wiley & Sons, New York, 1981.
  1067.          [8]    DUTTA (M.): Econometric Methods, South-Western Publishing Co., Cincinnati,
  1068.                1975.
  1069.          [9]    GARDNER (E. S. Jr.): Exponential smoothing the state of  art.  Journal  of
  1070.                forecasting, 4, pp. 1-28, 1985.
  1071.          [10]   GILCHRIST W.: Statistical forecasting. John Wiley & Sons, New York, 1976.
  1072.          [11]   GRANGER (C. W. J.) and NEWBOLD (P.):  Forecasting  Economic  Time  Series,
  1073.                Academic Press, New York, 1977.
  1074.          [12]   JOHNSTON (J.): Econometric Methods, Second Edition, McGraw-Hill, New York,
  1075.                1972.
  1076.          [13]   JUDGE (G. G.) et al.: The Theory and Practice of Econometrics, John  Wiley
  1077.                & Sons, New York, 1980.
  1078.          [14]   KMENTA (J.): Elements of Econometrics, Macmillan Publishing  Company,  New
  1079.                York, 1971.
  1080.          [15]   MAKRIDAKIS (S.), WHEELWRIGHT (S. C.), McGEE (V. .E.): Forecasting  methods
  1081.                and applications Second Edition. John Wiley & Sons, New York, 1983.
  1082.          [16]   MORELAND (J. P.): A robust sequential  projection  algorithm  for  traffic
  1083.                load forecasting. The Bell Technical Journal, Vol. 61, No. 1, 1982.
  1084.          [17]   NELSON (C. R.): Applied Time Series Analysis for  Managerial  Forecasting,
  1085.                Holden-Day, San Francisco, 1973.
  1086.          [18]   PACK (C. D.) and WHITAKER  (B.  A.):  Kalman  Filter  models  for  network
  1087.                forecasting. The Bell Technical Journal, Vol. 61, No. 1, pp. 1-9, 1982.
  1088.          [19]   SORENSON (H. W.): Kalman filtering techniques. Advances in control systems
  1089.                theory and applications. Academic Press, Vol. 3, pp. 219-292, 1966.
  1090.          [20]   SZELAG (C. R.):  A  short-term  forecasting  algorithm  for  trunk  demand
  1091.                servicing. The Bell Technical Journal, Vol. 61, No. 1, pp. 67-96, 1982.
  1092.          [21]   THEIL (H.): Principles of Econometrics, John Wiley & Sons, New York, 1971.
  1093.          [22]   TOME (F. M.) and CUNHA (J. A.): Traffic forecasting  with  a  state  space
  1094.                model. ITC 11, Tokyo, 1985.
  1095.          [23]   WONNACOTT (T. H.) and WONNACOTT (R. J.): Regression. John  Wiley  &  Sons,
  1096.                New York, 1981.
  1097.                Bibliography
  1098.          PINDYCK (R. S.)  and  RUBINFELD  (D.  F.):  Econometric  Models  and  Econometric
  1099.          Forecasts, McGraw-Hill, New York, 1981.
  1100.          SASTRI, (T.): A state space  modelling  approach  for  time  series  forecasting.
  1101.          Management Science, Vol. 31, No. 11, pp. 1451-1470, 1985.
  1102.  
  1103.  
  1104.  
  1105.  
  1106.  
  1107.  
  1108.  
  1109.  
  1110.  
  1111.  
  1112.  
  1113.  
  1114.  
  1115.  
  1116.  
  1117.  
  1118.  
  1119.  
  1120.  
  1121.  
  1122.  
  1123.  
  1124.  
  1125.  
  1126.  
  1127.  
  1128.  
  1129.  
  1130.  
  1131.  
  1132.  
  1133.  
  1134.  
  1135.          PAGE20  Fascicle II.3 - Rec. E.507
  1136.  
  1137.