Prueba de Chow - Prueba de Estabilidad de Regresión

Devuelve el valor p de la prueba de estabilidad de regresión (Ej. si los coeficientes en dos regresiones lineales en diferentes conjuntos de datos son iguales).

 

Sintaxis

ChowTest(Y1, X1, Y2, X2, Mask, Intercept, Return_type)

Y1 es la respuesta o la matriz de datos variable dependiente del primer conjunto de datos (matriz unidimensional de celdas (por ejemplo, filas o columnas)).

X1 es la matriz de variables de datos independiente del primer conjunto de datos, de manera que cada columna representa una variable.

Y2 es la respuesta de la matriz de variable de datos dependiente del segundo conjunto de datos (una matriz unidimensional de celdas (Ej. filas o columnas)).

X2 la matriz de datos de las variables independiente del segundo conjunto de datos, como cada columna representa una variables.

Mask es la matriz booleana para seleccionar un subconjunto de variables explicatorias en el modelo. Si faltan, todas las variables en X son incluidas.

Intercept es la constante de regresión o el valor de intercepción (Ej. cero). Si falta, un intercepto no es ajustado y se computará para el conjunto de datos.

Return_type es un interrupptor para seleccionar la salida de retorno (1 = valor p (defecto), 2 = pruebas estadísticas, 3 = resíduos estandarizados).

Método Descripción
1 valor p
2 pruebas estadísticas
 

Observaciones

  1. La serie de datos puede incluir valores faltantes.
  2. Los errores del modelo($\varepsilon$) son asumidos para ser independientes e identicamente distribuidos de una distribución normal con varianza desconocida.
  3. Cada columna en la matriz explicatoria (predictor) corresponde a una variable separada.
  4. Cada fila en lamatriz explicatoria y corresponde en la matriz explicativa y vectores dependientes correspondientes, corresponden a una observación.
  5. Observaciones (Ej. fila) con valores faltantes en X o Y son eliminados.
  6. El número de observación de cada dato debe ser mayor que el número de las variables exoplicatorias.
  7. En principio, la prueba Chow construye los siguientes modelos de regresión:
    • Modelo 1 (Conjunto de datos 1):
      $y_t = \alpha_1 + \beta_{1,1}\times X_1 + \beta_{2,1}\times X_2 + \cdots + \epsilon$
    • Modelo 2 (Conjunto de datos 2):
      $y_t = \alpha_2 + \beta_{1,2}\times X_1 + \beta_{2,2}\times X_2+ \cdots + \epsilon$
    • Modelo 3 (Conjunto de datos 1 + 2):
      $y_t = \alpha + \beta_1\times X_1 + \beta_2 \times X_2 + \cdots + \epsilon$
  8. La hipótesis de la prueba Chow:

    $$ H_{o}= \left\{\begin{matrix} \alpha_1 = \alpha_2 = \alpha \\ \beta_{1,1} = \beta_{1,2} = \beta_1 \\ \beta_{2,1} = \beta_{2,2} = \beta_2 \end{matrix}\right. $$
    $H_{1}: \exists \alpha_i \neq \alpha, \exists \beta_{i,j} \neq \beta_i$

    Donde:
    • $H_{o}$ es la hipótesis nula.
    • $H_{1}$ es la hipótesis alternativa.
    • $\beta_{i,j}$ es el coeficiente i-th en el modelo de regresión j-th (j=1,2,3).
  9. la prueba estadística Chow se define de la siguiente manera:

    $$ \frac{(\textrm{SSE}_C -(\textrm{SSE}_1+\textrm{SSE}_2))/(k)}{(\textrm{SSE}_1+\textrm{SSE}_2)/(N_1+N_2-2k)}. $$

    Donde:
    • $\textrm{SSE}$ es la suma de los cuadrados de los residuos.
    • $K$ es el número de las variables explicatorias.
    • $N_1$ es el número de las observaciones no faltantes en el primer conjunto de datos.
    • $N_2$ es el número de las observaciones no faltantes en el segundo conjunto de datos.
  10. Las estadístcas de la prueba Chow siguen una distribución F con $k$, and $N_1+N_2-2\times K$ degrees of freedom.
  11. La función Chow Test está disponible comenzando con la versión 1.60 APACHE.

Ejemplos de archivos

Referencias

  • Chow, Gregory C. (1960). "Tests of Equality Between Sets of Coefficients in Two Linear Regressions". Econometrica 28 (3): 591–605.
¿Tiene más preguntas? Enviar una solicitud

0 Comentarios