Devuelve el valor p de la prueba de estabilidad de regresión (Ej. si los coeficientes en dos regresiones lineales en diferentes conjuntos de datos son iguales).
Sintaxis
ChowTest(Y1, X1, Y2, X2, Mask, Intercept, Return_type)
- Y1
- es la respuesta o la matriz de datos variable dependiente del primer conjunto de datos (matriz unidimensional de celdas (por ejemplo, filas o columnas)).
- X1
- es la matriz de variables de datos independiente del primer conjunto de datos, de manera que cada columna representa una variable.
- Y2
- es la respuesta de la matriz de variable de datos dependiente del segundo conjunto de datos (una matriz unidimensional de celdas (Ej. filas o columnas)).
- X2
- la matriz de datos de las variables independiente del segundo conjunto de datos, como cada columna representa una variables.
- Mask
- es la matriz booleana para seleccionar un subconjunto de variables explicatorias en el modelo. Si faltan, todas las variables en X son incluidas.
- Intercept
- es la constante de regresión o el valor de intercepción (Ej. cero). Si falta, un intercepto no es ajustado y se computará para el conjunto de datos.
- Return_type
- es un interrupptor para seleccionar la salida de retorno (1 = valor p (defecto), 2 = pruebas estadísticas, 3 = resíduos estandarizados).
Método Descripción 1 Valor p. 2 Pruebas estadísticas. 3 Resíduos estandarizados.
Observaciones
- La serie de datos puede incluir valores faltantes.
- Los errores del modelo($\varepsilon$) son asumidos para ser independientes e identicamente distribuidos de una distribución normal con varianza desconocida.
- Cada columna en la matriz explicatoria (predictor) corresponde a una variable separada.
- Cada fila en lamatriz explicatoria y corresponde en la matriz explicativa y vectores dependientes correspondientes, corresponden a una observación.
- Observaciones (Ej. fila) con valores faltantes en X o Y son eliminados.
- El número de observación de cada dato debe ser mayor que el número de las variables exoplicatorias.
- En principio, la prueba Chow construye los siguientes modelos de regresión:
- Modelo 1 (Conjunto de datos 1): $$y_t = \alpha_1 + \beta_{1,1}\times X_1 + \beta_{2,1}\times X_2 + \cdots + \epsilon$$
- Modelo 2 (Conjunto de datos 2): $$y_t = \alpha_2 + \beta_{1,2}\times X_1 + \beta_{2,2}\times X_2+ \cdots + \epsilon$$
- Modelo 3 (Conjunto de datos 1 + 2): $$y_t = \alpha + \beta_1\times X_1 + \beta_2 \times X_2 + \cdots + \epsilon$$
- La hipótesis de la prueba Chow: $$ H_{o}= \left\{\begin{matrix} \alpha_1 = \alpha_2 = \alpha \\ \beta_{1,1} = \beta_{1,2} = \beta_1 \\ \beta_{2,1} = \beta_{2,2} = \beta_2 \end{matrix}\right. $$ $$H_{1}: \exists \alpha_i \neq \alpha, \exists \beta_{i,j} \neq \beta_i$$ Donde:
- $H_{o}$ es la hipótesis nula.
- $H_{1}$ es la hipótesis alternativa.
- $\beta_{i,j}$ es el coeficiente i-th en el modelo de regresión j-th (j=1,2,3).
- la prueba estadística Chow se define de la siguiente manera: $$ \frac{(\textrm{SSE}_C -(\textrm{SSE}_1+\textrm{SSE}_2))/(k)}{(\textrm{SSE}_1+\textrm{SSE}_2)/(N_1+N_2-2k)}$$ Donde:
- $\textrm{SSE}$ es la suma de los cuadrados de los residuos.
- $K$ es el número de las variables explicatorias.
- $N_1$ es el número de las observaciones no faltantes en el primer conjunto de datos.
- $N_2$ es el número de las observaciones no faltantes en el segundo conjunto de datos.
- Las estadístcas de la prueba Chow siguen una distribución F con $k$, and $N_1+N_2-2\times K$ degrees of freedom.
- La función Chow Test está disponible comenzando con la versión 1.60 APACHE.
Ejemplos de archivos
Enlaces Relacionados
Referencias
- Chow, Gregory C. (1960). "Tests of Equality Between Sets of Coefficients in Two Linear Regressions". Econometrica 28 (3): 591–605.
Comentarios
El artículo está cerrado para comentarios.