MLR_PRFTest - Prueba de F parcial para la Regresión

Calcula el valor p y estadísticas relacionadas de la prueba parcial f (usada para comprobar la inclusión/exclusión de las variables).

Sintaxis

MLR_PRFTest (X, Y, Intercept, Mask1, Mask2, Return, Alpha)

X
es la matriz de datos de variables independientes (explicativas), de manera que cada columna representa una variable.
Y
es la respuesta o matriz de datos variable dependiente (una matriz unidimensional de celdas (Ej. filas o columnas)).
Intercept
es la constante o el valor del intercepto para ajustar (Ej. cero). Si falta, un intercepto no se ajustara y es calculado normalmente.
Mask1
es la matriz booleana para las variables explicativas en el primer modelo. Si falta, todas las variables en X son incluidas.
Mask2
es la array booleana para las variables explicativas en el segundo modelo. Si falta, todas las variables en X son incluidas.
Return
es un swuitch para seleccionar la salida de retorno (1 = Valor P (por defecto), 2 = Pruebas Estadísticas, 3 = Valor Crítico).
Valor Return
1 Valor P (por defecto).
2 Pruebas Estadísticas (Ej. Puntuación Z).
3 Valor Crítico.
Alpha
es la significancia estadística de la prueba (Ej. alpha). Si falta o es omitida, un valor alpha de 5% es asumido.

Observaciones

  1. El modelo subyacente se describe aquí.
  2. Modelo 1 debe ser un sub-modelo del Modelo 2. En otras palabras, todas las variables icluidas en el Modelo 1, deben ser incluidas en el Modelo 2.
  3. The coefficient of determination (Ej. $R^2$) increases in value as we add variables to the regression model, but we often wish to test whether the improvement in R-square by adding those variables is statistically significant.
  4. Para hacer eso, nosotros desarrollamos una prueba de inclusión/exclusión para esas variables. Primero, vamos a comenzar con el modelo de regresión con $K_1$ variables: $$Y_t = \alpha + \beta_1 \times X_1 + \cdots + \beta_{K_1} \times X_{K_1}$$ Ahora, vamos a adicionar unas pocas variables $\left(X_{K_1+1} \cdots X_{K_2}\right)$: $$Y_t = \alpha + \beta_1 \times X_1 + \cdots + \beta_{K_1} \times X_{K_1} + \cdots + \beta_{K_1+1} \times X_{K_1+1} + \cdots + \beta_{K_2} \times X_{K_2}$$
  5. La prueba de la hipótesis es de la siguiente manera: $$H_o : \beta_{K_1+1} = \beta_{K_1+2} = \cdots = beta_{K_2} = 0$$ $$H_1 : \exists \beta_{i} \neq 0, i \in \left[K_1+1 \cdots K_2\right]$$
  6. Usando el camio en el coeficiente de determnacion (Ej. $R^2$) asi como adicionar nuevas variables, nosotros podemos calcular las pruebas esatdísticas: $$\mathrm{f}=\frac{(R^2_{f}-R^2_{r})/(K_2-K_1)}{(1-R^2_f)/(N-K_2-1)}\sim \mathrm{F}_{K_2-K_1,N-K2-1}$$ Donde:
    • $R^2_f$ es el $R^2$ del modelo lleno (con variables adicionadasS).
    • $R^2_r$ es el $R^2$ del modelo reducido (sin variables adicionadas).
    • $K_1$ es el número de variables en el modelo reducido.
    • $K_2$ es el número de variables en el modelo lleno.
    • $N$ es el número de observaciones en los datos de la muestra.
  7. Los datos de la muestra pueden incluir valores faltantes.
  8. Cada columna en la matriz de entrada corresponde a una variable separada.
  9. Cada fila en la matriz de entrada corresponde a una observación.
  10. Observaciones (Es decir, filas) con valores valtantes en X o Y son eliminados.
  11. El número de filas de la variable de respuesta (Y) debe ser igual al número de filas de las variables explicatorias (X).
  12. La función MLR_ANOVA está disponible empezando con la versión 1.60 APACHE.

Ejemplos de archivos

Enlaces Relacionados

Referencias

  • Hamilton, J.D.; Time Series Analysis, Princeton University Press (1994), ISBN 0-691-04289-6.
  • Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285.

Comentarios

El artículo está cerrado para comentarios.

¿Fue útil este artículo?
Usuarios a los que les pareció útil: 0 de 0