PCR_PRFTest - Prueba F parcial para PCR

Calcula el valor p estadísticas realxionadas de la pruba f para PCR (usadas para probar las variables de inclusión/exclusión).

 

Sintaxis

PCR_PRFTest(X, Y, Intercept, Mask1, Mask2, Return_type, Alpha)

X es la matriz de datos de variables independientes, de manera que cada columna representa una variable.

Y es la respuesta o array de datos de variables dependientes (un array unidimensional de celdas (Ej. filas o columnas)).

Intercept es la constante o el valor del intercepto para corregir (Ej.cero). Si falta, un intercepto no será corregido y sera calculado normalmente.

Mask1 es la matriz booleana para escoger variables explicativas en el primer modelo. Si falta, todas las variables en X son incluidas.

Mask2 es la matriz booleana para escoger variables explicativas en el segundo modelo. Si falta, todas las variables en X son incluida

Return_type es un switch para selccionar la salida de retorno (1 = Valor P (defecto), 2 = test stats, 3 = valores críticos)

Método Descripción
1 Valor P
2 Pruebas Estadísticas (Ej. Z - score)
3 Valor Crítico

Alpha es una prueba de la significancia estadistica de la prueba (Ej. alpha). Si falta o es omitida, se toma un valor de alpha de 5%.

 

Observaciones

  1. El modelo subyacente se describe aquí.
  2. El primer modelo debe ser un sub modelo del segundo modelo. En otras palabras, as las variables incluidas en el Modelo 1 deben ser incluiddas en el Modelo 2.
  3. El coeficiente de determinación (Ej. $R^2$) incrementa en valor de la misma manera como adicionamos variables para el modelo de regresión, pero a menudo deseamos probar cualquier mejora en R cuadrático adicionando aquellas variables estadisticamente significantes.
  4. Para hacer eso, nosotros desarrollamos una prueba de inclusión/exclusión para aquellas variables. Primero vamos a comenzar con un modelo de regresión con $K_1$ variables:
    $$Y_t = \alpha + \beta_1 \times X_1 + \cdots + \beta_{K_1} \times X_{K_1}$$
    Ahora, vamos a adicionar unas pocas variables $\left(X_{K_1+1} \cdots X_{K_2}\right):$
    $$Y_t = \alpha + \beta_1 \times X_1 + \cdots + \beta_{K_1} \times X_{K_1} + \cdots + \beta_{K_1+1} \times X_{K_1+1} + \cdots + \beta_{K_2} \times X_{K_2}$$La prueba de la hipótesis es de la siguiente manera:

  5. $$H_o : \beta_{K_1+1} = \beta_{K_1+2} = \cdots = beta_{K_2} = 0$$
    $$H_1 : \exists \beta_{i} \neq 0, i \in \left[K_1+1 \cdots K_2\right]$$
  6. Usando el cambio en el coeficiente de determinación (Ej. $R^2$) asi como adicionamos nuevas variables, nosotros podemos calcular las pruebas esatídsticas:
    $$\mathrm{f}=\frac{(R^2_{f}-R^2_{r})/(K_2-K_1)}{(1-R^2_f)/(N-K_2-1)}\sim \mathrm{F}_{K_2-K_1,N-K2-1}$$
    Where:
    • $R^2_f$ es el $R^2$ del modelo completo(con varibles adicionadas).
    • $R^2_r$ es el $R^2$ del modelo reducicdo (sin variables adicionadas).
    • $K_1$ es el número de variables en el modelo reduicido.
    • $K_2$ es el número de variables en el modelo completo.
    • $N$ es el número de observaciones en los datos de la muestra.
  7. Los datos de la muestra pueden incluir valores faltantes.
  8. Cada columna en la matriz corresponde a una variable independiente.
  9. Cada fila en la matriz de entrada corresponde a una observación.
  10. Observaciones (Ej.filas) con valores faltantes en X o Y son eliminados.
  11. El número de filas del la variable de respuesta (Y) debe ser igual al número de filas de las varibales explicativas (X)
  12. La función MLR_ANOVA está disponible comenzando con la versión 1.60 APACHE.

Ejemplos de archivos

Referencias

  • H Hamilton, J .D.; Time Series Analysis , Princeton University Press (1994), ISBN 0-691-04289-6
  • Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285
¿Tiene más preguntas? Enviar una solicitud

0 Comentarios