MLR_ANOVA - Análisis de regresión de varianza (ANOVA)

Calcula los valores de análisis de varianza (ANOVA) del modelo de regresión.

Sintaxis

MLR_ANOVA (X, Mask, Y, Intercept, Return)

X
es la matriz de datos de variables independientes (explicativas), cada columna representa una variable.
Mask
es la matriz booleana para elegir las variables explicativas en el modelo. Si falta, todas las variables de X son incluidas.
Y
es la respuesta o la matriz de datos de la variable dependiente (una matriz unidimensional de celdas (filas o columnas)).
Intercept
es la constante o el valor de la intercepción a arreglar (por ejemplo, cero). Si falta, una intercepción no será arreglada y se calcula normalmente.
Return
es un cambio para seleccionar la salida (1 = SSR (por defecto), 2 = SSE, 3 = SST, 4 = MSR, 5 = MSE, 6 = F-Stat, 7 = P-Valor).
Valor Return
1 SSR (suma de los cuadrados de la regresión) (por defecto).
2 SSE (suma de los cuadrados de los residuales).
3 SST (suma de los cuadrados de la variable dependiente).
4 MSR (media cuadrada de la regresion).
5 MSE (media cuadrada de error o residuales).
6 F-Stat (test score).
7 Significancia F (P-valor del test).

Observaciones

  1. El modelo subyacente se describe aquí.
  2. $\mathbf{y} = \alpha + \beta_1 \times \mathbf{x}_1 + \dots + \beta_p \times \mathbf{x}_p$.
  3. La tabla de regresión ANOVA examina la siguiente hipótesis: $$\mathbf{H}_o: \beta_1 = \beta_2 = \dots = \beta_p = 0$$ $$\mathbf{H}_1: \exists \beta_i \neq 0, i \in \left[1,0 \right ]$$
  4. En otras palabras, la regresión ANOVA examina la probabilidad que la regresión no explica la variación en $\mathbf{y}$, Por ejemplo, que cualquier ajuste es debido puramente al azar.
  5. The MLR_ANOVA calculates the different values in the ANOVA tables as shown below: $$\mathbf{SST}=\sum_{i=1}^N \left(Y_i - \bar Y \right )^2$$ $$\mathbf{SSR}=\sum_{i=1}^N \left(\hat Y_i - \bar Y \right )^2$$ $$\mathbf{SSE}=\sum_{i=1}^N \left(Y_i - \hat Y_i \right )^2$$ Donde:
    • $N$ es el número de observaciones que no falta en los datos de la muestra.
    • $\bar Y$ es el promedio de la muestra empírica de la variable dependiente.
    • $\hat Y_i$ es el valor de estimación del modelo de regresión para la i-ésima observación.
    • $\mathbf{SST}$ es la suma total de cuadrados de la variable dependiente.
    • $\mathbf{SSR}$ es la suma total de cuadrados de la regresión (Por ejemplo, $\hat y$) estimada.
    • $\mathbf{SSE}$ es el totald e la suma de errores(aka residuales $\epsilon$) terminos para regresión (Ej. $\epsilon = y - \hat y$) estimada.
    • $\mathbf{SST} = \mathbf{SSR} + \mathbf{SSE}$.
    Y, $$\mathbf{MSR} = \frac{\mathbf{SSR} }{p}$$ $$\mathbf{MSE} = \frac{ \mathbf{SSE} }{N-p-1}$$ $$\mathbf{F-Stat} = \frac{\mathbf{MSR} }{\mathbf{MSE} }$$ Donde:
    • $p$ es el número de variables explicativas (aka predictor) en la regresión.
    • $\mathbf{MSR}$ es la media cuadrada de la regresión.
    • $\mathbf{MSE}$ es la media cuadrada de los residuales.
    • $\textrm{F-Stat}$ es el puntaje de la hipótesis.
    • $\textrm{F-Stat} \sim \mathbf{F}\left(p,N-p-1 \right)$.
  6. Los datos de la muestra pueden incluir valores faltantes.
  7. Cada columna en la matriz de entrada corresponde a una variable separada.
  8. Cada fila en la matriz de entrada corresponde a una observación.
  9. Observaciones (Ej. filas) con valores faltantes X o Y son eliminadas.
  10. El número de filas de la variable de respuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
  11. La función MLR_ANOVA esta disponible comenzando con la versión 1.60 APACHE.

Ejemplos de archivos

Enlaces Relacionados

Referencias

  • Hamilton, J.D.; Time Series Analysis, Princeton University Press (1994), ISBN 0-691-04289-6.
  • Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285.

Comentarios

El artículo está cerrado para comentarios.

¿Fue útil este artículo?
Usuarios a los que les pareció útil: 1 de 1