Calcula los valores de análisis de varianza (ANOVA) del modelo de regresión.
Sintaxis
MLR_ANOVA (X, Mask, Y, Intercept, Return)
- X
- es la matriz de datos de variables independientes (explicativas), cada columna representa una variable.
- Mask
- es la matriz booleana para elegir las variables explicativas en el modelo. Si falta, todas las variables de X son incluidas.
- Y
- es la respuesta o la matriz de datos de la variable dependiente (una matriz unidimensional de celdas (filas o columnas)).
- Intercept
- es la constante o el valor de la intercepción a arreglar (por ejemplo, cero). Si falta, una intercepción no será arreglada y se calcula normalmente.
- Return
- es un cambio para seleccionar la salida (1 = SSR (por defecto), 2 = SSE, 3 = SST, 4 = MSR, 5 = MSE, 6 = F-Stat, 7 = P-Valor).
Valor Return 1 SSR (suma de los cuadrados de la regresión) (por defecto). 2 SSE (suma de los cuadrados de los residuales). 3 SST (suma de los cuadrados de la variable dependiente). 4 MSR (media cuadrada de la regresion). 5 MSE (media cuadrada de error o residuales). 6 F-Stat (test score). 7 Significancia F (P-valor del test).
Observaciones
- El modelo subyacente se describe aquí.
- $\mathbf{y} = \alpha + \beta_1 \times \mathbf{x}_1 + \dots + \beta_p \times \mathbf{x}_p$.
- La tabla de regresión ANOVA examina la siguiente hipótesis: $$\mathbf{H}_o: \beta_1 = \beta_2 = \dots = \beta_p = 0$$ $$\mathbf{H}_1: \exists \beta_i \neq 0, i \in \left[1,0 \right ]$$
- En otras palabras, la regresión ANOVA examina la probabilidad que la regresión no explica la variación en $\mathbf{y}$, Por ejemplo, que cualquier ajuste es debido puramente al azar.
- The MLR_ANOVA calculates the different values in the ANOVA tables as shown below: $$\mathbf{SST}=\sum_{i=1}^N \left(Y_i - \bar Y \right )^2$$ $$\mathbf{SSR}=\sum_{i=1}^N \left(\hat Y_i - \bar Y \right )^2$$ $$\mathbf{SSE}=\sum_{i=1}^N \left(Y_i - \hat Y_i \right )^2$$ Donde:
- $N$ es el número de observaciones que no falta en los datos de la muestra.
- $\bar Y$ es el promedio de la muestra empírica de la variable dependiente.
- $\hat Y_i$ es el valor de estimación del modelo de regresión para la i-ésima observación.
- $\mathbf{SST}$ es la suma total de cuadrados de la variable dependiente.
- $\mathbf{SSR}$ es la suma total de cuadrados de la regresión (Por ejemplo, $\hat y$) estimada.
- $\mathbf{SSE}$ es el totald e la suma de errores(aka residuales $\epsilon$) terminos para regresión (Ej. $\epsilon = y - \hat y$) estimada.
- $\mathbf{SST} = \mathbf{SSR} + \mathbf{SSE}$.
- $p$ es el número de variables explicativas (aka predictor) en la regresión.
- $\mathbf{MSR}$ es la media cuadrada de la regresión.
- $\mathbf{MSE}$ es la media cuadrada de los residuales.
- $\textrm{F-Stat}$ es el puntaje de la hipótesis.
- $\textrm{F-Stat} \sim \mathbf{F}\left(p,N-p-1 \right)$.
- Los datos de la muestra pueden incluir valores faltantes.
- Cada columna en la matriz de entrada corresponde a una variable separada.
- Cada fila en la matriz de entrada corresponde a una observación.
- Observaciones (Ej. filas) con valores faltantes X o Y son eliminadas.
- El número de filas de la variable de respuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
- La función MLR_ANOVA esta disponible comenzando con la versión 1.60 APACHE.
Ejemplos de archivos
Enlaces Relacionados
- Wikipedia - Regresión lineal.
- Wikipedia - Análisis de la regresión.
- Wikipedia - Mínimos cuadrados ordinarios.
Referencias
- Hamilton, J.D.; Time Series Analysis, Princeton University Press (1994), ISBN 0-691-04289-6.
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285.
Comentarios
El artículo está cerrado para comentarios.