Calcula los valores de regresión del análisis del modelo de la varianza (ANOVA).
Sintaxis
SLR_ANOVA(X, Y, Intercept, Return_type)
- X
- s el array de datos de la variable independiente (también conocida como explicativa o predictiva), un array unidimensional de celdas (Ej. filas o columnas).
- Y
- es la respuesta o array de datos de la variable dependiente (array unidimensional de celdas (Ej. filas o columnas)).
- Intercept
- es la constante o valor del intercepto para arreglar (Ej. cero). Si falta, un inctercepto no será corregido y se calcula normalmente.
- Return_type
- es un switch para seleccionar la salida de eresultados (1 = SSR (default), 2 = SSE, 3 = SST, 4 = MSR, 5 = MSE, 6 = F-Stat, 7 = Significancia F).
Método Descripción 1 SSR (suma de cuadrados de la regresión) 2 SSE (suma de cuadrados de los residuales) 3 SST (suma de cuadrados de la variable dependiente) 4 MSR (media de cuadrados de la regresión) 5 MSE (error de la media cuadrada o residuales) 6 F-Stat (puntaje de la prueba) 7 Significancia F (valor P de la prueba)
Observaciones
- El modelo subyacente se describe aquí.
- $$\mathbf{y} = \alpha + \beta \times \mathbf{x}$$
- La tabla de regresion ANOVA la cual examina las siguientes hipótesis:
$$\mathbf{H}_o: \beta = 0 $$
$$\mathbf{H}_1: \beta \neq 0 $$ - En otras palabras, la regresión ANOVA examina la probabilidad de que esa regresión No explica la variación en $\mathbf{y}$, Ej. que cualquier ajuste es debido puramente al azar .
- SLR_ANOVA calcula los diferentes valores en las tablas ANOVA de la siguiente manera:
$$\mathbf{SST}=\sum_{i=1}^N \left(Y_i - \bar Y \right )^2 $$
$$\mathbf{SSR}=\sum_{i=1}^N \left(\hat Y_i - \bar Y \right )^2 $$
$$\mathbf{SSR}=\sum_{i=1}^N \left(Y_i - \hat Y_i \right )^2 $$
Donde:- $N$ es el número de observaciones no faltantes en los datos de la muestra.
- $\bar Y$ es el promedio empírico de la muestra para la variable dependiente.
- $\hat Y_i$ es el valor estimado del modelo de regresión para la i-ésima observación.
- $\mathbf{SST}$ es la suma total de los cuadrados para la variable dependiente.
- $\mathbf{SSR}$ es la estimación de la suma total de los cuadrados de la regresión (Ej. $\hat y$).
- $\mathbf{SSE}$ es la estimación de la suma total o error (conocidos como residuales $\epsilon$) de los términos de la regresión (Ej. $\epsilon = y - \hat y$).
- $\mathbf{SST} = \mathbf{SSR} + \mathbf{SSE}$.
$$\mathbf{MSR} = \frac{\mathbf{SSR} }{1} = \mathbf{SSR}$$
$$\mathbf{MSE} = \frac{ \mathbf{SSE} }{N-2}$$
$$\mathbf{F-Stat} = \frac{\mathbf{MSR} }{ \mathbf{MSE} }$$
Where:- $\mathbf{MSR}$ es la media cuadrada de la regresión. For SLR, the $\mathbf{MSR} = \mathbf{SSR}$.
- $\mathbf{MSE}$ es la media cuadrada de los residuales.
- $\textrm{F-Stat}$ es el puntaje de prueba de la hipótesis.
- $\textrm{F-Stat} \sim \mathbf{F}\left(1,N-2\right)$.
- Los datos de muestra pueden incluir valores faltantes.
- Cada fila en la matriz de entrada corresponde a una observación.
- Observaciones (Ej.filas) con valores faltantes en X o Y son eliminados.
- El número de filas de la variable de repsuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
- La función SLR_ANOVA está disponible comenzando con la versión 1.60 APACHE.
Ejemplos de archivos
Enlaces Relacionados
- Wikipedia - Linear regression Wikipedia - Análisis de la regresión Wikipedia - Mínimos cuadrados ordinarios
Referencias
- Hamilton, J .D.; Time Series Analysis , Princeton University Press (1994), ISBN 0-691-04289-6
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285
Comentarios
El artículo está cerrado para comentarios.