SLR_ANOVA - ANOVA para la Regresión simple de OLS (Mínimos cuadrados ordinarios)

Calcula los valores de regresión del análisis del modelo de la varianza (ANOVA).

 

Sintaxis

SLR_ANOVA(X, Y, Intercept, Return_type)

X es el array de datos de la variable independiente (también conocida como explicativa o predictiva), un array unidimensional de celdas (Ej. filas o columnas).

Y es la respuesta o array de datos de la variable dependiente (array unidimensional de celdas (Ej. filas o columnas)).

Intercept es la constante o valor del intercepto para arreglar (Ej. cero). Si falta, un inctercepto no será corregido y se calcula normalmente.

Return_type es un switch para seleccionar la salida de eresultados (1 = SSR (default), 2 = SSE, 3 = SST, 4 = MSR, 5 = MSE, 6 = F-Stat, 7 = Significancia F).

Método Descripción
1 SSR (suma de cuadrados de la regresión)
2 SSE (suma de cuadrados de los residuales)
3 SST (suma de cuadrados de la variable dependiente)
4 MSR (media de cuadrados de la regresión)
5 MSE (error de la media cuadrada o residuales)
6 F-Stat (puntaje de la prueba)
7 Significancia F (valor P de la prueba)
 

Observaciones

  1. El modelo subyacente se describe aquí.
  2. $$\mathbf{y} = \alpha + \beta \times \mathbf{x}$$
  3. La tabla de regresion ANOVA la cual examina las siguientes hipótesis:
    $$\mathbf{H}_o: \beta = 0 $$
    $$\mathbf{H}_1: \beta \neq 0 $$
  4. En otras palabras, la regresión ANOVA examina la probabilidad de que esa regresión No explica la variación en $\mathbf{y}$, Ej. que cualquier ajuste es debido puramente al azar .
  5. SLR_ANOVA calcula los diferentes valores en las tablas ANOVA de la siguiente manera:
    $$\mathbf{SST}=\sum_{i=1}^N \left(Y_i - \bar Y \right )^2 $$
    $$\mathbf{SSR}=\sum_{i=1}^N \left(\hat Y_i - \bar Y \right )^2 $$
    $$\mathbf{SSR}=\sum_{i=1}^N \left(Y_i - \hat Y_i \right )^2 $$
    Donde:
    • $N$ es el número de observaciones no faltantes en los datos de la muestra.
    • $\bar Y$ es el promedio empírico de la muestra para la variable dependiente.
    • $\hat Y_i$ es el valor estimado del modelo de regresión para la i-ésima observación.
    • $\mathbf{SST}$ es la suma total de los cuadrados para la variable dependiente.
    • $\mathbf{SSR}$ es la estimación de la suma total de los cuadrados de la regresión (Ej. $\hat y$).
    • $\mathbf{SSE}$ es la estimación de la suma total o error (conocidos como residuales $\epsilon$) de los términos de la regresión (Ej. $\epsilon = y - \hat y$).
    • $\mathbf{SST} = \mathbf{SSR} + \mathbf{SSE}$.
    AND
    $$\mathbf{MSR} = \frac{\mathbf{SSR} }{1} = \mathbf{SSR}$$
    $$\mathbf{MSE} = \frac{ \mathbf{SSE} }{N-2}$$
    $$\mathbf{F-Stat} = \frac{\mathbf{MSR} }{ \mathbf{MSE} }$$
    Where:
    • $\mathbf{MSR}$ es la media cuadrada de la regresión. For SLR, the $\mathbf{MSR} = \mathbf{SSR}$.
    • $\mathbf{MSE}$ es la media cuadrada de los residuales.
    • $\textrm{F-Stat}$ es el puntaje de prueba de la hipótesis.
    • $\textrm{F-Stat} \sim \mathbf{F}\left(1,N-2\right)$.
  6. Los datos de muestra pueden incluir valores faltantes.
  7. Cada fila en la matriz de entrada corresponde a una observación.
  8. Observaciones (Ej.filas) con valores faltantes en X o Y son eliminados.
  9. El número de filas de la variable de repsuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
  10. La función SLR_ANOVA está disponible comenzando con la versión 1.60 APACHE.

Ejemplos de archivos

Referencias

  • Hamilton, J .D.; Time Series Analysis , Princeton University Press (1994), ISBN 0-691-04289-6
  • Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285
¿Tiene más preguntas? Enviar una solicitud

0 Comentarios