Devuelve un array de celdas para los valores ajustados de la media condicional, residuales o medidas de apalancamiento.
Sintaxis
MLR_FITTED(X, Mask, Y, Intercept, Return)
- X
- es la matriz de datos de variables independientes (explicativas), de manera que cada columna representa una variable.
- Mask
- es la matriz booleana para escoger las variables explicativas en el modelo. Si falta, todas las variables en X son incluidas.
- Y
- es la respuesta o matriz de datos variable dependiente (una matriz unidimensional de celdas (Ej. filas o columnas)).
- Intercept
- es el valor constante o el valor del intercepto para fijar (Ej. cero). Si falta, un inetercepto no será fijado y se calcula normalmente.
- Return
- es un switch para seleccionar la salida de retorno (1 = Valores ajustados (por defecto), 2 = Residuales, 3 = Residuos estandarizados, 4 = Apalancamiento, 5 = Distancia de Cook).
Value Return 1 Media Ajustada/Condicional (default). 2 Residuales. 3 Resíduos estandarizados (aka. Studentized). 4 Apalancamiento (H). 5 Distancia de Cook (D).
Observaciones
- El modelo subyacente se describe aquí.
- La regresión ajustada (aka estimado) de la media condicional es calculado de la siguinete manera: $$\hat y_i = E \left[ Y| x_i1\cdots x_ip \right] = \alpha + \hat \beta_1 \times x_i1 + \cdots + \beta_p \times x_ip$$ Residuales son definidos de la siguinete manera: $$e_i = y_i - \hat y_i$$ Los residuales estandarizados (aka studentized) son calculados de la siguiente manera: $$\bar e_i = \frac{e_i}{\hat \sigma_i}$$ Donde:
- $\hat y$ es el valor de regresión estimado.
- $e$ es el término de error en la regresión.
- $\hat e$ es el término de error estandarizado.
- $\hat \sigma_i$ es el error estándar para la i-ésima observación.
- Para el análisis de datos influyente, SLR_FITTED calcula dos valores: apalancamiento estadístico y distancia de Cook para observaciones en nuestros datos de muestra.
- El apalancamiento estadístico describe la influencia de cada valor observado tiene en el valor ajsutado sobre los valores ajustados para la misma observación. Por definición, los elementos diagonales de la matriz sombrero son los apalancamientos. $$H = X \left(X^\top X \right)^{-1} X^\top$$ $$L_i = h_{ii}$$ Donde:
- $H$ es la matriz sombrero para términos de error no correlacionados .
- $\mathbf{X}$ es una (N x p+1) matriz de variables of explicativas donde la primera columna es todo una. where the first column is all ones.
- $L_i$ es la estadistica de palancamiento para la i-ésima observación.
- $h_{ii}$ es el elemento diagonal i-ésimo en la matriz.
- La distancia de Cook mide el efecto de eliminacion de una observacion dada. Los puntos de datos con grandes residuales (outliers) y/o alto apalancamieneto pueden distorsionar la salida y exactitud de la regresion. Puntos con una gran distancia de Cook se consideran para merecer un exámen más detallado en el análisis. $$D_i = \frac{e_i^2}{p \ \mathrm{MSE}}\left[\frac{h_{ii}}{(1-h_{ii})^2}\right]$$ Donde:
- $D_i$ es la distancia para la i-ésima observación.
- $h_{ii}$ es la estadística de apalancamiento (o elemento i-ésimo diagonal en la matriz sombrero).
- $\mathrm{MSE}$ es el error cuadrático medio del modelo de regresión.
- $p$ es el número de las variables explicativas.
- $e_i$ es el término de error (residual) para la observación i-ésima.
- Los datos de la muestra pueden incluir valores faltantes.
- Cada columna en la matriz de entrada corresponde a una variable separada.
- Cada fila en la matriz de entrada corresponde a una observación.
- Observaciones (Es decir, filas) con valores valtantes en X o Y son eliminados.
- El número de filas de la variable de respuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
- La función MLR_FITTED está disponible empezando con la versión 1.60 APACHE.
Ejemplos de archivos
Enlaces Relacionados
- Wikipedia - Regresión lineal.
- Wikipedia - Análisis de la regresión.
- Wikipedia - Mínimos cuadrados ordinarios.
Referencias
- Hamilton, J.D.; Time Series Analysis, Princeton University Press (1994), ISBN 0-691-04289-6.
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285.
Comentarios
El artículo está cerrado para comentarios.