Devuelve un array de celdas para los valores justados de la media condicional (o residuales).
Sintaxis
SLR_FITTED(X, Y, Intercept, Return_type)
- X
- es el array de datos de la variable independiente (también conocida como explicativa o predictiva), un array unidimensional de celdas (Ej. filas o columnas).
- Y
- es la respuesta o array de datos de la variable dependiente (array unidimensional de celdas (Ej. filas o columnas)).
- Intercept
- es la constante o valor del intercepto para arreglar (Ej. cero). Si falta, un inctercepto no será corregido y se calcula normalmente.
- Return_type
- es un switch para seleccionar la salida de resultados (1 = valores ajustados (defecto), 2 = residuales, 3 = residuales estd., 4 = X (cleaned), 5 = Y (cleaned)).
Método Descripción 1 Media condicional ajustada 2 Residuales 3 Residuales estandardizados (estudentizado) 4 Apalancamiento (H) 5 Distancia de Cook (D)
Observaciones
- El modelo subyacente se describe aquí.
- la regresión ajustada de a media condicional (estimatada) es calculada de la suiguinete manera:
$$\hat y_i = E \left[ Y| x_i \right] = \alpha + \hat \beta \times x_i$$
Residuales son definidos de la siguiente manera:
$$ e_i = y_i - \hat y_i $$
Los residulaes estandarizados (estudentizados) son calculados de la siguiente manera:
$$\bar e_i = \frac{e_i}{\hat \sigma_i} $$
Donde:
- $\hat y $ es el lvalor estimado de la regresión.
- $e $ es el termino de error en la regresión.
- $\hat e $ es el termino de error estandardizado.
- $\hat \sigma_i $ es el error estadar para la observacion i-ésima.
- Para el análisis de datos influyente, SLR_FITTED calcula dos valores : Estadísticas de apalancamiento y la distancia de Cook para las observaciones en nuestros datos de
- Las estadísticas de apalancamiento describen la influencia que cada valor observado tiene sobre el valor ajustado para esa misma observación.Por definición , los elementos diagonales de la matriz sombrero son los apalancamientos.
$$H = X \left(X^\top X \right)^{-1} X^\top$$
$$L_i = h_{ii}$$
Where:
- $H$ es la matriz Hat a términos de error no correlacionados.
- $\mathbf{X}$ is a (N x 2) matriz de variables explicativas donde la primera columna son todos unos.
- $L_i$ es la estadística de apalancamiento para la observación i -ésima .
- $h_{ii}$ es el elemento i-ésimo diagonal en la matriz sombrero.
- La distancia de Cook mide el efecto de eliminar una observación dada. Los puntos de datos con residuales grandes (outliers) y/o alto apalancamiento pueden distorcionar la salida y exactitud de un aregresion. Puntos con gran distancia de Cook son considerados para merecer un exámen más detallado en el análisis.
$$D_i = \frac{e_i^2}{p \ \mathrm{MSE}}\left[\frac{h_{ii}}{(1-h_{ii})^2}\right]$$
Donde:- $D_i$ es la distanica de Cook para la observacion i-ésima.
- $h_{ii}$ es la estadistica de apalancamiento (o elemento diagonal i-ésimo en la matriz sombrero).
- $\mathrm{MSE}$ es el error cuadrático medio del modelo de regresión.
- $p$ es el número de variables explicativas (en caso de SLP, p = 1 )
- $e_i$ es el término de error ( residual) para la observación i -ésima.
- Hay diferentes opiniones con respecto a lo que los valores de corte de utilizar para la detección de puntos de gran influencia, pero generalmente hablando, un valor sobre $\frac{1}{N}$ es un buen candidato para ejercer influencia en la regresión y promover una investigación posiblemente en orden.
- Los datos de muestra pueden incluir valores faltantes.
- Cada columna en la matriz de entrada corresponde a una variable independiente.
- Cada fila en la matriz de entrada corresponde a una observación.
- Observaciones (Ej. filas) con valores faltantes en X o Y son removidos.
- El número de filas de la variable de respuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
- La función SLR_FITTED está disponible comenzando con la versión 1.60 APACHE.
Ejemplos de archivos
Enlaces Relacionados
- Wikipedia - Linear regression Wikipedia - Análisis de la regresión Wikipedia - Mínimos cuadrados ordinarios
Referencias
- Hamilton, J .D.; Time Series Analysis , Princeton University Press (1994), ISBN 0-691-04289-6
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285
Comentarios
El artículo está cerrado para comentarios.