Calcula la medida de l a bondad de ajuste (Ej. LLF, AIC, R^2).
Sintaxis
MLR_GOF (X, Mask, Y, Intercept, Return)
- X
- es la matriz de datos de variables independientes (explicativas), de manera que cada columna representa una variable.
- Mask
- es la matriz booleana para escoger las variables explicativas en el modelo. Si falta, todas las variables en X son incluidas.
- Y
- es la respuesta o matriz de datos variable dependiente (una matriz unidimensional de celdas (Ej. filas o columnas)).
- Intercept
- es el valor constante o el valor del intercepto para fijar (Ej. cero). Si falta, un inetercepto no será fijado y se calcula normalmente.
- Return
- es un switch para seleccionar una medida de ajuste (1 = R-Cuadrado (por defecto), 2 = R-Cuadrado ajustado, 3 = RMSE, 4 = LLF, 5 = AIC, 6 = BIC/SIC).
Valor Return 1 R-Cuadrado (coeficiente de determinación) (por defecto). 2 R-Cuadrado ajustado. 3 Error de regresión (RMSE). 4 Log-likelihood (LLF). 5 Criterio de información Akaike (AIC). 6 Criterio de información Schwartz/Bayesiano (SBIC).
Observaciones
- El modelo subyacente se describe aquí.
- El coeficiente de determinación, denotado $R^2$, provee una medida de lo bien que se replican los resultados observados del modelo. $$R^2 = \frac{\mathrm{SSR}} {\mathrm{SST}} = 1 - \frac{\mathrm{SSE}} {\mathrm{SST}}$$
- The adjusted R-square (denoted $\bar R^2$) is an attempt to take account of the phenomenon of the $R^2$ automatically and spuriously increasing when extra explanatory variables are added to the model. The $\bar R^2$ adjusts for the number of explanatory terms in a model relative to the number of data points. $$\bar R^2 = {1-(1-R^{2}){N-1 \over N-p-1}} = {R^{2}-(1-R^{2}){p \over N-p-1}} = 1 - \frac{\mathrm{SSE}/(N-p-1)}{\mathrm{SST}/(N-1)}$$ Donde:
- $p$ es el número de variables explicativas en el modelo.
- $N$ es el número de observaciones en la muestra .
- El error de regresión se define como la raíz cuadrada del error cuadrado medio (RMSE): $$\mathrm{RMSE} = \sqrt{\frac{SSE}{N-p-1}}$$
- La verosimilitud de la regresión es dada como: $$\mathrm{LLF}=-\frac{N}{2}\left(1+\ln(2\pi)+\ln\left(\frac{\mathrm{SSR}}{N} \right ) \right )$$ El criterio de información Akaike and Schwarz/Bayesiano se dan como: $$\mathrm{AIC}=-\frac{2\mathrm{LLF}}{N}+\frac{2(p+1)}{N}$$ $$\mathrm{BIC} = \mathrm{SIC}=-\frac{2\mathrm{LLF}}{N}+\frac{(p+1)\times\ln(p+1)}{N}$$
- Los datos de la muestra pueden incluir valores faltantes.
- Cada columna en el la matriz de entrada corresponde a una variable separada.
- Cada fila en la matriz correpsonde a una observación.
- Observaciones (Ej. filas) con valores faltantes en X o en Y son eliminados.
- El número de filas de la variable de respuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
- La función MLR_GOF está disponible comenzando con la versión 1.60 APACHE.
Ejemplos de archivos
Enlaces Relacionados
- Wikipedia - Regresión lineal.
- Wikipedia - Análisis de la regresión.
- Wikipedia - Mínimos cuadrados ordinarios.
Referencias
- Hamilton, J.D.; Time Series Analysis, Princeton University Press (1994), ISBN 0-691-04289-6.
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285.
Comentarios
El artículo está cerrado para comentarios.