Calcula los valores de los coeficientes de regresión (mínimos cuadrados ordinarios), en Inglés OLS (ordinary least squares).
Sintaxis
X es el array de datos de la variable independiente (también conocida como explicativa o predictiva), un array unidimensional de celdas (Ej. filas o columnas).
Y es la respuesta o array de datos de la variable dependiente (array unidimensional de celdas (Ej. filas o columnas)).
Intercept is the constant or the intercept value to fix (e.g. zero). If missing, an intercept will not be fixed and is computed normally.
Return_type es un switch para seleccionar la salida de resultados (1 = valor de la media (defecto), 2 = error estándar, 3 = puntaje de la prueba, 4 = valor p, 5 = límite superior, 6 = límite inferior).
Método | Descripción |
---|---|
1 | Valor de la media |
2 | Error estándar |
3 | El estadístico T |
4 | Valor P |
5 | límite superior |
6 | límite superior |
Parameter Index es un switch para designar el parámetro objetivo (0 = intercepto (defecto), 1 = variable explicativa).
Método | Descripción |
---|---|
0 | Intercepto |
1 | Variable explicativa |
Alpha es la significancia estadística de la prueba (es decir, alfa). si falta o es omitida, se toma un valor de alfa de 5%.
Observaciones
- El modelo subyacente se describe aquí.
- La pendiente de la regresión (i.e. $\beta$) se calcula de la siguiente manera:
$$\beta = \frac{\sum_{i=1}^N (X_i-\bar X)(Y_i-\bar Y)}{\sum_{i=1}^N (X_i-\bar X)^2}$$
Y el intercepto (i.e. $\alpha$) es expresado de la siguiente manera:
$$\alpha = \bar Y - \beta \bar X$$
Donde:- $N$ es el número de observaciones.
- $\bar X$ es el promedio de la muestra empírica para la variable explicativa ($X$).
- $\bar Y$ es el promedio de la muestra para la variable dependiente ($Y$).
- Los errores estándar en los coeficientes de regresión son expresados de la siguinete manera:
$$ \mathrm{Var}(\beta) = \frac{\mathrm{MSE}}{\sum_{i=1}^N(X_i-\bar X)^2}$$
$$\mathrm{Var}(\alpha)=\mathrm{MSE}\times\left(\frac{1}{N}+\frac{\bar X^2}{\sum_{i=1}^N(X_i-\bar X)^2} \right )$$
Donde:
- $\mathrm{Var}(.)$ denota la varianza estadística
- $\mathrm{MSE} = \frac{\mathrm{SSE}}{N-2}= \frac{\sum_{i=1}^N (Y_i - \hat Y_i)^2}{N-2}$
- Los datos de la muestra pueden incluir valores faltantes.
- Cada columna en la matriz corresponde a una variable independiente.
- Cada fila en la matriz de entrada corresponde a una observación.
- Observaciones (Ej. filas) con valores faltantes en X o Y son elimindadas.
- El número de filas de la variable de respuesta (Y) debe ser igual al número de filas de la variable explicativa (X).
- La función SLR_PARAM está disponible comenzando con la versión 1.60 APACHE.
Ejemplos de archivos
Referencias
- Hamilton, J .D.; Time Series Analysis , Princeton University Press (1994), ISBN 0-691-04289-6
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285
Comentarios
El artículo está cerrado para comentarios.