En estadística, la regresión lineal simple es el estimador de mínimos cuadrados de un modelo de regresión lineal con una sola variable explicativa. En otras palabras, la regresión lineal simple se ajusta a una línea recta a través del conjunto de n puntos, de tal manera que hace que la suma de los residuos al cuadrado del modelo (es decir, las distancias verticales entre los puntos del conjunto de datos y la línea ajustada) sea lo más pequeño posible.
For the SLR, el objetivo es encontrar una línea recta que proporcionan el mejor ajuste para los puntos de datos $\left(x_i,y_i\right)$
$$y = \alpha + \beta \times x$$
Donde:
- $\alpha$ es la constante (conocida como intercepto) de la regresión.
- $\beta$ s el coeficiente (conocido como pendiente) de una variable explicativa.
Notas
- El número de filas de variable de respuesta (Y) debe ser igual al número de filas de las variables explicativas (X).
- Por definición, la línea de regresión pasa a través del centro de masa $\left( \bar X, \bar Y \right )$
Ejemplos de archivos
Enlaces Relacionados
- Wikipedia - Regresión lineal
- Wikipedia - Análisis de la regresión
- Wikipedia - Mínimos cuadrados ordinarios
Referencias
- Hamilton, J .D.; Time Series Analysis , Princeton University Press (1994), ISBN 0-691-04289-6
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285
Comentarios
El artículo está cerrado para comentarios.