Dado un conjunto de datos $\{y_i,\, x_{i1}, \ldots, x_{ip}\}_{i=1}^n$ de unidades estadísticas n, un modelo de regresión lineal asume que la relación entre la variable dependiente yi y el p-vector de regresores xi es lineal. Esta relación se modela a través de un término de error o variable de error εi - una variable aleatoria no observada que añade ruido a la relación lineal entre la variable dependiente y regresores.
El MLR se describe de la siguiente maenera:
$$ y_i = \beta_1 x_{i1} + \cdots + \beta_p x_{ip} + \varepsilon_i = \mathbf{x}^{\rm T}_i\boldsymbol\beta + \varepsilon_i, \qquad i = 1, \ldots, n, $$
Donde:
- $\mathbf{x}^{\rm T}_i$ es la matriz traspuesta
A menudo, estas n ecuaciones se apilan y se escriben en forma vectorial como
$$\mathbf{y} = \mathbf{X}\boldsymbol\beta + \boldsymbol\varepsilon, \, $$
$$\mathbf{y} = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}, \quad \mathbf{X} = \begin{pmatrix} \mathbf{x}^{\rm T}_1 \\ \mathbf{x}^{\rm T}_2 \\ \vdots \\ \mathbf{x}^{\rm T}_n \end{pmatrix} = \begin{pmatrix} x_{11} & \cdots & x_{1p} \\ x_{21} & \cdots & x_{2p} \\ \vdots & \ddots & \vdots \\ x_{n1} & \cdots & x_{np} \end{pmatrix}, \quad \boldsymbol\beta = \begin{pmatrix} \beta_1 \\ \beta_2 \\ \vdots \\ \beta_p \end{pmatrix}, \quad \boldsymbol\varepsilon = \begin{pmatrix} \varepsilon_1 \\ \varepsilon_2 \\ \vdots \\ \varepsilon_n \end{pmatrix}. $$
Notas
- $y_i\,$ es un variable dependient en una regresión
- $\mathbf{x}_i\,$ son llamados regresores, variables exógenas, variables explicativas, covariantes, variables de entrada, variables de predicción, o variables independientes (véase variables dependientes e independientes, pero no deben confundirse con las variables aleatorias independientes).
- Por lo general, una constante se incluye como uno de los regresores que se llama el intercepto.
Ejemplos de archivos
Enlaces Relacionados
- Wikipedia - Regresión lineal
- Wikipedia - Análisis de la regresión
- Wikipedia - Mínimos cuadrados ordinarios
Referencias
- Hamilton, J .D.; Time Series Analysis , Princeton University Press (1994), ISBN 0-691-04289-6
- Kenney, J. F. and Keeping, E. S. (1962) "Linear Regression and Correlation." Ch. 15 in Mathematics of Statistics, Pt. 1, 3rd ed. Princeton, NJ: Van Nostrand, pp. 252-285
Comentarios
El artículo está cerrado para comentarios.