Sousa (2009, p. 20) define regressão linear múltipla como uma relação entre uma variável aleatória dependente,
, e
variáveis independentes,
,
, …,
, com a seguinte expressão:
Onde, tal como no caso da regressão simples, se utiliza o método dos mínimos quadrados para determinar os parâmetros
De acordo com Henriques (2009, p. 22), a expressão acima pode ser re-escrita na forma matricial como:
![{\displaystyle {\begin{bmatrix}y_{1}\\y_{2}\\y_{3}\\y_{4}\\\dots \\y_{n}\end{bmatrix}}={\begin{bmatrix}1&x_{11}&x_{21}&\dots &x_{k1}\\1&x_{12}&x_{22}&\dots &x_{k2}\\1&x_{13}&x_{23}&\dots &x_{k3}\\1&x_{14}&x_{24}&\dots &x_{k4}\\\dots &\dots &\dots &\dots &\dots \\1&x_{1n}&x_{2n}&\dots &x_{kn}\end{bmatrix}}\times {\begin{bmatrix}\beta _{0}\\\beta _{1}\\\beta _{2}\\\beta _{3}\\\dots \\\beta _{k}\end{bmatrix}}+{\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\varepsilon _{3}\\\varepsilon _{4}\\\dots \\\varepsilon _{n}\end{bmatrix}}\Leftrightarrow Y=X\beta +\varepsilon \,\!}](https://wikimedia.org/api/rest_v1/media/math/render/svg/399a68b7ea5b29f3799fbe3796ea740ffd2d3bb6)
Onde:
:
|
matriz das observações da variável dependente;
|
:
|
matriz das observações da variável independente, ou matriz significativa do modelo;
|
:
|
vector dos parâmetros de regressão a serem estimados;
|
:
|
vector do erro que resulta do facto de ter características aleatórias.
|
Admite-se que
,
, ...,
são variáveis aleatórias independentes de média 0 e desvio padrão
.
Da mesma forma que na regressão simples se utiliza o método dos mínimos quadrados para estimar os parâmetros da regra de regressão, o mesmo acontece na regressão múltipla, da qual se obtém que o vector dos parâmetros da regressão é dado por:
Caso ocorra
, está-se perante um problema de regressão linear simples, que também pode ser resolvido desta forma.
Um exemplo de regressão múltipla, dado por Henriques (2009, p. 18), é a relação entre o volume de vendas efectuadas num período de tempo por um vendedor, os seus anos de experiência, e a sua pontuação num teste de inteligência.