Utilizador:Antonio Cruz/Rascunhos: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
acrescentar texto, limitações
actualização primeira parte
Linha 1:
==Técnicas de Previsão: Regressão Linear (na página do livro está mais completo==
 
De acordo com Sousa (2009, p. 3), deve-se utilizar a regressão linear simples quando se está perante amostras com duas variáveis, <math>x\,\!</math> e <math>Y\,\!</math> cujos valores estão relacionados de forma linear entre si.
Sousa define regressão linear simples como um modelo de relação entre uma
Exemplos típicos da regressão linear são a relação entre altura e peso de uma pessoa, ou o tronco e a altura de uma árvore. Em ambos os casos tem-se uma variável que depende linearmente da outra.
variável aleatória dependente <math>\text {Y}\,\!</math> e uma variável independente <math>\text {x}\,\!</math>, com a seguinte expressão:
 
Sousa (2009, p. 2) define regressão linear simples como um modelo de relação entre uma variável aleatória dependente <math>\text {Y}\,\!</math> e uma variável independente <math>\text {x}\,\!</math>, com a seguinte expressão:
 
 
<math>Y = b + mx + e\,\!</math>
 
<math>\,\!</math>
 
Onde:
 
:<math>Y\,\!</math> éRepresenta a variável dependente ou explicada;
:<math>Xx\,\!</math> Representa a variável independente ou explicativa, cujos erros de medição assumimossão assumidos desprezáveis;
:<math>b\,\!</math> representaRepresenta o valor da ordenada na origem;
:<math>m\,\!</math> éRepresenta o declive;
:<math>e\,\!</math> representaRepresenta o erro que provémresulta do facto de <math>Y\,\!</math> ter características aleatórias.
 
 
Assume-se <math>e\ \sim\ \mathcal{N}(0,\,\sigma^2). \,</math>
 
 
Os parâmetros da recta de regressão a serem estimados são <math>m\,\!</math> e <math>b\,\!</math>.
 
 
Segundo Filho (2010, p. 94), e de acordo com o método dos mínimos quadrados, as estimativas dos parâmetros <math>m\,\!</math> e <math>b\,\!</math> são dados por:
 
:<math>m = \frac{\displaystyle \ S_{xy}}{\displaystyle \ S_{xx}}</math>
 
:<math>b=\overline Y - m\overline X \,</math>
 
 
Onde:
 
: <math>S_{xx}\ \,</math> Representa a variabilidade de <math>x\,\!</math>, e é dada por <math>\sum_{i=1}^\infty ({x_i}^2 - n\overline x^2)\,</math> ;
 
: <math>S_{xy}\ \,</math> Representa a variabilidade entre <math>x\,\!</math> e <math>Y\,\!</math>, e é dada por <math>\sum_{i=1}^\infty (x_iy_i - n\overline x\overline y )\,</math>;
 
: <math>\overline X \,</math> Representa a média das observações da variável <math>x\,\!</math>, dada por <math> \frac{\displaystyle \sum_{i=1}^n X_i}{n}\,</math>
 
: <math>\overline Y \,</math> Representa a média das observações da variável <math>Y\,\!</math>, dada por <math> \frac{\displaystyle \sum_{i=1}^n Y_i}{n}\,</math>
 
: <math>n\,</math> Representa o número de observações.
 
==Qualidade do ajuste, regressão linear - Falta colocar em formato wiki==