Utilizador:Antonio Cruz/Rascunhos: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
hiperligação wiki
actualização do texto
Linha 1:
==Técnicas de Previsão: Regressão Linear==
De acordo com Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]), deve-se utilizar a regressão linear simples quando se está perante amostras com duas [[w:Variável_(matemática)|variáveis]], <math>x\,\!</math> e <math>Yy\,\!</math> cujos valores estão relacionados de forma linear entre si.
Exemplos típicos da regressão linear são a relação entre altura e peso de uma pessoa, ou o diâmetro do tronco e a altura de uma árvore. Em ambos os casos tem-se uma variável que depende linearmente da outra.
 
Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]) define regressão linear simples como um modelo de relação entre uma variável aleatória dependente <math>Yy\,\!</math> e uma variável independente <math>x\,\!</math>, com a seguinte expressão:
 
 
<math>Yy = b + mx + e\,\!</math>
 
 
Linha 13:
{|
|-
| align="right" | <math>Yy\,\!</math>:
| variável dependente ou explicada;
|-
Linha 26:
|-
| align="right" | <math>e\,\!</math>:
| erro que resulta do facto de <math>Yy\,\!</math> ter características aleatórias.
|}
 
Linha 36:
 
 
Segundo FilhoFerreira ([[Logística/Referências#refFILHOed|2010, p. 94]]) e Sousa ([[Logística/Referências#refbSOUSA|2009, p. 8]]), e de acordo com opelo método dos mínimos quadrados, as estimativas dos parâmetros <math>m\,\!</math> e <math>b\,\!</math> são dadosdadas por:
 
:<math>m = \frac{\displaystyle \ S_{xy}}{\displaystyle \ S_{xx}}</math>
 
:<math>b=\overline Yy - m\overline Xx \,</math>
 
 
Linha 47:
{|
|-
| align="right" | <math>S_{xx}\ \,</math>:
| variabilidade de <math>x\,\!</math>, e é dada por <math>\sum_{i=1}^\inftyn ({x_i})^2 - n\overline x^2)\,</math>;
|-
| align="right" | <math>S_{xy}\ \,</math>:
| variabilidade entre <math>x\,\!</math> e <math>Yy\,\!</math>, e é dada por <math>\sum_{i=1}^\inftyn (x_iy_i) - n\overline x\overline y )\,</math>;
|-
| align="right" | <math>\overline Xx \,</math>:
| média das observações da variável <math>x\,\!</math>, dada por <math> \frac{,\!(\displaystyle \sum_{i=1}^n X_i}x_i)\!{n/}\,!n</math>;
|-
| align="right" | <math>\overline Yy \,</math>:
| média das observações da variável <math>Yy\,\!</math>, dada por <math> \frac{,\!(\displaystyle \sum_{i=1}^n Y_i}y_i)\!{n/}\,!n</math>;
|-
| align="right" | <math>n\,</math>:
Linha 63:
|}
 
==Técnicas de Previsão: Qualidade do ajustamento==
==Regressão linear - qualidade do ajuste==
 
Segundo Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 32]]), a equação de regressão calculada deve ser vista como uma tentativa de explicação das variações da variável dependente, que são resultado de variações na variável independente.
 
Seja <math> \overline Yy \,\!</math> a média das observações registadas para a variável dependente. Uma medida utilizadaprevisão baseada no modelo de regressão paradeve medirter amais qualidade do mesmo é o grau em que as previsões baseadas na equação da recta de regressão superam asuma previsõesprevisão baseadasbaseada em <math> \overline Yy \,\!</math>.
 
Se a dispersão (ou erro) associado à equação da recta de regressão é muito menor do que a dispersão (ou erro) associada a <math> \overline Yy \,\!</math>, as previsões dado mesmamodelo serãode regressão são melhores do que as previsões baseadas na média das observações registadas.
 
Para medir a qualidade do ajustamento da recta de regressão calculada, Sousa ([[Logística/Referências#refbSOUSA|Sousa, 2009, p. 15]]) define-se uma variávelquantidade, a que se chama de coeficiente de determinação, que é calculadocalculada da seguinte forma:
 
<math>R^2 = \frac{\displaystyle \ S_{xy}^2}{\displaystyle \ S_{xx}S_{yy}}</math>
Linha 83:
|-
| align="right" | <math>S_{yy}\ \,</math>:
| variabilidade de <math>Yy\,\!</math>, e é dada por <math>\sum_{i=1}^\inftyn ({y_i})^2 - n\overline y^2)\,</math>.
|}
 
Segundo Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]), <math>R^2\,\!</math> representa a percentagem da variabilidade dos dados observados que é explicada pela recta de regressão e pode tomar qualquer valor no intervalo de 0 a 1.
Um valor do coeficiente de determinação igual a (ou próximo de) <math>1\,\!</math> significa que se tem um ajuste perfeito da recta de regressão calculada aos dados observadorobservados.
Um valor do coeficiente de determinação igual a (ou próximo de) <math>0\,\!</math> significa um mau ajuste da recta de regressão aos dados obtidos. Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 35]]) considera que neste caso se está perante uma relação não linear entre as duas variáveis.
 
Segundo SousaHenriques ([[Logística/Referências#refbSOUSArefbHENRIQUES|2009, p. 1535]]), <math>R^2\,\!</math>define representaainda ao percentagemcoeficiente dade variabilidadecorrelação dos dados observados que são explicados pela recta de regressãosimples, e pode tomar qualquer valor no intervalo de <math>0r\,\!</math>, a <math>1\,\!</math>.dado por:
Um valor do coeficiente de determinação igual a (ou próximo de) <math>1\,\!</math> significa que se tem um ajuste perfeito da recta de regressão calculada aos dados observador.
Um valor do coeficiente de determinação igual a (ou próximo de) <math>0\,\!</math> significa um mau ajuste da recta de regressão aos dados obtidos. Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 35]]) considera que neste caso se está perante uma relação não linear entre as duas variáveis.
 
Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 35]]) define ainda o coeficiente de correlação simples,<math>r\,\!</math>, dado por:
 
<math>r = \pm \sqrt{R^2}\,\!</math>
Linha 97 ⟶ 96:
Onde o sinal de positivo ou negativo é o mesmo que o sinal do declive <math>m\,\!</math>.
 
O valor de <math>r\,\!</math> pode tomar qualquer valor no intervalo de <math>-1\,\!</math> a <math>1\,\!</math>, onde <math>r = 1\,\!</math> ou <math>r = -1\,\!</math> indicam uma relação linear perfeita (positiva e negativa, respectivamente) entre as duas variáveis, <math>r = 0\,\!</math> indica uma relação não linear entre as duas variáveis, ou mesmo a inexistência de uma relação entre as mesmas, e <math>r < 0\,\!</math> indica uma relação linear negativa e <math>r > 0\,\!</math> indica uma relação linear positiva entre as variáveis <math>x\,\!</math> e <math>Yy\,\!</math>.
{{AutoCat}}
 
==Técnicas de Previsão: Regressão Linear - Limitações da regressão linear==
 
De acordo com Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 16]]), a regressão linear deve ser utilizada com cautela, pois um conjunto de pontos dá evidência da existência de uma relação linear entre as duas variáveis apenas para os valores cobertos no conjunto de dados.
Linha 112:
Não é, de acordo com o autor, possível provar uma relação de causa-e-efeito entre ambas as variáveis, mesmo havendo uma expressão matemática que relacione uma variável com a outra.
Há três explicações plausíveis para explicar a existência de um modelo matemático que relacione ambas as variáveis:
:-existênciaExistência de uma relação efectiva de causa-e-efeito entre as variáveis;
:-As duas variáveis relacionam-se com uma terceira variável;
:-A correlação matemática obtida é fruto do acaso.
 
Maia ([[Logística/Referências#refbMAIA|2004, p. 2]]) dá o seguinte exemplo para a terceira hipótese: As folhas das árvores caem antes do início do inverno, não significa que se possa concluir que a queda das folhas cause a queda de temperatura da estação de inverno, a relação entre os fenómenos é um acaso da natureza.
 
 
==Referências==