Utilizador:Antonio Cruz/Rascunhos: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
adicionar hiperligação referência
hiperligações de referências
Linha 1:
==Técnicas de Previsão: Regressão Linear==
 
De acordo com Sousa ([[Logística/Referências#refbSOUSA|2009, p. 315]]), deve-se utilizar a regressão linear simples quando se está perante amostras com duas variáveis, <math>x\,\!</math> e <math>Y\,\!</math> cujos valores estão relacionados de forma linear entre si.
Exemplos típicos da regressão linear são a relação entre altura e peso de uma pessoa, ou o tronco e a altura de uma árvore. Em ambos os casos tem-se uma variável que depende linearmente da outra.
 
Sousa ([[Logística/Referências#refbSOUSA|2009, p. 215]]) define regressão linear simples como um modelo de relação entre uma variável aleatória dependente <math>Y\,\!</math> e uma variável independente <math>x\,\!</math>, com a seguinte expressão:
 
 
Linha 25:
 
 
Segundo Filho ([[Logística/Referências#refFILHOed|2010, p. 94]]), e de acordo com o método dos mínimos quadrados, as estimativas dos parâmetros <math>m\,\!</math> e <math>b\,\!</math> são dados por:
 
:<math>m = \frac{\displaystyle \ S_{xy}}{\displaystyle \ S_{xx}}</math>
Linha 46:
==Regressão linear - qualidade do ajuste==
 
Segundo Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 32]]), a equação de regressão calculada deve ser vista como uma tentativa de explicação das variações da variável dependente, que são resultado de variações na variável independente.
 
Seja <math> \overline Y \,\!</math> a média das observações registadas para a variável dependente. Uma medida utilizada no modelo de regressão para medir a qualidade do mesmo é o grau em que as previsões baseadas na equação da recta de regressão superam as previsões baseadas em <math> \overline Y \,\!</math>.
Linha 52:
Se a dispersão (ou erro) associado à equação da recta de regressão é muito menor do que a dispersão (ou erro) associada a <math> \overline Y \,\!</math>, as previsões da mesma serão melhores do que as previsões baseadas na média das observações registadas.
 
Para medir a qualidade do ajustamento da recta de regressão calculada, Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]) define uma variável, a que chama de coeficiente de determinação, que é calculado da seguinte forma:
 
<math>R^2 = \frac{\displaystyle \ S_{xy}^2}{\displaystyle \ S_{xx}S_{yy}}</math>
Linha 64:
Segundo Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]), <math>R^2\,\!</math> representa a percentagem da variabilidade dos dados observados que são explicados pela recta de regressão, e pode tomar qualquer valor no intervalo de 0 a 1.
Um valor do coeficiente de determinação igual a (ou próximo de) 1 significa que se tem um ajuste perfeito da recta de regressão calculada aos dados observador.
Um valor do coeficiente de determinação igual a (ou próximo de) 0 significa um mau ajuste da recta de regressão aos dados obtidos. Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 35]]) considera que neste caso se está perante uma relação não linear entre as duas variáveis.
 
Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 35]]) define ainda o coeficiente de correlação simples, dado por:
 
<math>r = \pm \sqrt{R^2}\,\!</math>
Linha 76:
==Técnicas de Previsão: Regressão Linear - Limitações da regressão linear==
 
De acordo com Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 16]]), a regressão linear deve ser utilizada com cautela, pois um conjunto de pontos dá evidência da existência de uma relação linear entre as duas variáveis apenas para os valores cobertos no conjunto de dados.
Para valores fora desse conjunto, não há nenhuma prova de linearidade. Pode ser incorrecto utilizar a recta de regressão estimada para prever valores da variável dependente correspondentes a valores da variável independente que estão fora do âmbito dos dados recolhidos.
O autor defende que existe o perigo de fazer a extrapolação fora do âmbito de dados quando a relação linear entre as variáveis pode já não existir fora desse intervalo de dados.
 
Adnan ([[Logística/Referências#refADNAN|2003, p. 30]]) refere ainda que podem existir termos de erro que não tem distribuição normal nem estão independentemente distribuídos. Nestes casos poderá ocorrer distorção da recta de regressão, e, consequentemente, em valores dos parâmetros de regressão com erros.
O autor denomina estes termos de outliers, ou aberrações, e define-os como observações que aparecem como inconsistências no resto do conjunto de dados recolhidos, e que podem ter uma profunda influência na análise estatística de dados, e, consequentemente, na recta de regressão estimada.
Para Rosado ([[Logística/Referências#refROSADO|2009, p. 13]]) o outlier é frequentemente o valor máximo ou mínimo da amostra, embora a discordância de valores poderá não manifestar-se exclusivamente nos extremos.
 
Para Maia ([[Logística/Referências#refbMAIA|2004, p. 2]]), quando duas variáveis são correlacionadas, pode-se prever valores de uma variável em função do valor da outra variável, embora isso possa levar à conclusão errada de que uma variável é verdadeiramente a causa da variação da outra.
Não é, de acordo com o autor, possível provar uma relação de causa-e-efeito entre ambas as variáveis, mesmo havendo uma expressão matemática que relacione uma variável com a outra.
Há três explicações plausíveis para explicar a existência de um modelo matemático que relacione ambas as variáveis:
Linha 91:
:-A correlação matemática obtida é fruto do acaso.
 
Maia ([[Logística/Referências#refbMAIA|2004, p. 2]]) dá o seguinte exemplo para a terceira hipótese: As folhas das árvores caem antes do início do inverno, não significa que se possa concluir que a queda das folhas cause a queda de temperatura da estação de inverno, a relação entre os fenómenos é um acaso da natureza.
 
Linha 98:
Henriques, Carla. - ''Análise de regressão linear simples''. Viseu, [2009]. [Consult. Em 1 Mar. 2011]. Disponível em WWW:<URL:http://www.estv.ipv.pt/PaginasPessoais/psarabando/Estat%C3%ADstica%20%20CA%202009-2010/slides/regress%C3%A3o/Parte%201/regressao%20aluno.pdf>
 
<div id=refbSOUSA> Sousa, N. - ''Regressão''. Coimbra, [2009]. [Consult. 18 Fev. 2011]. Disponível em WWW:<URL:http://www.esac.pt/nsousa/6_regressao.pdf>
 
Filho, Edson D. - ''Estatística aplicada à administração''. Maranhão, [2010]. [Consult. Em 22 Fev. 2011]. Disponível em WWW:<URL:http://www.aurea.uac.pt/pdf_MBA/coef_correl_Pearson.pdf >
 
Robiah Adnan, Robiah et al. - ''Multiple outliers detection procedures in linear regression''. Johor, [2003]. [Consult. Em 11 Mar. 2011]. Disponível em WWW:<URL:http://eprints.utm.my/1193/1/RobiahAdnan2003_MultipleOutliersDetectionProcedures.pdf>
 
Rosado, Fernando. - ''Outliers bayesianos em estatística forense?''. Lisboa, [2009]. [Consult. Em 11 Mar. 2011]. Disponível em WWW:<URL:http://www.ceaul.fc.ul.pt/getfile.asp?where=notas&id=252>