Utilizador:Antonio Cruz/Rascunhos: diferenças entre revisões

novo tema
(actualização do texto)
(novo tema)
TEXTO EM PROCESSO DE TRADUÇÃO
==Técnicas de Previsão: Regressão Linear==
GLASS
De acordo com Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]), deve-se utilizar a regressão linear simples quando se está perante amostras com duas variáveis, <math>x\,\!</math> e <math>y\,\!</math> cujos valores estão relacionados de forma linear entre si.
Bottles, jars, and jugs and ampoules made of glass are
Exemplos típicos da regressão linear são a relação entre altura e peso de uma pessoa, ou o diâmetro do tronco e a altura de uma árvore. Em ambos os casos tem-se uma variável que depende linearmente da outra.
used in the industry for food and pharmaceutical packaging.
 
Glass packaging is usually formed directly from the
Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]) define regressão linear simples como um modelo de relação entre uma variável aleatória dependente <math>y\,\!</math> e uma variável independente <math>x\,\!</math>, com a seguinte expressão:
molten raw materials into the package. This means that
 
material testing generally must be conducted on the
 
package itself rather than on a sheet or resin pellet as is
<math>y = b + mx + e\,\!</math>
an option in papers, metals, and plastics. Most standards
 
have to do with maintaining production quality and
 
dimensional consistency (Table 5).
Onde:
Glass properties are dependent on the composition.
 
Appropriately equipped analytical laboratories can determine
{|
this, but in glass manufacturing plants, density and
|-
softening point can be substituted for a full analysis.
| align="right" | <math>y\,\!</math>:
Strength in glass is not typically measured using a
| variável dependente ou explicada;
tensile strength as in most other materials, because it is
|-
extremely strong but extremely brittle. Compressive
| align="right" | <math>x\,\!</math>:
strength measurements of glass result in much higher
| variável independente ou explicativa, cujos erros de medição são assumidos desprezáveis;
strength values than tensile strength measurements.
|-
Glass packages generally break at lower values than
| align="right" | <math>b\,\!</math>:
the theoretical expectations because of small cracks on
| valor da ordenada na origem;
the surface that serve as stress concentration points.
|-
Online application of pressure, at squeezing stations on
| align="right" | <math>m\,\!</math>:
glass package-making lines, is used to prevent cracked,
| declive;
broken, or weak packages from advancing into the process.
|-
Internal pressure resistance is an important property
| align="right" | <math>e\,\!</math>:
of glass containers, which will endure pressures
| erro que resulta do facto de <math>y\,\!</math> ter características aleatórias.
such as sterilizing in the package and carbonation. The
|}
compressive strength of glass packages reflects their
 
ability to support the load in stacking systems and
 
when closures are applied. It is generally addressed
Assume-se <math>e\ \sim\ \mathcal{N}(0,\,\sigma^2). \,</math>
during the design stage by selecting appropriate neck
 
and body diameters and shoulder radius. The heel design
 
of containers can also improve strength.
Os parâmetros da recta de regressão a serem estimados são <math>m\,\!</math> e <math>b\,\!</math>.
 
 
Segundo Ferreira ([[Logística/Referências#refFILHOed|2010, p. 94]]) e Sousa ([[Logística/Referências#refbSOUSA|2009, p. 8]]), pelo método dos mínimos quadrados, as estimativas dos parâmetros <math>m\,\!</math> e <math>b\,\!</math> são dadas por:
 
:<math>m = \frac{\displaystyle \ S_{xy}}{\displaystyle \ S_{xx}}</math>
 
:<math>b=\overline y - m\overline x \,</math>
 
 
Onde:
 
{|
|-
| align="right" | <math>S_{xx}\ \,</math>:
| variabilidade de <math>x\,\!</math>, dada por <math>\sum_{i=1}^n ({x_i})^2 - n\overline x^2\,</math>
|-
| align="right" | <math>S_{xy}\ \,</math>:
| variabilidade entre <math>x\,\!</math> e <math>y\,\!</math>, dada por <math>\sum_{i=1}^n (x_iy_i) - n\overline x\overline y \,</math>
|-
| align="right" | <math>\overline x \,</math>:
| média das observações da variável <math>x\,\!</math>, dada por <math>\,\!(\displaystyle \sum_{i=1}^n x_i)\!{/}\!n</math>
|-
| align="right" | <math>\overline y \,</math>:
| média das observações da variável <math>y\,\!</math>, dada por <math>\,\!(\displaystyle \sum_{i=1}^n y_i)\!{/}\!n</math>
|-
| align="right" | <math>n\,</math>:
| número de observações.
|}
 
==Técnicas de Previsão: Qualidade do ajustamento==
 
Segundo Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 32]]), a equação de regressão deve ser vista como uma tentativa de explicação das variações da variável dependente, que são resultado de variações na variável independente.
 
Seja <math> \overline y \,\!</math> a média das observações registadas para a variável dependente. Uma previsão baseada no modelo de regressão deve ter mais qualidade do que uma previsão baseada em <math> \overline y \,\!</math>.
 
Se a dispersão (ou erro) associado à equação da recta de regressão é muito menor do que a dispersão (ou erro) associada a <math> \overline y \,\!</math>, as previsões do modelo de regressão são melhores do que as previsões baseadas na média das observações registadas.
 
Para medir a qualidade do ajustamento da recta de regressão calculada ([[Logística/Referências#refbSOUSA|Sousa, 2009, p. 15]]) define-se uma quantidade, a que se chama de coeficiente de determinação, que é calculada da seguinte forma:
 
<math>R^2 = \frac{\displaystyle \ S_{xy}^2}{\displaystyle \ S_{xx}S_{yy}}</math>
 
Onde:
 
{|
|-
| align="right" | <math>R^2\,\!</math>:
| coeficiente de determinação;
|-
| align="right" | <math>S_{yy}\ \,</math>:
| variabilidade de <math>y\,\!</math>, e é dada por <math>\sum_{i=1}^n ({y_i})^2 - n\overline y^2\,</math>.
|}
 
Segundo Sousa ([[Logística/Referências#refbSOUSA|2009, p. 15]]), <math>R^2\,\!</math> representa a percentagem da variabilidade dos dados observados que é explicada pela recta de regressão e pode tomar qualquer valor no intervalo de 0 a 1.
Um valor do coeficiente de determinação igual a (ou próximo de) 1 significa que se tem um ajuste perfeito da recta de regressão calculada aos dados observados.
Um valor do coeficiente de determinação igual a (ou próximo de) 0 significa um mau ajuste da recta de regressão aos dados. Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 35]]) considera que neste caso se está perante uma relação não linear entre as duas variáveis.
 
Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 35]]) define ainda o coeficiente de correlação simples, <math>r\,\!</math>, dado por:
 
<math>r = \pm \sqrt{R^2}\,\!</math>
 
Onde o sinal de positivo ou negativo é o mesmo que o sinal do declive <math>m\,\!</math>.
 
O valor de <math>r\,\!</math> pode tomar qualquer valor no intervalo de -1 a 1, onde r = 1 ou r = -1 indicam uma relação linear perfeita (positiva e negativa, respectivamente) entre as duas variáveis, r = 0 indica uma relação não linear entre as duas variáveis ou mesmo a inexistência de uma relação entre as mesmas, e r < 0 indica uma relação linear negativa e r > 0 indica uma relação linear positiva entre as variáveis <math>x\,\!</math> e <math>y\,\!</math>.
{{AutoCat}}
 
==Técnicas de Previsão: Limitações==
 
De acordo com Henriques ([[Logística/Referências#refbHENRIQUES|2009, p. 16]]), a regressão linear deve ser utilizada com cautela, pois um conjunto de pontos dá evidência da existência de uma relação linear entre as duas variáveis apenas para os valores cobertos no conjunto de dados.
Para valores fora desse conjunto, não há nenhuma prova de linearidade. Pode ser incorrecto utilizar a recta de regressão estimada para prever valores da variável dependente correspondentes a valores da variável independente que estão fora do âmbito dos dados recolhidos.
O autor defende que existe o perigo de fazer a extrapolação fora do âmbito de dados quando a relação linear entre as variáveis pode já não existir fora desse intervalo de dados.
 
Adnan ([[Logística/Referências#refADNAN|2003, p. 30]]) refere ainda que podem existir termos de erro que não tem distribuição normal nem estão independentemente distribuídos. Nestes casos poderá ocorrer distorção da recta de regressão, e, consequentemente, em valores dos parâmetros de regressão com erros.
O autor denomina estes termos de outliers, ou aberrações, e define-os como observações que aparecem como inconsistências no resto do conjunto de dados recolhidos, e que podem ter uma profunda influência na análise estatística de dados, e, consequentemente, na recta de regressão estimada.
Para Rosado ([[Logística/Referências#refROSADO|2009, p. 13]]) o outlier é frequentemente o valor máximo ou mínimo da amostra, embora a discordância de valores poderá não manifestar-se exclusivamente nos extremos.
 
Para Maia ([[Logística/Referências#refbMAIA|2004, p. 2]]), quando duas variáveis são correlacionadas, pode-se prever valores de uma variável em função do valor da outra variável, embora isso possa levar à conclusão errada de que uma variável é verdadeiramente a causa da variação da outra.
Não é, de acordo com o autor, possível provar uma relação de causa-e-efeito entre ambas as variáveis, mesmo havendo uma expressão matemática que relacione uma variável com a outra.
Há três explicações plausíveis para explicar a existência de um modelo matemático que relacione ambas as variáveis:
:-Existência de uma relação efectiva de causa-e-efeito entre as variáveis;
:-As duas variáveis relacionam-se com uma terceira variável;
:-A correlação matemática obtida é fruto do acaso.
 
Maia ([[Logística/Referências#refbMAIA|2004, p. 2]]) dá o seguinte exemplo para a terceira hipótese: As folhas das árvores caem antes do início do inverno, não significa que se possa concluir que a queda das folhas cause a queda de temperatura da estação de inverno, a relação entre os fenómenos é um acaso da natureza.
 
 
==Referências==
 
Henriques, Carla. - ''Análise de regressão linear simples''. Viseu, [2009]. [Consult. Em 1 Mar. 2011]. Disponível em WWW:<URL:http://www.estv.ipv.pt/PaginasPessoais/psarabando/Estat%C3%ADstica%20%20CA%202009-2010/slides/regress%C3%A3o/Parte%201/regressao%20aluno.pdf>
 
Sousa, N. - ''Regressão''. Coimbra, [2009]. [Consult. 18 Fev. 2011]. Disponível em WWW:<URL:http://www.esac.pt/nsousa/6_regressao.pdf>
 
Filho, Edson D. - ''Estatística aplicada à administração''. Maranhão, [2010]. [Consult. Em 22 Fev. 2011]. Disponível em WWW:<URL:http://www.aurea.uac.pt/pdf_MBA/coef_correl_Pearson.pdf >
 
Adnan, Robiah et al. - ''Multiple outliers detection procedures in linear regression''. Johor, [2003]. [Consult. Em 11 Mar. 2011]. Disponível em WWW:<URL:http://eprints.utm.my/1193/1/RobiahAdnan2003_MultipleOutliersDetectionProcedures.pdf>
 
Rosado, Fernando. - ''Outliers bayesianos em estatística forense?''. Lisboa, [2009]. [Consult. Em 11 Mar. 2011]. Disponível em WWW:<URL:http://www.ceaul.fc.ul.pt/getfile.asp?where=notas&id=252>
 
Maia, Sinézio. - ''Correlação e causalidade''. Paraíba, [2004]. [Consult. Em 13 Mar. 2011]. Disponível em WWW:<URL:http://www.sineziomaia.hpg.com.br/AULA02G.PDF>
102

edições