Utilizador:Gonçalo Ferreira/Rascunhos
Esta página está reservada para os rascunhos do meu trabalho.
Transformações e ajustamentos
Por vezes, ajustar os dados históricos leva a modelos de previsão mais simples e facilmente interpretáveis. Existem três tipos de ajuste:
- Transformações matemáticas (tais como logaritmos e raízes quadrados);
- Ajustes para remover a variação dos dados relativa a efeitos do calendário;
- Ajustes relacionados com mudanças e aumento da população.
Transformações matemáticas
A transformação matemática é o método conveniente para ter em consideração o aumento da variação dos dados.
Uma das transformações é a função raiz quadrada, que ajuda a reduzir a variação do tamanho dos ciclos anuais, facilitando assim, a previsão dos dados. Existem outras transformações possíveis, no entanto, a raiz quadrada e o logaritmo são as mais úteis. Os logaritmos são particularmente úteis porque são mais fáceis de interpretar (alterações no valor do logaritmo levam a alterações percentuais na escala original). Uma lista de transformações é apresentada na tabela seguinte:
Raiz quadrada | |||||||||
Raiz cúbica | |||||||||
Logaritmo | |||||||||
Simétrico do Inverso | |||||||||
Cada uma destas transformações é um membro da família das transformações de potência onde:
Para a transformação é simplesmente , para é a raiz quadrada e para é o simétrico do inverso. A transformação de potência para está definida como o logaritmo porque para valores de próximos de comporta-se como um logaritmo. Para , o sinal negativo na transformação de potência é usado para que todas as transformações resultem em funções crescentes (a variável transformada aumenta com o aumento de ). O parâmetro pode ser qualquer número se os dados forem positivos, superior a zero se estes tiverem zeros e se forem negativos não é possível utilizar transformações de potência a não ser que estas sejam ajustadas primeiro através da adição de uma constante a todos os valores.
As previsões são calculadas nos dados transformados em vez de nos originais. No entanto, como o interesse está na previsão dos dados originais, é necessário reverter a transformação. Geralmente as transformações revertidas da potência são dadas por:
==============================
editarPara além da representação gráfica, é também útil fornecer resumos numéricos. A um resumo numérico de um determinado conjunto de dados dá-se o nome de estatística (Makridakis, 1998, p. 28-29).
Para um único conjunto de dados (dados univariados) ou uma única série temporal, as estatísticas descritivas mais comuns são a média, o desvio padrão e a variância.
Para um par de variáveis aleatórias (dados bivariados) tem interesse descrever a relação entre os dois conjuntos de dados. As estatísticas mais usadas para este propósito são a covariância e a correlação.
Finalmente, para uma única série temporal, é muito útil comparar a observação num período de tempo com a observação noutro período de tempo. As duas estatísticas mais comuns neste caso são a autocovariância e a autocorrelação.
Estatísticas univariadas
A média, também conhecida como média aritmética, mede o valor em relação a qual 50 por cento dos desvios estão acima e 50 por cento dos desvios estão abaixo. Isto é, a soma dos desvios em torno da média é zero. Por exemplo (DeLurgio, 1998, p. 41):
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | |
8 | 8 | 11 | 7 | 8 | 12 | 10 | 13 | 13 | |
onde na Tabela 1, é o valor de vendas de um determinado produto nos últimos nove meses. A média das vendas é:
onde é o somatório de = 1 até = 9.
A mediana é uma estatística importante, em relação à qual 50 por cento dos valores são maiores e 50 por cento são menores. Se o número de observações é ímpar e estiverem ordenadas, como acontece na Tabela 2, a mediana é a observação a meio.
7 | 8 | 8 | 8 | 10 | 11 | 12 | 13 | 13 | |
Para as nove observações da Tabela 2, quatro estão acima de 10 e quatro estão abaixo de 10. A mediana é portanto 10.
Nos casos em que existe um número par de observações, a mediana é igual à média entre os valores das duas observações centrais.
A média e a mediana têm o propósito de fornecer uma medida numérica do centro do conjunto de dados (Makridakis, 1998, p. 29).
Para além de medir o centro do conjunto de dados, é também importante medir a dispersão dos dados, de modo a saber se estão fortemente agrupados ou espalhados por uma vasta gama de valores (Makridakis, 1998, p. 30).
A moda é o número ou conjunto de números, que ocorre mais vezes. Nos dados da Tabela 2, a moda é 8 porque é o número que aparece com maior frequência (DeLurgio, 1998, p. 41).
Desvio Médio
Um desvio ( ) é definido pela subtracção da média a um valor observado ( ) e é dado por:
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | |
8 | 8 | 11 | 7 | 8 | 12 | 10 | 13 | 13 | |
-2 | -2 | 1 | -3 | -2 | 2 | 0 | 3 | 3 | |
Desvio médio absoluto
Como a soma dos desvios é sempre igual a zero, é útil desenvolver uma estatística descritiva para estes desvios, que, ou são elevados ao quadrado, ou, ocasionalmente, toma-se o seu valor absoluto.
O desvio médio absoluto é denominado de DMA e é dado por:
Neste caso:
Desvio médio quadrado
Por seu lado, o desvio médio quadrado, é designado por DMQ e é dado por:
Neste caso:
Variância
Intimamente relacionado com o desvio médio quadrado (DMQ), está a variância. Esta é definida da seguinte maneira:
Neste caso:
onde representa os «graus de liberdade», que podem ser definidos como o número de observações a subtrair pelo número de parâmetros estimados (Makridakis, 1998, p. 31-32).
A variância é menos intuitiva que o DMQ mas possui propriedades matemáticas desejáveis, porque, ao contrário do DMQ não é uma estimativa tendenciosa.
Tanto a variância como o desvio médio absoluto fornecem medidas de dispersão. Medem aproximadamente o desvio médio das observações em relação à sua média. Se as observações estiverem muito dispersas, estarão longe da média (acima e abaixo). Neste caso tanto o desvio médio absoluto como a variância terão um valor elevado. Quando as observações estão próximas entre si, o desvio médio absoluto e a variância terão valores pequenos. Ambos têm a mesma unidade que as observações.
Desvio padrão
O desvio padrão é a raiz quadrada do desvio médio quadrado (DMQ) e é dado por (DeLurgio, 1998, p. 43):
Neste caso:
Muitos conjuntos de dados verificam as seguintes regras empíricas (Makridakis, 1998, p. 32):
- Aproximadamente dois terços das observações distam até 1 desvio padrão da sua média;
- Aproximadamente 95% das observações distam até 2 desvios padrões da sua média.
Estatísticas bivariadas
Existem muitas situações em que é importante efectuar a medição da relação ou associação entre duas ou mais variáveis. É frequente questionar se uma variável pode ser usada para prever outra variável ou se uma variável causa a outra. É mais fácil obter previsões úteis que prova de causalidade. A capacidade de previsão é alcançada quando se consegue provar que os valores de uma variável movem-se em simultâneo com os valores de outra variável (e.g. procura versus publicidade), ou alternativamente, os valores de uma variável movem-se no sentido oposto dos valores de outra variável (e.g. procura versus competição). Na primeira situação, procura e a publicidade, as variáveis estão relacionadas positivamente; o segundo caso, procura e competição, ilustra uma relação negativa ou inversa entre as variáveis. Por fim, existe ainda a possibilidade das variáveis não estarem relacionadas entre si, esta situação é denominada de independência estatística (DeLurgio, 1998, p. 58-59).
Apesar dos termos positivo e negativo serem um atributo de uma relação, não denotam a força ou grau de associação entre as variáveis. Felizmente, existem diversas medidas de associação entre duas ou mais variáveis.
Uma medida útil na associação entre duas variáveis é a covariância. Esta medida por si só não é muito esclarecedora, mas revela-se importante no entendimento de uma segunda medida de associação, a correlação.
Covariância
O nível de associação entre duas variáveis pode ser medido através do seu grau de covariância (e.g. valores elevados de com valores elevados de e valores baixos de com valores baixos de ). A seguinte equação ilustra a fórmula da covariância:
onde e são as médias de e respectivamente e o número de observações de cada variável (Makridakis, 1998, p. 35).
Assim, a covariância é a média do produto dos desvios de dois números das suas respectivas médias. Infelizmente, como a covariância é um número absoluto que pode variar muito devido à escala dos números usados, não é fácil interpretar o seu significado.
Correlação
Uma medida de associação mais útil é o coeficiente de correlação . Este coeficiente mede a proporção da covariância entre e para o produto dos seus desvios padrão (esta medida é mais apropriadamente chamada de coeficiente de correlação Pearson). Os valores deste coeficiente variam sempre entre -1 e 1, e fornecem informação acerca da força e direcção da associação entre e . Se a associação for positiva, é positivo, se for negativa, é negativo.
- Se , existe uma relação perfeitamente negativa.
- Se , não existe relação.
- Se , existe uma relação perfeitamente positiva.
O coeficiente de correlação Pearson é então dado por:
onde e
então:
É importante saber que a covariância e o coeficiente de correlação Pearson, são medidas de associação linear entre duas variáveis, portanto não são apropriadas para medir a correlação quando existe uma relação curvilínea entre duas variáveis (Makridakis, 1998, p. 38).
Autocorrelação
A covariância e o coeficiente de correlação são estatísticas que medem a extensão da relação linear entre duas variáveis. Como tal, podem ser utilizadas para identificar relações explicativas. A autocovariância e a autocorrelação são medidas equivalentes que servem o mesmo propósito, mas para uma única série temporal (Makridakis, 1998, p. 38).
A autocorrelação mede a associação entre dois conjuntos de observações de uma série, separados por um certo atraso. Por exemplo, com dados diários, é expectável que a procura por um produto (e.g. cerveja) ou serviço (e.g. electricidade ou chamadas telefónicas) esteja relacionada com a procura no mesmo dia da semana anterior (este sábado contra o sábado da semana passada). De facto, inicialmente, os livros de estatística sugeriam que se representasse graficamente as mesmas observações em papel transparente e que se sobrepusesse os gráficos numa mesa de luz de modo a descriminar correlações desfasadas. Felizmente, hoje em dia, faz-se isto facilmente recorrendo às capacidades gráficas do software. Ainda assim, são necessárias medidas objectivas de correlação ao longo do tempo; a autocovariância e a autocorrelação fornecem essa medidas objectivas.
==============================
editarReferências:
- DELURGIO, Stephen A. - Forecasting principles and applications. Singapura: McGraw-Hill, 1998. ISBN 978-0-07-115998-2
- DUNCAN, George T.; GORR, Wilpen L.; SZCZYPULA, Janusz - Forecasting analogous time series In ARMSTRONG, J. Scott, ed.- Principles of forecasting: a handbook for researchers and practitioners [Em linha]. Nova Iorque: Springer, 2001. [Consult. 22 Fev 2011]. Disponível em WWW:<URL:http://books.google.pt/books?id=XdE4m_xMfL8C&lpg=PP1&hl=en&pg=PP1#v=onepage&q&f=false>. ISBN 978-0-7923-7930-0
- EHLERS, Ricardo S. - Análise de séries temporais [Em linha]. São Paulo: Universidade de São Paulo, 2009. [Consult. 22 Fev. 2011]. Disponível em WWW:<URL:http://www.icmc.usp.br/~ehlers/stemp/stemp.pdf>.
- MAKRIDAKIS, Spyros; WHEELWRIGHT, Steven C.; HYNDMAN, Rob J. - Forecasting: methods and applications. 3ª ed. Nova Iorque: John Wiley & Sons, 1998. ISBN 978-0-471-53233-0
- OSBOURNE, Jason W. - Notes on the use of data transformations [Em linha]. North Carolina State University, 2002. [Consult. 17 Mai. 2011]. Disponível em WWW:<URL:http://pareonline.net/getvn.asp?v=8&n=6>.
- SAINT-GERMAIN, Michelle A. - PPA 696 research methods: pre-experimental designs [Em linha]. Long Beach: California State University Long Beach, 2002. [Consult. 22 Fev 2011]. Disponível em WWW:<URL:http://www.csulb.edu/~msaintg/ppa696/696preex.htm#696preex>.
- Scatter plot [Em linha]. Orlando, FL: Netmba, [2010]. [Consult. 21 Mar. 2011]. Disponível WWW:<URL:http://www.netmba.com/statistics/plot/scatter/>.
=================================
editarCódigos
link p wikipedia: qualidade
citação:(Galvão, 1981, p. 5)
referência:
pagina c codigos de imagens: http://pt.wikibooks.org/wiki/Log%C3%ADstica/Movimenta%C3%A7%C3%A3o_de_materiais/Equipamento/Equipamento_de_armazenagem/Armazenagem_de_unidades_de_carga/Estantes_para_armazenagem_de_unidades_de_carga/Estante_cantilever
imagens do commons:
ligação para imagem externa: [1]