Utilizador:Gonçalo Ferreira/Rascunhos

Esta página está reservada para os rascunhos do meu trabalho.

Transformações e ajustamentos

Por vezes, ajustar os dados históricos leva a modelos de previsão mais simples e facilmente interpretáveis. Existem três tipos de ajuste:

  • Transformações matemáticas (tais como logaritmos e raízes quadrados);
  • Ajustes para remover a variação dos dados relativa a efeitos do calendário;
  • Ajustes relacionados com mudanças e aumento da população.


Transformações matemáticas


A transformação matemática é o método conveniente para ter em consideração o aumento da variação dos dados. Uma das transformações é a função raiz quadrada, que ajuda a reduzir a variação do tamanho dos ciclos anuais, facilitando assim, a previsão dos dados. Existem outras transformações possíveis, no entanto, a raiz quadrada e o logaritmo são as mais úteis. Os logaritmos são particularmente úteis porque são mais fáceis de interpretar (alterações no valor do logaritmo levam a alterações percentuais na escala original). Uma lista de transformações é apresentada na tabela seguinte:


Tabela 1. Transformações matemáticas para a estabilização da variação.

Raiz quadrada

Raiz cúbica

Logaritmo

Simétrico do Inverso


Cada uma destas transformações é um membro da família das transformações de potência onde:





Para a transformação é simplesmente , para é a raiz quadrada e para é o simétrico do inverso. A transformação de potência para está definida como o logaritmo porque para valores de próximos de comporta-se como um logaritmo. Para , o sinal negativo na transformação de potência é usado para que todas as transformações resultem em funções crescentes (a variável transformada aumenta com o aumento de ). O parâmetro pode ser qualquer número se os dados forem positivos, superior a zero se estes tiverem zeros e se forem negativos não é possível utilizar transformações de potência a não ser que estas sejam ajustadas primeiro através da adição de uma constante a todos os valores.

As previsões são calculadas nos dados transformados em vez de nos originais. No entanto, como o interesse está na previsão dos dados originais, é necessário reverter a transformação. Geralmente as transformações revertidas da potência são dadas por:













==============================Editar

Para além da representação gráfica, é também útil fornecer resumos numéricos. A um resumo numérico de um determinado conjunto de dados dá-se o nome de estatística (Makridakis, 1998, p. 28-29).

Para um único conjunto de dados (dados univariados) ou uma única série temporal, as estatísticas descritivas mais comuns são a média, o desvio padrão e a variância.

Para um par de variáveis aleatórias (dados bivariados) tem interesse descrever a relação entre os dois conjuntos de dados. As estatísticas mais usadas para este propósito são a covariância e a correlação.

Finalmente, para uma única série temporal, é muito útil comparar a observação num período de tempo com a observação noutro período de tempo. As duas estatísticas mais comuns neste caso são a autocovariância e a autocorrelação.


Estatísticas univariadas


A média, também conhecida como média aritmética, mede o valor em relação a qual 50 por cento dos desvios estão acima e 50 por cento dos desvios estão abaixo. Isto é, a soma dos desvios em torno da média é zero. Por exemplo (DeLurgio, 1998, p. 41):


Tabela 1. Vendas de um determinado produto.

  01 02 03 04 05 06 07 08 09

  08 08 11 07 08 12 10 13 13


onde   na Tabela 1, é o valor de vendas de um determinado produto nos últimos nove meses. A média das vendas é:


 


onde   é o somatório de   = 1 até   = 9.


A mediana é uma estatística importante, em relação à qual 50 por cento dos valores são maiores e 50 por cento são menores. Se o número de observações é ímpar e estiverem ordenadas, como acontece na Tabela 2, a mediana é a observação a meio.


Tabela 2. Valores de vendas ordenados por ordem crescente.

  07 08 08 08 10 11 12 13 13


Para as nove observações da Tabela 2, quatro estão acima de 10 e quatro estão abaixo de 10. A mediana é portanto 10.

Nos casos em que existe um número par de observações, a mediana é igual à média entre os valores das duas observações centrais.

A média e a mediana têm o propósito de fornecer uma medida numérica do centro do conjunto de dados (Makridakis, 1998, p. 29).

Para além de medir o centro do conjunto de dados, é também importante medir a dispersão dos dados, de modo a saber se estão fortemente agrupados ou espalhados por uma vasta gama de valores (Makridakis, 1998, p. 30).


A moda é o número ou conjunto de números, que ocorre mais vezes. Nos dados da Tabela 2, a moda é 8 porque é o número que aparece com maior frequência (DeLurgio, 1998, p. 41).


Desvio Médio

Um desvio ( ) é definido pela subtracção da média a um valor observado ( ) e é dado por:


 


Tabela 3. Cálculo dos desvios.

  01 02 03 04 05 06 07 08 09

  08 08 11 07 08 12 10 13 13

  0-2 0-2 01 0-3 0-2 02 00 03 03


 


Desvio médio absoluto

Como a soma dos desvios é sempre igual a zero, é útil desenvolver uma estatística descritiva para estes desvios, que, ou são elevados ao quadrado, ou, ocasionalmente, toma-se o seu valor absoluto.

O desvio médio absoluto é denominado de DMA e é dado por:


 


Neste caso:


 


 


Desvio médio quadrado

Por seu lado, o desvio médio quadrado, é designado por DMQ e é dado por:


 


Neste caso:


 


 


Variância

Intimamente relacionado com o desvio médio quadrado (DMQ), está a variância. Esta é definida da seguinte maneira:


 


Neste caso:


 


 


onde   representa os «graus de liberdade», que podem ser definidos como o número de observações a subtrair pelo número de parâmetros estimados (Makridakis, 1998, p. 31-32).

A variância é menos intuitiva que o DMQ mas possui propriedades matemáticas desejáveis, porque, ao contrário do DMQ não é uma estimativa tendenciosa.

Tanto a variância como o desvio médio absoluto fornecem medidas de dispersão. Medem aproximadamente o desvio médio das observações em relação à sua média. Se as observações estiverem muito dispersas, estarão longe da média (acima e abaixo). Neste caso tanto o desvio médio absoluto como a variância terão um valor elevado. Quando as observações estão próximas entre si, o desvio médio absoluto e a variância terão valores pequenos. Ambos têm a mesma unidade que as observações.


Desvio padrão

O desvio padrão é a raiz quadrada do desvio médio quadrado (DMQ) e é dado por (DeLurgio, 1998, p. 43):


 


Neste caso:


 


 


Muitos conjuntos de dados verificam as seguintes regras empíricas (Makridakis, 1998, p. 32):

  • Aproximadamente dois terços das observações distam até 1 desvio padrão da sua média;
  • Aproximadamente 95% das observações distam até 2 desvios padrões da sua média.


Estatísticas bivariadas


Existem muitas situações em que é importante efectuar a medição da relação ou associação entre duas ou mais variáveis. É frequente questionar se uma variável pode ser usada para prever outra variável ou se uma variável causa a outra. É mais fácil obter previsões úteis que prova de causalidade. A capacidade de previsão é alcançada quando se consegue provar que os valores de uma variável movem-se em simultâneo com os valores de outra variável (e.g. procura versus publicidade), ou alternativamente, os valores de uma variável movem-se no sentido oposto dos valores de outra variável (e.g. procura versus competição). Na primeira situação, procura e a publicidade, as variáveis estão relacionadas positivamente; o segundo caso, procura e competição, ilustra uma relação negativa ou inversa entre as variáveis. Por fim, existe ainda a possibilidade das variáveis não estarem relacionadas entre si, esta situação é denominada de independência estatística (DeLurgio, 1998, p. 58-59).

Apesar dos termos positivo e negativo serem um atributo de uma relação, não denotam a força ou grau de associação entre as variáveis. Felizmente, existem diversas medidas de associação entre duas ou mais variáveis.

Uma medida útil na associação entre duas variáveis é a covariância. Esta medida por si só não é muito esclarecedora, mas revela-se importante no entendimento de uma segunda medida de associação, a correlação.


Covariância


O nível de associação entre duas variáveis pode ser medido através do seu grau de covariância (e.g. valores elevados de   com valores elevados de   e valores baixos de   com valores baixos de  ). A seguinte equação ilustra a fórmula da covariância:


 


onde   e   são as médias de   e   respectivamente e   o número de observações de cada variável (Makridakis, 1998, p. 35).

Assim, a covariância é a média do produto dos desvios de dois números das suas respectivas médias. Infelizmente, como a covariância é um número absoluto que pode variar muito devido à escala dos números usados, não é fácil interpretar o seu significado.


Correlação


Uma medida de associação mais útil é o coeficiente de correlação  . Este coeficiente mede a proporção da covariância entre   e   para o produto dos seus desvios padrão (esta medida é mais apropriadamente chamada de coeficiente de correlação Pearson). Os valores deste coeficiente variam sempre entre -1 e 1, e fornecem informação acerca da força e direcção da associação entre   e  . Se a associação for positiva,   é positivo, se for negativa,   é negativo.


  • Se  , existe uma relação perfeitamente negativa.
  • Se  , não existe relação.
  • Se  , existe uma relação perfeitamente positiva.


O coeficiente de correlação Pearson é então dado por:


 


onde   e  

então:


 


É importante saber que a covariância e o coeficiente de correlação Pearson, são medidas de associação linear entre duas variáveis, portanto não são apropriadas para medir a correlação quando existe uma relação curvilínea entre duas variáveis (Makridakis, 1998, p. 38).


Autocorrelação

A covariância e o coeficiente de correlação são estatísticas que medem a extensão da relação linear entre duas variáveis. Como tal, podem ser utilizadas para identificar relações explicativas. A autocovariância e a autocorrelação são medidas equivalentes que servem o mesmo propósito, mas para uma única série temporal (Makridakis, 1998, p. 38).

A autocorrelação mede a associação entre dois conjuntos de observações de uma série, separados por um certo atraso. Por exemplo, com dados diários, é expectável que a procura por um produto (e.g. cerveja) ou serviço (e.g. electricidade ou chamadas telefónicas) esteja relacionada com a procura no mesmo dia da semana anterior (este sábado contra o sábado da semana passada). De facto, inicialmente, os livros de estatística sugeriam que se representasse graficamente as mesmas observações em papel transparente e que se sobrepusesse os gráficos numa mesa de luz de modo a descriminar correlações desfasadas. Felizmente, hoje em dia, faz-se isto facilmente recorrendo às capacidades gráficas do software. Ainda assim, são necessárias medidas objectivas de correlação ao longo do tempo; a autocovariância e a autocorrelação fornecem essa medidas objectivas.


==============================Editar

Referências:

=================================Editar

Códigos

link p wikipedia: qualidade

citação:(Galvão, 1981, p. 5)

referência:

REFERENCIA

pagina c codigos de imagens: http://pt.wikibooks.org/wiki/Log%C3%ADstica/Movimenta%C3%A7%C3%A3o_de_materiais/Equipamento/Equipamento_de_armazenagem/Armazenagem_de_unidades_de_carga/Estantes_para_armazenagem_de_unidades_de_carga/Estante_cantilever

imagens do commons:

Ficheiro:Nomeimagem.jpg
Figura 1. Estante cantilever.

ligação para imagem externa: [1]