Processamento de Dados Massivos/Projeto e implementação de aplicações Big Data/Maximização de expectativas: diferenças entre revisões

[edição não verificada][edição não verificada]
Conteúdo apagado Conteúdo adicionado
Arturhoo (discussão | contribs)
Arturhoo (discussão | contribs)
Linha 35:
 
===Exemplo de Funcionamento===
 
Um exemplo de um problema que pode ser resolvido através do ''Expectation Maximization'', e que será utilizado no restante do trabalho é: dadas duas moedas, cada uma delas com viés desconhecido, suponha que uma moeda aleatória é selecionada uniformemente a lançada N vezes. Esse experimento é repetido M vezes (para cada lançamento, uma das moedas é selecionada aleatoriamente). Qual o viés das moedas? Podemos identificar os conceitos explicitados anteriormente:
 
* '''Parâmetros do modelo''': Os viéses das moedas;
* '''Variável latente''': A seleção das moedas.
 
O que teria acontecido se a escolha das moedas fosse revelada? Teríamos um cenário de MLE tradicional. Os parâmetros (viéses) poderiam ser estimados através de: viés estimado da moeda A = número de coroa observadas no lançamento da moeda A / número de vezes que a moeda A foi lançada, e de maneira similar para a outra moeda. Mas como o EM funciona para o problema mencionado?
 
# Define valores iniciais para os viéses das moedas;
# Uma distribuiçnao de probabilidades sobre a escolha desconhecida das moedas é definida baseado nos parâmetros atuais;
# Novos pariametros são estimados utilizando-se o MLE baseados nas probabilidaes de distribuição encontradas no último passo;
# Retorne ao passo 2 (até a convergência).
 
A figura [http://4.bp.blogspot.com/-6Rp1CLypNyo/T-z2Gok0DII/AAAAAAAAAOE/RYCmUGk_2Cs/s1600/figure.jpg link] apresenta um exemplo para esse cenário descrito.
 
===Requisitos===
===Paralelizações Existentes===