Processamento de Dados Massivos/Projeto e implementação de aplicações Big Data/Maximização de expectativas: diferenças entre revisões

[edição não verificada][edição não verificada]
Conteúdo apagado Conteúdo adicionado
Arturhoo (discussão | contribs)
Arturhoo (discussão | contribs)
Linha 55:
 
===Paralelizações Existentes===
 
Abhinandan Das, Mayur Datar, Ashutosh Garg e Shyam Rajaram apresentaram uma das paralelizações mais famosas na litetura. No artigo entitulado “Google News Personalization: Scalable Online Collaborative FIltering” onde eles utilizam o ''Expectation Maximization'' para encontrar os parâmetros de máxima verossimilhança para o modelo em questão. Eles definem e isolam propriamente as fases '''E''' e '''M''' do algoritmo dentro do modelo e observam que a execução do algoritmo, para o volume de dados em questão é inviável (na época cerca de 80GiB de memória primária seria necessário). Dessa maneira eles separam usuários e itens (objetos em questão) e mapeam a etapa '''E''' para a etapa ''Map'', e a '''M''' para a etapa ''Reduce''. Na realidade, abordagem bastante similar é utilizada em nossa estudo de paralelização e distribuição da computação.
 
==Projeto==