Processamento de Dados Massivos/O modelo de programação MapReduce: diferenças entre revisões

Inclusão de referências importantes
mSem resumo de edição
(Inclusão de referências importantes)
 
 
Conforme discutido anteriormente, um dos aspectos essenciais do processamento de dados massivos é exprimir o processamento de forma que o maior volume possível de dados seja acessado (lido) e processado em paralelo, aumentando a velocidade final do processamento. Um modelo que se mostrou particularmente bem sucedido nesse aspecto foi o MapReduce, proposto pela Google em 20072004 <ref>Dean, J., and Ghemawat, S. [http://research.google.com/archive/mapreduce.html Mapreduce: simplified data processing on large clusters]. In ''Proceedings of OSDI'04: Sixth Symposium on Operating System Design and Implementation'', 2004.</ref>.
 
== Princípio geral ==
49

edições