Diferenças entre edições de "Processamento de Dados Massivos/Projeto e implementação de aplicações Big Data/Classificação associativa incremental (LAC)"

sem resumo de edição
 
== Introdução ==
 
 
Por padrão o Hadoop divide cada arquivo de entrada em vários chunks que são processador por diferentes mappers, este processo é feito para aumentar o grau de paralelismo. Contudo, este processo é contraproducente
 
[[Ficheiro:Hadoop-chunking1.png|miniaturadaimagem|Divisão em chunks]]
 
 
== Avaliação Experimental ==