Diferenças entre edições de "Processamento de Dados Massivos/Projeto e implementação de aplicações Big Data/Classificação associativa incremental (LAC)"

sem resumo de edição
 
== Introdução ==
 
 
Portanto o Distributed LAC necessita antes de classificar os dados agrupá-los. Um esquema, simplificado, pode ser visto na Figura 1, em que os itens de cores parecidas são agrupados e processados pela mesma CPU. Este é o primeiro passo do algoritmo.
[[Ficheiro:Http://blog.rguha.net/wp-content/uploads/2009/05/hadoop-chunking1.png|miniaturadaimagem|Divisão de um arquivo de Entrada em Chunks]]
 
[[Ficheiro:Esquema 1.svg|center|commoldura|Primeira fase do Distributed LAC.]]
 
=== Decisões de Implementação ===
 
==== Evitando a divisão dos arquivos de entrada ====
 
Por padrão o Hadoop divide cada arquivo de entrada em vários chunks que são processador por diferentes mappers, este processo é feito para aumentar o grau de paralelismo. Contudo, este processo é contraproducente
 
== Avaliação Experimental ==