Quando se deseja criar aplicações utilizando o Hadoop MapReduce,
é necessário usar interfaces específicas.
Assinale a alternativa que representa apenas interfaces de aplicações Hadoop MapReduce:
R: Mapper, Reducer, Partitioner e Counter.
Uma aplicação que utilize o Apache Spark para solucionar um desafio de Big Data tem operações de transformação e de ação.
Assinale a alternativa que representa apenas funções de transformação:
R: map, groupByKey e filter.
A grosso modo, no Spark RDD, as operações que produzem novos RDDs são chamadas de transformações e as de ação representam funções para manipular um conjunto de dados no RDD atual.
Assinale a alternativa que representa a operação de ação que grava o RDD no arquivo:
R: saveAsTextFile.
O MapReduce superou desafios relacionados ao processamento paralelo e distribuído como divisão da tarefa entre os nós, confiabilidades e tolerância a falhas.
Assinale a alternativa verdadeira em relação ao funcionamento do MapReduce:
R: As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução.