Aplicações simples utilizando frameworks de big data

Quando se deseja criar aplicações utilizando o Hadoop MapReduce,
​​​​​​​é necessário usar interfaces específicas.
Assinale a alternativa que representa apenas interfaces de aplicações Hadoop MapReduce:
R: Mapper, Reducer, Partitioner e Counter.

Uma aplicação que utilize o Apache Spark para solucionar um desafio de Big Data tem operações de transformação e de ação.
Assinale a alternativa que representa apenas funções de transformação:
R: map, groupByKey e filter.

A grosso modo, no Spark RDD, as operações que produzem novos RDDs são chamadas de transformações e as de ação representam funções para manipular um conjunto de dados no RDD atual.
Assinale a alternativa que representa a operação de ação que grava o RDD no arquivo:
R: saveAsTextFile.

Com o MapReduce, é possível processar um conjunto de dados muito grande em paralelo e de forma distribuída.
Assinale a alternativa que representa a afirmação verdadeira sobre as características e o funcionamento do MapReduce.
R: Com o MapReduce, é possível distribuir os dados em clusters que podem chegar a milhares de nós.

O MapReduce superou desafios relacionados ao processamento paralelo e distribuído como divisão da tarefa entre os nós, confiabilidades e tolerância a falhas.

Assinale a alternativa verdadeira em relação ao funcionamento do MapReduce:
R: As tarefas de mapeamento produzem pares chave-valor intermediários, que são as entradas para as tarefas de redução.

Deixe um comentário