Skip to content

Latest commit

 

History

History
41 lines (24 loc) · 1.82 KB

README.md

File metadata and controls

41 lines (24 loc) · 1.82 KB

Digital Innovation One

Código criado para utilização junto a plataforma da Digital Innovation One

Desafio GCP Dataproc

O desafio faz parte do curso na plataforma da Digital Innovation One:

Criando um ecossistema Hadoop totalmente gerenciado com Google Cloud Platform

O desafio consiste em efetuar um processamento de dados utilizando o produto Dataproc do GCP. Esse processamento irá efetuar a contahem das palavras de um livro e informar quantas vezes cada palavra aparece no mesmo.


Etapas do Desafio

  1. Criar um bucket no Cloud Storage

  2. Atualizar o arquivo contador.py com o nome do Bucket criado nas linhas que contém {SEU_BUCKET}.

  3. Fazer o upload dos arquivos contador.py e livro.txt para o bucket criado (instruções abaixo)

  4. Utilizar o código em um cluster Dataproc, executando um Job do tipo PySpark chamando gs://{SEU_BUCKET}/contador.py

  5. O Job irá gerar uma pasta no bucket chamada resultado. Dentro dessa pasta o arquivo part-00000 irá conter a lista de palavras e quantas vezes ela é repetida em todo o livro.

Entrega do Resultado

  1. Criar um repositório no GitHub.
  2. Criar um arquivo chamado resultado.txt. Dentro desse arquivo, colocar as 10 palavras que mais são usadas no livro, de acordo com o resultado do Job.
  3. Inserir os arquivo resultado.txt e part-00000 no repositório e informar na plataforma da Digital Innovation One.

Considerações Finais

NOTA: Se o Job mostrar um WARN de Interrupt, basta ignorar. Existe um bug no Hadoop que é conhecido. Isso não impacta no processamento.

Qualquer outra dúvida, informação ou sugestão, fique a vontade para entrar em contato.

[email protected]