menu
arrow_back

Execute um pipeline de processamento de texto de Big Data no Cloud Dataflow

—/100

Checkpoints

arrow_forward

Create a new Cloud Storage bucket

Run a text processing pipeline on Cloud Dataflow

Execute um pipeline de processamento de texto de Big Data no Cloud Dataflow

40 minutos 7 créditos

GSP047

Laboratórios autoguiados do Google Cloud

Visão geral

O Dataflow é um modelo de programação unificado e um serviço gerenciado para desenvolvimento e execução de diversos padrões de processamento de dados, inclusive ETL, computação em lote e computação contínua. Como o Dataflow é um serviço gerenciado, ele pode alocar recursos sob demanda para minimizar a latência enquanto mantém uma alta eficiência de utilização.

O modelo do Dataflow combina processamento em lote e de stream para que os desenvolvedores não precisem fazer concessões entre exatidão, custo e tempo de processamento. Neste laboratório, você aprenderá a executar um pipeline do Dataflow que conta as ocorrências de palavras únicas em um arquivo de texto.

Conteúdo do laboratório

  • Como criar um projeto Maven com o SDK do Cloud Dataflow

  • Como executar um pipeline de exemplo com o Console do Google Cloud Platform

  • Como excluir o intervalo do Cloud Storage associado e o conteúdo dele

Participe do Qwiklabs para ler o restante deste laboratório e muito mais!

  • Receber acesso temporário a Console do Google Cloud.
  • Mais de 200 laboratórios, do nível iniciante ao avançado.
  • Tamanho compacto para que você possa aprender no seu próprio ritmo.
Participe para iniciar este laboratório