menu
arrow_back

Execute um pipeline de processamento de texto de Big Data no Cloud Dataflow

Execute um pipeline de processamento de texto de Big Data no Cloud Dataflow

Minutos 7 Créditos

GSP047

Laboratórios autoguiados do Google Cloud

Visão geral

O Dataflow é um modelo de programação unificado e um serviço gerenciado para desenvolvimento e execução de diversos padrões de processamento de dados, inclusive ETL, computação em lote e computação contínua. Como o Dataflow é um serviço gerenciado, ele pode alocar recursos sob demanda para minimizar a latência enquanto mantém uma alta eficiência de utilização.

O modelo do Dataflow combina processamento em lote e de stream para que os desenvolvedores não precisem fazer concessões entre exatidão, custo e tempo de processamento. Neste laboratório, você aprenderá a executar um pipeline do Dataflow que conta as ocorrências de palavras únicas em um arquivo de texto.

Conteúdo do laboratório

  • Como criar um projeto Maven com o SDK do Cloud Dataflow

  • Como executar um pipeline de exemplo com o Console do Google Cloud Platform

  • Como excluir o intervalo do Cloud Storage associado e o conteúdo dele

Join Qwiklabs to read the rest of this lab...and more!

  • Get temporary access to the Google Cloud Console.
  • Over 200 labs from beginner to advanced levels.
  • Bite-sized so you can learn at your own pace.
Join to Start This Lab
Pontuação

—/10

Create a new Cloud Storage bucket

Executar etapa

/ 5

Run a text processing pipeline on Cloud Dataflow

Executar etapa

/ 5