menu
arrow_back

Exécuter un pipeline de traitement de texte Big Data dans Cloud Dataflow

—/100

Checkpoints

arrow_forward

Create a new Cloud Storage bucket

Run a text processing pipeline on Cloud Dataflow

Exécuter un pipeline de traitement de texte Big Data dans Cloud Dataflow

40 minutes 7 crédits

GSP047

Google Cloud – Ateliers adaptés au rythme de chacun

Présentation

Dataflow est un modèle de programmation unifié et un service géré permettant de développer et d'exécuter une large gamme de modèles de traitement des données (ETL, calcul par lots et calcul continu, par exemple). Puisque Dataflow est un service géré, il peut allouer les ressources à la demande pour réduire la latence tout en maintenant une haute productivité.

Le modèle Dataflow combine le traitement par lots et par flux afin que les développeurs n'aient pas à faire de compromis entre exactitude, coût et temps de traitement. Dans cet atelier, vous allez apprendre à exécuter un pipeline Dataflow qui comptabilise les occurrences de mots uniques dans un fichier texte.

Objectifs de l'atelier

  • Créer un projet Maven à l'aide du SDK Cloud Dataflow

  • Exécuter un exemple de pipeline dans la console Google Cloud Platform

  • Supprimer le bucket Cloud Storage associé et son contenu

Inscrivez-vous sur Qwiklabs pour consulter le reste de cet atelier, et bien plus encore.

  • Obtenez un accès temporaire à Google Cloud Console.
  • Plus de 200 ateliers, du niveau débutant jusqu'au niveau expert.
  • Fractionné pour vous permettre d'apprendre à votre rythme.
Inscrivez-vous pour démarrer cet atelier