arrow_back

Engineer Data in Google Cloud

share

Engineer Data in Google Cloud

8 heures Advanced universal_currency_alt 51 crédits
Cette quête Qwiklabs de niveau avancé est unique en son genre. Elle se compose d''ateliers pratiques qui permettent aux professionnels de l''informatique de se familiariser avec les sujets et les services au programme de la certification "Google Cloud Certified – Professional Data Engineer" . De BigQuery à Dataproc en passant par Tensorflow, cette quête mettra à l''épreuve vos connaissances sur l''ingénierie des données GCP. Même si les ateliers constituent une bonne base pour développer vos compétences, ils ne suffisent pas à réussir la quête. L''examen final étant assez difficile, nous vous recommandons d''avoir suivi une formation préalable ou de posséder de l''expérience en matière d''ingénierie des données cloud et de compléter votre apprentissage à l''aide d''autres ressources. Terminez cette quête, y compris le laboratoire de défi à la fin, pour recevoir un badge numérique exclusif de Google Cloud. Le laboratoire de défi ne fournit pas d'étapes normatives, mais nécessite la création de solutions avec un minimum de conseils et mettra vos compétences en technologie Google Cloud à l'épreuve.

Effectuez toutes les activités de ce cours pour gagner un badge. Collectionnez les badges Qwiklabs en terminant des quêtes, des jeux et des cours. Récupérez-les tous pour mettre en valeur vos compétences !

  • Atelier

    Créer un pipeline de transformation de données avec Cloud Dataprep

    Cloud Dataprep by Trifacta est un service intelligent, qui permet de visualiser, de nettoyer et de préparer des données structurées et non structurées à des fins d'analyse. Dans cet atelier, vous allez découvrir l'interface utilisateur de Cloud Dataprep afin de créer un pipeline de transformation de données.

  • Atelier

    Créer un pipeline d'analyse de données IoT sur Google Cloud

    Dans cet atelier, vous allez découvrir comment connecter et gérer des appareils à l'aide de Cloud IoT Core, comment ingérer le flux d'informations à l'aide de Cloud Pub/Sub, comment traiter les données IdO à l'aide de Cloud Dataflow et comment utiliser BigQuery afin d'analyser les données IoT. Pour en savoir plus, regardez cette courte vidéo : Easily Build an IoT Analytics Pipeline.

  • Atelier

    Traitement ETL sur Google Cloud à l'aide de Dataflow et de BigQuery

    Dans cet atelier, vous allez concevoir plusieurs pipelines de données afin d'ingérer celles d'un ensemble de données public dans BigQuery.

  • Atelier

    Prédire les achats des visiteurs avec un modèle de classification dans BQML

    Dans cet atelier, vous allez exécuter, sur un nouvel ensemble de données d'e-commerce, des requêtes couramment utilisées par les entreprises pour en savoir plus sur les comportements d'achat de leurs clients.

  • Atelier

    Prédire le prix des logements avec TensorFlow et AI Platform

    Dans cet atelier, vous allez créer une solution de machine learning complète à l'aide de TensorFlow et d'AI Platform, et utiliser le cloud pour effectuer des tâches d'entraînement distribué et de prédiction en ligne.

  • Atelier

    Cloud Composer : Copier des tables BigQuery à différents emplacements

    Dans cet atelier de niveau avancé, vous allez créer et exécuter un workflow Apache Airflow dans Cloud Composer en vue d'exporter des tables d'un ensemble de données BigQuery situé dans des buckets Cloud Storage aux États-Unis et de les importer dans un ensemble de données BigQuery situé dans des buckets en Europe.

  • Atelier

    Engineer Data in Google Cloud : atelier challenge

    Cet atelier challenge teste les compétences et connaissances acquises lors des ateliers de la quête "Engineer Data in Google Cloud". Vous devez vous familiariser avec le contenu de ces ateliers avant de vous lancer.

  • info
    Quest Info
    Prerequisites
    Cette quête présuppose une connaissance approfondie des services Google Cloud, en particulier ceux liés au travail avec de grands ensembles de données. Avant de commencer, il est recommandé que l'étudiant remporte au moins un badge en participant aux ateliers des quêtes Baseline - Data, ML, and AI ou GCP Essentials. Par ailleurs, les ateliers des quêtes Scientific Data Processing et Machine Learning APIs peuvent être utiles pour progresser.