menu

Data Engineering

Advanced ステップ: 6 7時間 クレジット: 42

この上級レベルのクエストは他の Qwiklabs パッケージとは違い、Google Cloud Certified Professional Data Engineer Certification 認定資格試験で出題されるトピックやサービスに関する実践演習を行うための、IT プロフェッショナル向けのラボを集めたものです。BigQuery から Dataproc、Cloud Composer や TensorFlow まで網羅する個別のラボで構成され、Google Cloud データ エンジニアリングに関する知識が試されます。こうしたラボの演習はスキルや能力の向上に役立ちますが、その他にも認定資格試験の準備が必要になりますのでご注意ください。試験内容は非常に難易度が高いため、ラボ以外でもクラウド データ エンジニアリングについて学習し、経験や実績を積むことをおすすめします。ハンズオンラボでスキルや知識を試したいですか?このクエスト修了後に、Engineer Data in the Google Cloud クエストの最後にあるチャレンジラボに登録し、完了した際には Google Cloud 限定デジタルバッジを獲得できます。

Data Machine Learning Business Transformation

前提条件:

このクエストでは、大型のデータセットに関連した Google Cloud サービスの経験が必要です。受講者は、開始前に Baseline: Data, ML, and AI または Google Cloud Essentials のハンズラボを修了し、バッジを取得済みであることが推奨されます。また、 Scientific Data Processing および Machine Learning APIs などのクエストでのラボ演習も役立ちます。

Quest Outline

ハンズオンラボ

Cloud Dataprep でデータ変換パイプラインを作成する

Cloud Dataprep by Trifacta は、分析用に構造化データと非構造化データの視覚的な探索、クリーニング、準備を行うためのインテリジェント データ サービスです。このラボでは Cloud Dataprep UI について学習し、データ変換パイプラインを作成します。

Deutsch English español (Latinoamérica) français 日本語 português (Brasil)
ハンズオンラボ

Google Cloud Platform での IoT 分析パイプラインの構築

このラボでは、Cloud IoT Core を使用してデバイスを接続および管理する方法、Cloud Pub/Sub を使用して情報のストリームを取り込む方法、Cloud Dataflow を使用して IoT データを処理する方法、BigQuery を使用して IoT データを分析する方法を学びます。簡単に IoT 分析パイプラインを構築する方法について紹介している短い動画ご覧ください。

Deutsch English español (Latinoamérica) français 日本語 português (Brasil)
ハンズオンラボ

Dataflow と BigQuery を使用した Google Cloud での ETL 処理

このラボでは、複数のデータ パイプラインを構築し、一般公開されているデータセットから BigQuery にデータを取り込みます。

Deutsch English español (Latinoamérica) français 日本語 português (Brasil)
ハンズオンラボ

BQML で分類モデルを使用して訪問者の購入を予測する

このラボでは、新たに使用できるようになった e コマース データセットを使用して一般的なクエリを実行し、企業が知りたい顧客の購買習慣に関する情報を取得します。

Deutsch English español (Latinoamérica) français 日本語 português (Brasil)
ハンズオンラボ

TensorFlow と AI Platform で住宅価格を予測する

このラボでは、TensorFlow と AI Platform を使用して総合的な機械学習ソリューションを構築し、クラウドを活用して分散型トレーニングとオンライン予測を行います。

Deutsch English español (Latinoamérica) français 日本語 português (Brasil)
ハンズオンラボ

Cloud Composer: 別のロケーションに BigQuery テーブルをコピーする

この上級ラボでは、Cloud Composer で Apache Airflow ワークフローを作成して実行します。このワークフローでは、米国にある Cloud Storage バケットの BigQuery データセットからヨーロッパにあるバケットにテーブルをエクスポートし、そのテーブルをヨーロッパにある BigQuery データセットにインポートします。

Deutsch English español (Latinoamérica) français 日本語 português (Brasil)

今すぐ登録する

このクエストに登録して、バッジ獲得までの進捗状況を管理しましょう。