menu
arrow_back

Dataflow と BigQuery を使用した GCP での ETL 処理

Dataflow と BigQuery を使用した GCP での ETL 処理

1時間 クレジット: 7

GSP290

Google Cloud セルフペース ラボ

概要

このラボでは、以下の GCP サービスを使用して複数のデータ パイプラインを構築し、一般公開されているデータセットから BigQuery にデータを取り込みます。

  • GCS - Google Cloud Storage
  • Dataflow - Google Dataflow
  • BigQuery - BigQuery テーブル

固有のデータ パイプライン(設計上の考慮事項と実装の詳細を反映)を作成して、プロトタイプが要件を満たすようにします。指示がある場合は、Python ファイルを開き、コメントを読んでください。

Qwiklabs に参加してこのラボの残りの部分や他のラボを確認しましょう。

  • Google Cloud Console への一時的なアクセス権を取得します。
  • 初心者レベルから上級者レベルまで 200 を超えるラボが用意されています。
  • ご自分のペースで学習できるように詳細に分割されています。
参加してこのラボを開始
スコア

—/100

Create a Cloud Storage Bucket

ステップを実行

/ 20

Copy Files to Your Bucket

ステップを実行

/ 10

Create the BigQuery Dataset (name: lake)

ステップを実行

/ 20

Build a Data Ingestion Dataflow Pipeline

ステップを実行

/ 10

Build a Data Transformation Dataflow Pipeline

ステップを実行

/ 10

Build a Data Enrichment Dataflow Pipeline

ステップを実行

/ 10

Build a Data lake to Mart Dataflow Pipeline

ステップを実行

/ 20