menu
arrow_back

Cloud Composer: 別のロケーションに BigQuery テーブルをコピーする

—/100

Checkpoints

arrow_forward

Create Cloud Composer environment.

Create two Cloud Storage buckets.

Create a dataset.

Uploading the DAG and dependencies to Cloud Storage

Cloud Composer: 別のロケーションに BigQuery テーブルをコピーする

1時間 クレジット: 7

GSP283

Google Cloud セルフペース ラボ

概要

この上級ラボでは、Cloud Composer で、次のタスクを処理する Apache Airflow ワークフローを作成して実行する方法を学習します。

  • コピーするテーブルのリストを構成ファイルから読み込む
  • 米国にある BigQuery データセットからテーブルのリストを Cloud Storage にエクスポートする
  • 米国からエクスポートしたテーブルをヨーロッパにある Cloud Storage バケットにコピーする
  • テーブルのリストをヨーロッパにあるターゲットの BigQuery データセットにインポートする

cce6bf21555543ce.png

Qwiklabs に参加してこのラボの残りの部分や他のラボを確認しましょう。

  • Google Cloud Console への一時的なアクセス権を取得します。
  • 初心者レベルから上級者レベルまで 200 を超えるラボが用意されています。
  • ご自分のペースで学習できるように詳細に分割されています。
参加してこのラボを開始