arrow_back

Dataflow: Qwik Start - Template

Gabung Login
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

Dataflow: Qwik Start - Template

Lab 45 menit universal_currency_alt 1 Kredit show_chart Pengantar
Test and share your knowledge with our community!
done
Get access to over 700 hands-on labs, skill badges, and courses

GSP192

Lab Mandiri Google Cloud

Ringkasan

Di lab ini, Anda akan belajar cara membuat pipeline streaming menggunakan salah satu template Cloud Dataflow Google. Lebih tepatnya, Anda akan menggunakan template Cloud Pub/Sub to BigQuery, yang membaca pesan yang ditulis dalam JSON dari topik Pub/Sub dan mengirimnya ke tabel BigQuery. Anda dapat menemukan dokumentasi untuk template ini di bagian Panduan penggunaan template yang disediakan Google.

Anda akan diberi opsi untuk menggunakan command line Cloud Shell atau Konsol Cloud untuk membuat set data dan tabel BigQuery. Pilih satu metode yang akan digunakan, lalu lanjutkan dengan metode tersebut hingga akhir lab. Jika Anda ingin merasakan pengalaman menggunakan kedua metode tersebut, jalankan melalui lab ini untuk kedua kalinya.

Penyiapan

Sebelum mengklik tombol Mulai Lab

Baca petunjuk ini. Lab memiliki timer dan Anda tidak dapat menjedanya. Timer, yang dimulai saat Anda mengklik Start Lab, akan menampilkan durasi ketersediaan resource Google Cloud untuk Anda.

Lab praktik ini dapat Anda gunakan untuk melakukan sendiri aktivitas lab di lingkungan cloud sungguhan, bukan di lingkungan demo atau simulasi. Untuk mengakses lab ini, Anda akan diberi kredensial baru yang bersifat sementara dan dapat digunakan untuk login serta mengakses Google Cloud selama durasi lab.

Untuk menyelesaikan lab ini, Anda memerlukan:

  • Akses ke browser internet standar (disarankan browser Chrome).
Catatan: Gunakan jendela Samaran atau browser pribadi untuk menjalankan lab ini. Hal ini akan mencegah konflik antara akun pribadi Anda dan akun Siswa yang dapat menyebabkan tagihan ekstra pada akun pribadi Anda.
  • Waktu untuk menyelesaikan lab. Ingat, setelah dimulai, lab tidak dapat dijeda.
Catatan: Jika Anda sudah memiliki project atau akun pribadi Google Cloud, jangan menggunakannya untuk lab ini agar terhindar dari tagihan ekstra pada akun Anda.

Cara memulai lab dan login ke Google Cloud Console

  1. Klik tombol Start Lab. Jika Anda perlu membayar lab, jendela pop-up akan terbuka untuk memilih metode pembayaran. Di sebelah kiri adalah panel Lab Details dengan berikut ini:

    • Tombol Open Google Console
    • Waktu tersisa
    • Kredensial sementara yang harus Anda gunakan untuk lab ini
    • Informasi lain, jika diperlukan, untuk menyelesaikan lab ini
  2. Klik Open Google Console. Lab akan menjalankan resource, lalu membuka tab lain yang menampilkan halaman Login.

    Tips: Atur tab di jendela terpisah secara berdampingan.

    Catatan: Jika Anda melihat dialog Choose an account, klik Use Another Account.
  3. Jika perlu, salin Username dari panel Lab Details dan tempel ke dialog Sign in. Klik Next.

  4. Salin Password dari panel Lab Details dan tempel ke dialog Welcome. Klik Next.

    Penting: Anda harus menggunakan kredensial dari panel sebelah kiri. Jangan menggunakan kredensial Google Cloud Skills Boost. Catatan: Menggunakan akun Google Cloud sendiri untuk lab ini dapat dikenai biaya tambahan.
  5. Klik halaman berikutnya:

    • Setujui persyaratan dan ketentuan.
    • Jangan tambahkan opsi pemulihan atau autentikasi 2 langkah (karena ini akun sementara).
    • Jangan daftar uji coba gratis.

Setelah beberapa saat, Cloud Console akan terbuka di tab ini.

Catatan: Anda dapat melihat menu dengan daftar Produk dan Layanan Google Cloud dengan mengklik Menu navigasi di kiri atas. Ikon menu navigasi

Mengaktifkan Cloud Shell

Cloud Shell adalah mesin virtual yang dilengkapi dengan berbagai alat pengembangan. Mesin virtual ini menawarkan direktori beranda persisten berkapasitas 5 GB dan berjalan di Google Cloud. Cloud Shell menyediakan akses command-line untuk resource Google Cloud Anda.

  1. Klik Activate Cloud Shell Ikon Activate Cloud Shell di bagian atas konsol Google Cloud.

Setelah terhubung, Anda sudah diautentikasi, dan project ditetapkan ke PROJECT_ID Anda. Output berisi baris yang mendeklarasikan PROJECT_ID untuk sesi ini:

Project Cloud Platform Anda dalam sesi ini disetel ke YOUR_PROJECT_ID

gcloud adalah alat command line untuk Google Cloud. Alat ini sudah terinstal di Cloud Shell dan mendukung pelengkapan command line.

  1. (Opsional) Anda dapat menampilkan daftar nama akun yang aktif dengan perintah ini:
gcloud auth list
  1. Klik Authorize.

  2. Output Anda sekarang akan terlihat seperti ini:

Output:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net Untuk menyetel akun aktif, jalankan: $ gcloud config set account `ACCOUNT`
  1. (Opsional) Anda dapat menampilkan daftar project ID dengan perintah ini:
gcloud config list project

Output:

[core] project = <project_ID>

Contoh output:

[core] project = qwiklabs-gcp-44776a13dea667a6 Catatan: Untuk mendapatkan dokumentasi gcloud yang lengkap di Google Cloud, baca panduan ringkasan gcloud CLI.

Memastikan Dataflow API berhasil diaktifkan kembali

Untuk memastikan akses ke API yang diperlukan, mulai ulang koneksi ke Dataflow API.

  1. Di Konsol Cloud, masukkan "Dataflow API" di kotak penelusuran teratas. Klik hasil untuk Dataflow API.

  2. Klik Manage.

  3. Klik Disable API.

JIka diminta untuk mengonfirmasi, klik Disable.

  1. Klik Enable.

Jika API sudah diaktifkan kembali, halaman akan menampilkan opsi untuk menonaktifkannya.

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan.

Menonaktifkan dan mengaktifkan kembali Dataflow API.

Tugas 1. Membuat set data dan tabel Cloud BigQuery menggunakan Cloud Shell

Pertama-tama, mari kita buat set data dan tabel BigQuery.

Catatan: Bagian ini menggunakan alat command line bq. Lompat ke bagian berikutnya jika Anda ingin menjalankan lab ini menggunakan konsol.
  1. Jalankan perintah berikut untuk membuat set data yang disebut taxirides:
bq mk taxirides

Output Anda akan terlihat seperti ini:

Dataset '' successfully created

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat set data BigQuery, Anda akan melihat skor penilaian.

Membuat Set Data BigQuery (nama: taxirides).

Sekarang setelah set data dibuat, Anda akan menggunakannya pada langkah berikut untuk membuat instance tabel BigQuery.

  1. Jalankan perintah berikut untuk melakukannya:
bq mk \ --time_partitioning_field timestamp \ --schema ride_id:string,point_idx:integer,latitude:float,longitude:float,\ timestamp:timestamp,meter_reading:float,meter_increment:float,ride_status:string,\ passenger_count:integer -t taxirides.realtime

Output Anda akan terlihat seperti ini:

Table 'myprojectid:taxirides.realtime' successfully created

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat tabel dalam set data BigQuery, Anda akan melihat skor penilaian.

Membuat tabel di Set Data BigQuery.

Sepintas lalu, perintah bq mk terlihat agak kompleks. Namun, dengan bantuan dari dokumentasi command line BigQuery, kita dapat menguraikan prosesnya. Sebagai contoh, dokumentasi memberi informasi lebih lanjut tentang skema:

  • Baik berupa jalur ke file skema JSON lokal maupun daftar yang dipisahkan koma dari definisi kolom dalam format [FIELD]:[DATA_TYPE], [FIELD]:[DATA_TYPE].

Dalam hal ini, kita menggunakan format yang kedua, yaitu daftar yang dipisahkan koma.

Membuat bucket Cloud Storage

Setelah membuat instance tabel, mari kita membuat bucket.

Gunakan Project ID sebagai nama bucket untuk memastikan nama unik secara global:

  • Jalankan perintah berikut untuk melakukannya:
export BUCKET_NAME={{{project_0.project_id | "Bucket Name"}}} gsutil mb gs://$BUCKET_NAME/

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat bucket Cloud Storage, Anda akan melihat skor penilaian.

Membuat bucket Cloud Storage.

Setelah membuat bucket, scroll ke bawah ke bagian Run the Pipeline.

Tugas 2. Membuat set data dan tabel Cloud BigQuery menggunakan Konsol Cloud

Catatan: Jangan menjalankan bagian ini jika Anda telah melakukan penyiapan command line.
  1. Dari menu di sebelah kiri, di bagian Big Data, klik BigQuery.

  2. Kemudian, klik Done.

  3. Klik tiga titik di samping nama project Anda di bagian Explorer, lalu klik Create dataset.

  4. Masukkan taxirides sebagai ID set data Anda:

  5. Pilih us (multiple regions in United States) di lokasi Data.

  6. Tetap gunakan setelan default untuk semua setelan lainnya, lalu klik CREATE DATASET.

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat set data BigQuery, Anda akan melihat skor penilaian.

Membuat Set Data BigQuery (nama: taxirides).
  1. Saat ini Anda seharusnya dapat melihat set data taxirides di bawah project ID, di konsol sebelah kiri.

  2. Klik tiga titik di samping set data taxirides dan pilih Open.

  3. Lalu pilih CREATE TABLE di sisi kanan konsol.

  4. Pada input Destination > Table Name, masukkan realtime.

  5. Di bagian Schema, aktifkan tombol pengalih Edit as text, lalu masukkan perintah berikut:

ride_id:string,point_idx:integer,latitude:float,longitude:float,timestamp:timestamp, meter_reading:float,meter_increment:float,ride_status:string,passenger_count:integer

Konsol Anda akan tampak seperti berikut:

Halaman Create table

  1. Sekarang, klik Create table.

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat tabel dalam set data BigQuery, Anda akan melihat skor penilaian.

Membuat tabel di Set Data BigQuery.

Membuat bucket Cloud Storage

  1. Kembali ke Konsol Cloud dan buka Cloud Storage > Buckets > Create bucket.

  2. Gunakan Project ID sebagai nama bucket untuk memastikan nama unik secara global:

  3. Tetap gunakan setelan default untuk semua setelan lainnya, lalu klik Create.

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat bucket Cloud Storage, Anda akan melihat skor penilaian.

Membuat bucket Cloud Storage.

Tugas 3. Menjalankan pipeline

Deploy Template Dataflow berikut:

gcloud dataflow jobs run iotflow \ --gcs-location gs://dataflow-templates-{{{project_0.default_region | "Region"}}}/latest/PubSub_to_BigQuery \ --region {{{project_0.default_region | "Region"}}} \ --worker-machine-type e2-medium \ --staging-location gs://{{{project_0.project_id | "Bucket Name"}}}/temp \ --parameters inputTopic=projects/pubsub-public-data/topics/taxirides-realtime,outputTableSpec={{{project_0.project_id | "Table Name"}}}:taxirides.realtime

Pada Konsol Google Cloud, di Navigation menu, klik Dataflow > Jobs, dan Anda akan melihat tugas dataflow Anda.

Baca dokumen ini untuk mengetahui informasi lebih lanjut.

Catatan: Anda mungkin perlu menunggu satu menit sampai pelacakan aktivitas selesai.

Menguji tugas yang sudah selesai

Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika telah berhasil menjalankan pipeline Dataflow, Anda akan melihat skor penilaian.

Menjalankan Pipeline.

Anda akan menyaksikan resource Anda dibuat dan siap digunakan.

Sekarang, mari kita lihat data yang ditulis ke BigQuery dengan mengklik BigQuery yang ada di Navigation menu.

  • Ketika UI BigQuery terbuka, Anda akan melihat set data taxirides ditambahkan di bagian nama project Anda dan tabel realtime di bawahnya.
Catatan: Anda mungkin perlu menunggu beberapa menit sampai data diisi dalam tabel BigQuery.

Tugas 4. Mengirim kueri

Anda dapat mengirimkan kueri menggunakan SQL standar.

  1. Di Editor BigQuery, tambahkan perintah berikut untuk membuat kueri data di project Anda:
SELECT * FROM `{{{project_0.project_id | "Bucket Name"}}}.taxirides.realtime` LIMIT 1000
  1. Sekarang, klik RUN:

Jika Anda mengalami masalah atau error, jalankan kueri lagi (pipeline membutuhkan waktu satu menit untuk memulai.)

  1. Ketika kueri berhasil berjalan, Anda akan melihat output di panel Query Results seperti yang ditunjukkan di bawah ini:

Halaman Query results

Kerja bagus! Anda baru saja menarik 1000 perjalanan dengan taksi dari topik Pub/Sub dan memasukkannya ke tabel BigQuery. Seperti yang Anda lihat sendiri, template adalah cara yang praktis dan mudah digunakan untuk menjalankan tugas Dataflow. Pastikan untuk mempelajari beberapa Template Google lainnya di bagian Panduan penggunaan template yang disediakan Google di Dokumentasi Dataflow.

Tugas 5. Menguji pemahaman Anda

Di bawah ini terdapat pertanyaan pilihan ganda untuk memperkuat pemahaman Anda tentang konsep lab ini. Jawab pertanyaan tersebut sebaik mungkin.

Selamat!

Menyelesaikan Quest Anda

Lab mandiri ini adalah bagian dari Quest Baseline: Data, ML, AI. Quest adalah serangkaian lab terkait yang membentuk jalur pembelajaran. Dengan menyelesaikan quest ini, Anda mendapatkan badge sebagai pengakuan atas pencapaian Anda. Anda dapat menunjukkan satu atau beberapa badge kepada orang lain secara publik dan menautkannya di resume online atau akun media sosial Anda. Daftar ke Quest ini atau Quest apa pun yang berisi lab ini dan segera dapatkan kredit penyelesaian. Lihat Katalog Google Cloud Skills Boost untuk melihat semua Quest yang tersedia.

Langkah berikutnya/Pelajari lebih lanjut

Lab ini merupakan bagian dari rangkaian lab yang disebut Qwik Start. Lab ini dirancang agar Anda dapat mencoba berbagai fitur yang tersedia dengan Google Cloud. Telusuri "Qwik Starts" di katalog Google Cloud Skills Boost untuk menemukan lab berikutnya yang ingin Anda ikuti.

Sertifikasi dan pelatihan Google Cloud

...membantu Anda mengoptimalkan teknologi Google Cloud. Kelas kami mencakup keterampilan teknis dan praktik terbaik untuk membantu Anda memahami dengan cepat dan melanjutkan proses pembelajaran. Kami menawarkan pelatihan tingkat dasar hingga lanjutan dengan opsi on demand, live, dan virtual untuk menyesuaikan dengan jadwal Anda yang sibuk. Sertifikasi membantu Anda memvalidasi dan membuktikan keterampilan serta keahlian Anda dalam teknologi Google Cloud.

Manual Terakhir Diperbarui pada 10 November 2023

Lab Terakhir Diuji pada 10 November 2023

Hak cipta 2024 Google LLC Semua hak dilindungi undang-undang. Google dan logo Google adalah merek dagang dari Google LLC. Semua nama perusahaan dan produk lain mungkin adalah merek dagang masing-masing perusahaan yang bersangkutan.