Advanced 5 Steps Horas 37 Créditos
Esta Quest de nivel avanzado es única entre las demás ofertas de Qwiklabs. Los labs se seleccionaron para ofrecer a los profesionales de TI prácticas con temas y servicios que aparecen en la certificación Professional Data Engineer de Google Cloud Certified. Desde BigQuery hasta Dataproc y TensorFlow, esta Quest se compone de labs específicos que pondrán a prueba sus conocimientos de ingeniería de datos de GCP. Tenga en cuenta que, si bien realizar estos labs le permitirá aumentar sus habilidades y capacidades, también necesitará otro tipo de preparación. El examen es bastante exigente y se recomienda contar con estudios externos, experiencia o capacitación en ingeniería de datos en la nube.
Prerequisites:
En esta Quest, se requiere tener dominio de los servicios de GCP, especialmente aquellos que requieren trabajar con grandes conjuntos de datos. Se recomienda que, antes de comenzar, el estudiante complete los labs prácticos de las Quests Baseline: Data, ML y AI, o GCP Essentials para obtener al menos una insignia. Será útil tener más experiencia en los labs de las Quests Scientific Data Processing y Machine Learning APIs.Quest Outline
Cómo crear una canalización de transformación de datos con Cloud Dataprep
Cloud Dataprep de Trifacta es un servicio de datos inteligente que permite explorar, limpiar y preparar visualmente datos estructurados y no estructurados para su análisis. En este lab, explorará la IU de Cloud Dataprep para compilar una canalización de transformación de datos.
Ejecute una canalización de procesamiento de texto de macrodatos en Cloud Dataflow
En este lab, usará Google Cloud Dataflow para crear un proyecto de Maven con el SDK de Cloud Dataflow y ejecutar una canalización de recuento de palabras distribuida con Google Cloud Platform Console.
Cómo crear una canalización de estadísticas de IoT en Google Cloud Platform
En este lab, aprenderá a conectar y administrar dispositivos con Cloud IoT Core, transferir flujos de información con Cloud Pub/Sub, procesar los datos de IoT con Cloud Dataflow y a usar BigQuery para analizar los datos de IoT. Mire este video breve: Easily Build an IoT Analytics Pipeline
Cómo realizar transmisiones de IoT Kafka a Google Cloud Pub/Sub
En este lab, creará una instancia de Confluent Kafka para comunicarse con Google Cloud Pub/Sub mediante mecanismos fuente y receptores.
Procesamiento ETL en GCP mediante Dataflow y BigQuery
En este lab, creará varias canalizaciones de datos que transferirán datos de un conjunto de datos disponible públicamente a BigQuery.
Prediga las compras de visitantes con un modelo de clasificación en BQML
En este lab, utilizará un conjunto de datos de comercio electrónico recientemente disponible para ejecutar algunas consultas típicas que las empresas querrían conocer sobre los hábitos de compra de sus clientes.
Prediga las tarifas de taxis con un modelo de previsión de AA de BigQuery
En este lab, explorará millones de viajes de taxis amarillos de la ciudad de Nueva York disponibles en un conjunto de datos públicos de BigQuery, creará un modelo de AA en BigQuery para predecir la tarifa y evaluará el rendimiento de su modelo para hacer predicciones.
Prediga precios de viviendas con TensorFlow y Cloud ML Engine
En este lab, compilará una solución de aprendizaje automático de extremo a extremo usando TensorFlow y Cloud ML Engine, y aprovechará la nube para llevar a cabo entrenamiento distribuido y predicción en línea.