Inscreva-se Fazer login

Manuel Alejandro Vargas Carrillo

Participante desde 2024

Liga Ouro

9185 pontos
Criar um data warehouse com o BigQuery Earned Jul 7, 2024 EDT
Introdução ao Pub/Sub Earned Jul 4, 2024 EDT
Como criar pipelines de dados em lote no Google Cloud Earned Jul 2, 2024 EDT
Processamento de dados sem servidor com o Dataflow: fundamentos Earned May 16, 2024 EDT

Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery.

Saiba mais

Ganhe um selo de habilidade ao concluir o curso Introdução ao Pub/Sub, onde você aprende a usar o Pub/Sub com o console do Cloud. Além disso, você descobre como os jobs do Cloud Scheduler podem economizar seu esforço, e quando o Pub/Sub Lite pode economizar seu dinheiro na ingestão de eventos de alto volume.

Saiba mais

Neste curso intermediário, você aprenderá a projetar, criar e otimizar pipelines de dados em lote robustos no Google Cloud. Além do tratamento básico de dados, você vai aprender sobre transformações em grande escala e orquestração eficiente de fluxos de trabalho, essenciais para a eficiência em Business Intelligence e relatórios importantes. Pratique o uso do Dataflow para Apache Beam e do Serverless para Apache Spark (Dataproc sem servidor) na implementação e resolva questões importantes em qualidade de dados, monitoramento e alertas, garantindo um pipeline confiável e excelência operacional. Recomendamos ter conhecimento básico de armazenamento em data warehouse, ETL/ELT, SQL, Python e conceitos do Google Cloud.

Saiba mais

Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.

Saiba mais