Bhavana S
Participante desde 2025
Liga Diamante
11264 pontos
Participante desde 2025
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.
Conquiste o selo de habilidade introdutório Preparar dados para APIs de ML no Google Cloud para demonstrar que você é capaz de: limpar dados com o Dataprep by Trifacta, executar pipelines de dados no Dataflow, criar clusters e executar jobs do Apache Spark no Dataproc e chamar APIs de ML, incluindo as APIs Cloud Natural Language, Google Cloud Speech-to-Text e Video Intelligence.
Ganhe um selo de habilidade ao concluir o curso Compartilhe dados com o Google Data Cloud. Nele, você vai adquirir experiência prática com os parceiros do de compartilhamento de dados, que têm conjuntos de dados próprios que os clientes podem usar para casos de uso de análise. Os clientes assinam e consultam esses dados na própria plataforma, depois os aprimoram com os conjuntos de dados e usam ferramentas de visualização nos painéis voltados para o cliente.
Ganhe um selo de habilidade ao concluir o curso Streaming de análises para o BigQuery, em que você usa o Pub/Sub, o Dataflow e o BigQuery juntos para transmitir dados para análise.
Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery.
Conclua o selo de habilidade introdutório Gerar insights a partir de dados do BigQuery para mostrar que você sabe gravar consultas SQL, consultar tabelas públicas e carregar dados de amostra no BigQuery, solucionar erros comuns de sintaxe com o validador de consultas no BigQuery e criar relatórios no Looker Studio fazendo a conexão com dados do BigQuery.