Huang Pan
Participante desde 2023
Participante desde 2023
Neste curso, você vai aprender com engenheiros e instrutores de ML que trabalham com o desenvolvimento de última geração dos pipelines de ML aqui no Google Cloud. Nos primeiros módulos, vamos abordar o TensorFlow Extended (ou TFX), que é uma plataforma de machine learning do Google baseada no TensorFlow criada para gerenciar pipelines e metadados de ML. Você vai conhecer os componentes e a orquestração de um pipeline com o TFX. Também vamos abordar como é possível automatizar os pipelines usando a integração e a implantação contínuas e como gerenciar os metadados de ML. Depois disso, vamos mudar o foco para discutir como podemos automatizar e reutilizar os pipelines de ML em vários frameworks de machine learning, como tensorflow, pytorch, scikit-learn e xgboost. Você também vai aprender a usar outra ferramenta no Google Cloud, o Cloud Composer, para orquestrar seus pipelines de treinamento contínuo. Por fim, vamos mostrar como usar o MLflow para gerenciar o ciclo de vida completo do ma…
Este curso tem uma abordagem realista para o fluxo de trabalho de ML usando um estudo de caso em que uma equipe tem vários casos de uso e exigências comerciais em ML. Essa equipe precisa conhecer as ferramentas necessárias para a governança e o gerenciamento de dados e decidir a melhor abordagem para o processamento deles. A equipe terá três opções para criar modelos de ML em dois casos de uso. Neste curso, explicamos quando usar o AutoML, o BigQuery ML ou o treinamento personalizado para alcançar os objetivos.
Neste curso, os participantes vão conhecer as ferramentas de MLOps e as práticas recomendadas para a implantação, a avaliação, o monitoramento e a operação de sistemas de ML de produção no Google Cloud. MLOps é uma disciplina com foco na implantação, no teste, no monitoramento e na automação de sistemas de ML em produção. Profissionais de engenharia de machine learning usam ferramentas para fazer melhorias contínuas e avaliações de modelos implantados. São profissionais que trabalham com ciências de dados e desenvolvem modelos para garantir a velocidade e o rigor na implantação de modelos com melhor desempenho.
Neste curso, vamos conhecer os componentes e as práticas recomendadas para criar sistemas de ML com alto desempenho em ambientes de produção. Vamos abordar algumas considerações comuns relacionadas à criação desses sistemas, como treinamento estático e dinâmico, inferência estática e dinâmica, TensorFlow distribuído e TPUs. O objetivo deste curso é conhecer as características de um sistema de ML eficiente, que vão muito além da capacidade de fazer boas previsões.
O curso apresenta os benefícios de usar a Vertex AI Feature Store e ensina a melhorar a acurácia dos modelos de ML e a identificar as colunas de dados que apresentam os atributos mais úteis. Ele também oferece conteúdo teórico e laboratórios sobre engenharia de atributos com BigQuery ML, Keras e TensorFlow.
Este curso ensina a criar modelos de ML com o TensorFlow e o Keras, melhorar a acurácia deles e desenvolver modelos para uso em escala.
O curso começa com a seguinte discussão: como melhorar a qualidade dos dados e fazer uma análise exploratória deles? Descrevemos o AutoML na Vertex AI e como criar, treinar e implantar um modelo de ML sem escrever nenhuma linha de código. Você vai conhecer os benefícios do BigQuery ML. Depois vamos falar sobre como otimizar um modelo de machine learning (ML) e como a generalização e a amostragem podem ajudar na avaliação de qualidade dos modelos de ML em treinamentos personalizados.
Quais são as práticas recomendadas para implementar machine learning no Google Cloud? O que é Vertex AI e como é possível usar a plataforma para criar, treinar e implantar modelos de machine learning do AutoML com rapidez e sem escrever nenhuma linha de código? O que é machine learning e que tipos de problema ele pode resolver? O Google pensa em machine learning de uma forma um pouco diferente. Para nós, o processo de ML é sobre fornecer uma plataforma unificada para conjuntos de dados gerenciados, como uma Feature Store, uma forma de criar, treinar e implantar modelos de machine learning sem escrever nenhuma linha de código. Além disso, o ML também é sobre a habilidade de rotular dados, criar notebooks do Workbench usando frameworks (como TensorFlow, SciKit Learn, Pytorch e R) e muito mais. A plataforma Vertex AI também inclui a possibilidade de treinar modelos personalizados, criar pipelines de componente e realizar previsões em lote e on-line. Também falamos sobre as cinco fas…
Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.
Na segunda parte desta série, vamos nos aprofundar no desenvolvimento de pipelines usando o SDK do Beam. Primeiro, vamos conferir um resumo dos conceitos do Apache Beam. Depois disso, falaremos sobre como processar dados de streaming usando janelas, marcas d’água e gatilhos. Em seguida, vamos ver as opções de origens e coletores para seus pipelines, além de esquemas para expressar seus dados estruturados e como fazer transformações com estado usando as APIs State e Timer. A próxima tarefa será conferir as práticas recomendadas para maximizar o desempenho do pipeline. No final do curso, apresentaremos as APIs SQL e Dataframes, que representam sua lógica de negócios no Beam. Além disso, veremos como desenvolver pipelines de maneira iterativa usando os notebooks do Beam.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
A incorporação de machine learning em pipelines de dados aumenta a capacidade de extrair insights dessas informações. Neste curso, mostramos as várias formas de incluir essa tecnologia em pipelines de dados do Google Cloud. Para casos de pouca ou nenhuma personalização, vamos falar sobre o AutoML. Para usar recursos de machine learning mais personalizados, vamos apresentar os Notebooks e o machine learning do BigQuery (BigQuery ML). No curso, você também vai aprender sobre a produção de soluções de machine learning usando a Vertex AI.
Neste curso, você vai resolver desafios reais enfrentados na criação de pipelines de dados de streaming. O foco é gerenciar dados contínuos e ilimitados com os produtos do Google Cloud.
Neste curso intermediário, você aprenderá a projetar, criar e otimizar pipelines de dados em lote robustos no Google Cloud. Além do tratamento básico de dados, você vai aprender sobre transformações em grande escala e orquestração eficiente de fluxos de trabalho, essenciais para a eficiência em Business Intelligence e relatórios importantes. Pratique o uso do Dataflow para Apache Beam e do Serverless para Apache Spark (Dataproc sem servidor) na implementação e resolva questões importantes em qualidade de dados, monitoramento e alertas, garantindo um pipeline confiável e excelência operacional. Recomendamos ter conhecimento básico de armazenamento em data warehouse, ETL/ELT, SQL, Python e conceitos do Google Cloud.
Embora as abordagens tradicionais de uso de data lakes e data warehouses possam ser eficazes, elas têm alguns problemas, principalmente em grandes ambientes corporativos. Este curso apresenta o conceito de data lakehouse e os produtos do Google Cloud usados para criar um. Uma arquitetura de lakehouse usa fontes de dados de padrão aberto e combina os melhores atributos de data lakes e data warehouses, o que resolve muitos desses problemas.
Este curso apresenta os produtos e serviços de Big Data e machine learning do Google Cloud que auxiliam no ciclo de vida de dados para IA. Ele explica os processos, os desafios e os benefícios de criar um pipeline de Big Data e modelos de machine learning com a Vertex AI no Google Cloud.
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.
Neste curso, vamos conhecer o Vertex AI Studio, uma ferramenta para interagir com modelos de IA generativa, prototipar ideias comerciais e colocá-las em produção. Com a ajuda de um caso de uso imersivo, lições interessantes e um laboratório, você vai conhecer o ciclo de vida do comando à produção, além de usar o Vertex AI Studio para aplicativos multimodais do Gemini, design e engenharia de comandos e ajuste de modelos. O objetivo é permitir que você descubra todo o potencial da IA generativa nos seus projetos com o Vertex AI Studio.
Receba um selo de habilidade ao concluir os cursos "Introduction to Generative AI", "Introduction to Large Language Models" e "Introduction to Responsible AI". Consiga a aprovação nos testes finais dos cursos para demonstrar seu conhecimento sobre os conceitos básicos da IA generativa. Os selos de habilidades são digitais. Eles são emitidos pelo Google Cloud como forma de reconhecer sua capacidade de trabalhar com os produtos e serviços do Cloud. Torne seu perfil público e adicione os selos de habilidades às suas mídias sociais para mostrar seus conhecimentos.
Este é um curso de microaprendizagem introdutório que busca explicar a IA responsável: o que é, qual é a importância dela e como ela é aplicada nos produtos do Google. Ele também contém os 7 princípios de IA do Google.
Este curso apresenta um resumo da arquitetura de codificador-decodificador, que é uma arquitetura de machine learning avançada e frequentemente usada para tarefas sequência para sequência (como tradução automática, resumo de textos e respostas a perguntas). Você vai conhecer os principais componentes da arquitetura de codificador-decodificador e aprender a treinar e disponibilizar esses modelos. No tutorial do laboratório relacionado, você vai codificar uma implementação simples da arquitetura de codificador-decodificador para geração de poesia desde a etapa inicial no TensorFlow.
Neste curso, ensinamos a criar um modelo de legenda para imagens usando aprendizado profundo. Você vai aprender sobre os diferentes componentes de um modelo de legenda para imagens, como o codificador e decodificador, e de que forma treinar e avaliar seu modelo. Ao final deste curso, você será capaz de criar e usar seus próprios modelos de legenda para imagens.
Neste curso, apresentamos os modelos de difusão, uma família de modelos de machine learning promissora no campo da geração de imagens. Os modelos de difusão são baseados na física, mais especificamente na termodinâmica. Nos últimos anos, eles se popularizaram no setor e nas pesquisas. Esses modelos servem de base para ferramentas e modelos avançados de geração de imagem no Google Cloud. Este curso é uma introdução à teoria dos modelos de difusão e como eles devem ser treinados e implantados na Vertex AI.
Este curso é uma introdução à arquitetura de transformador e ao modelo de Bidirectional Encoder Representations from Transformers (BERT, na sigla em inglês). Você vai aprender sobre os principais componentes da arquitetura de transformador, como o mecanismo de autoatenção, e como eles são usados para construir o modelo de BERT. Também vai conhecer as diferentes tarefas onde é possível usar o BERT, como classificação de texto, respostas a perguntas e inferência de linguagem natural. O curso leva aproximadamente 45 minutos.
Este curso é uma introdução ao mecanismo de atenção, uma técnica avançada que permite que as redes neurais se concentrem em partes específicas de uma sequência de entrada. Você vai entender como a atenção funciona e como ela pode ser usada para melhorar o desempenho de várias tarefas de machine learning (como tradução automática, resumo de texto e resposta a perguntas).
Este é um curso de microlearning de nível introdutório que explica o que são modelos de linguagem grandes (LLM), os casos de uso em que podem ser aplicados e como é possível fazer o ajuste de comandos para aprimorar o desempenho dos LLMs. O curso também aborda as ferramentas do Google que ajudam a desenvolver seus próprios apps de IA generativa.
Este é um curso de microaprendizagem introdutório que busca explicar a IA generativa: o que é, como é usada e por que ela é diferente de métodos tradicionais de machine learning. O curso também aborda as ferramentas do Google que ajudam você a desenvolver apps de IA generativa.