O curso "Agentes de IA generativa: transforme sua organização" é o quinto e último do programa de aprendizado Gen AI Leader. Nesse curso, você aprende como as organizações podem usar agentes de IA generativa personalizados para enfrentar desafios específicos nos negócios. Você aprende na prática a construir um agente básico de IA generativa e quais são os componentes desses agentes, como modelos, ciclos de raciocínio e ferramentas.
Apps de IA generativa: transforme seu trabalho é o quarto curso do programa de aprendizado de liderança em IA Generativa. Esse curso apresenta os aplicativos de IA generativa do Google, como Gemini para Workspace e NotebookLM. Além disso, aborda conceitos como embasamento, geração aumentada de recuperação, construção de comandos eficazes e criação de fluxos de trabalho automatizados.
IA generativa: encare o cenário atual é o terceiro curso do programa de aprendizado de liderança em IA generativa. A IA generativa está mudando a forma como trabalhamos e interagimos com o mundo ao nosso redor. Mas, como líder, como aproveitar esse potencial para gerar resultados de negócios reais? Neste curso, você vai conhecer as diferentes camadas da criação de soluções de IA generativa, as ofertas do Google Cloud e os fatores a serem considerados ao selecionar uma solução.
IA generativa: conceitos básicos é o segundo curso do programa de aprendizado de liderança em IA generativa. Neste curso, você conhece os conceitos básicos da IA generativa, analisa as diferenças entre IA, ML e IA generativa, e aprende como vários tipos de dados possibilitam que a IA generativa lide com desafios de negócios. Além disso, aprende sobre as estratégias do Google Cloud para lidar com as limitações dos modelos de fundação e os principais desafios para o desenvolvimento e a implantação seguros e responsáveis da IA.
IA generativa: para além do chatbot é o primeiro curso do programa de aprendizado de liderança em IA generativa e não tem pré-requisitos. Este curso tem como objetivo ir além do conhecimento básico de chatbots para explorar o verdadeiro potencial da IA generativa para sua organização. Você aprenderá conceitos como modelos de fundação e engenharia de comando, que são cruciais para aproveitar o poder da IA generativa. O curso também aborda considerações importantes ao desenvolver uma estratégia de IA generativa de sucesso para a organização.
Este curso ajuda estudantes a criar um plano de estudo para o exame de certificação PDE (Professional Data Engineer). É possível conferir a amplitude e o escopo dos domínios abordados no exame. Os estudantes também podem acompanhar os preparativos para o exame e criar planos de estudos individuais.
Conclua o selo de habilidade introdutório Como criar uma malha de dados com o Dataplex para mostrar sua capacidade de usar o Dataplex para criar uma malha de dados e assim facilitar a segurança, a governança e a descoberta de dados no Google Cloud. Você vai praticar e testar suas habilidades em aplicar tags a recursos, atribuir papéis do IAM e avaliar a qualidade dos dados no Dataplex.
Conclua o selo de habilidade intermediário Criar um data warehouse com o BigQuery para mostrar que você sabe mesclar dados para criar novas tabelas; solucionar problemas de mesclagens; adicionar dados ao final com uniões; criar tabelas particionadas por data; além de trabalhar com JSON, matrizes e structs no BigQuery.
Este curso demonstra como usar modelos de ML/IA para tarefas generativas no BigQuery. Nele, você vai conhecer o fluxo de trabalho para solucionar um problema comercial com modelos do Gemini utilizando um caso de uso prático que envolve gestão de relacionamento com o cliente. Para facilitar a compreensão, o curso também proporciona instruções detalhadas de soluções de programação que usam consultas SQL e notebooks Python.
Neste curso, vamos conhecer o Gemini no BigQuery, um pacote de recursos com tecnologia de IA que auxilia no fluxo de trabalho de dados para inteligência artificial. Esses recursos incluem preparação e análise detalhada de dados, solução de problemas e geração de código, além da descoberta e visualização do fluxo de trabalho. Com explicações conceituais, um caso de uso prático e o laboratório, o curso ensina aos profissionais de dados como aumentar a produtividade e acelerar o pipeline de desenvolvimento.
Na última parte da série de cursos do Dataflow, vamos abordar os componentes do modelo operacional do Dataflow. Veremos ferramentas e técnicas para solucionar problemas e otimizar o desempenho do pipeline. Depois analisaremos as práticas recomendadas de teste, implantação e confiabilidade para pipelines do Dataflow. Por fim, faremos uma revisão dos modelos, que facilitam o escalonamento dos pipelines do Dataflow para organizações com centenas de usuários. Essas lições garantem que a plataforma de dados seja estável e resiliente a circunstâncias imprevistas.
Na segunda parte desta série, vamos nos aprofundar no desenvolvimento de pipelines usando o SDK do Beam. Primeiro, vamos conferir um resumo dos conceitos do Apache Beam. Depois disso, falaremos sobre como processar dados de streaming usando janelas, marcas d’água e gatilhos. Em seguida, vamos ver as opções de origens e coletores para seus pipelines, além de esquemas para expressar seus dados estruturados e como fazer transformações com estado usando as APIs State e Timer. A próxima tarefa será conferir as práticas recomendadas para maximizar o desempenho do pipeline. No final do curso, apresentaremos as APIs SQL e Dataframes, que representam sua lógica de negócios no Beam. Além disso, veremos como desenvolver pipelines de maneira iterativa usando os notebooks do Beam.
Neste curso, você vai resolver desafios reais enfrentados na criação de pipelines de dados de streaming. O foco é gerenciar dados contínuos e ilimitados com os produtos do Google Cloud.
Este é o primeiro de uma série de três cursos sobre processamento de dados sem servidor com o Dataflow. Nele, vamos relembrar o que é o Apache Beam e qual é a relação entre ele e o Dataflow. Depois, falaremos sobre a visão do Apache Beam e os benefícios do framework de portabilidade desse modelo de programação. Com esse processo, o desenvolvedor pode usar a linguagem de programação favorita com o back-end de execução que quiser. Em seguida, mostraremos como o Dataflow permite a separação entre a computação e o armazenamento para economizar dinheiro. Além disso, você vai aprender como as ferramentas de identidade, acesso e gerenciamento interagem com os pipelines do Dataflow. Por fim, vamos ver como implementar o modelo de segurança ideal para seu caso de uso no Dataflow.
Neste curso intermediário, você aprenderá a projetar, criar e otimizar pipelines de dados em lote robustos no Google Cloud. Além do tratamento básico de dados, você vai aprender sobre transformações em grande escala e orquestração eficiente de fluxos de trabalho, essenciais para a eficiência em Business Intelligence e relatórios importantes. Pratique o uso do Dataflow para Apache Beam e do Serverless para Apache Spark (Dataproc sem servidor) na implementação e resolva questões importantes em qualidade de dados, monitoramento e alertas, garantindo um pipeline confiável e excelência operacional. Recomendamos ter conhecimento básico de armazenamento em data warehouse, ETL/ELT, SQL, Python e conceitos do Google Cloud.
Embora as abordagens tradicionais de uso de data lakes e data warehouses possam ser eficazes, elas têm alguns problemas, principalmente em grandes ambientes corporativos. Este curso apresenta o conceito de data lakehouse e os produtos do Google Cloud usados para criar um. Uma arquitetura de lakehouse usa fontes de dados de padrão aberto e combina os melhores atributos de data lakes e data warehouses, o que resolve muitos desses problemas.
Neste curso, vamos falar sobre a engenharia de dados no Google Cloud, os papéis e responsabilidades dos engenheiros de dados e como alinhá-los aos produtos do Google Cloud. Além disso, você aprenderá a lidar com os desafios da engenharia de dados.
Este curso vai além do básico do Looker Studio para explicar os recursos e funções avançadas do Looker Studio Pro. Saiba como aproveitar os espaços de trabalho em grupo para colaborar de forma eficiente, aprimorar a segurança e a administração de dados, e usar o Google Cloud Customer Care para receber ajuda. Descubra recursos premium que melhoram a visualização de dados e as funções de relatórios. Este curso foi desenvolvido para usuários que já têm um conhecimento básico do Looker Studio e querem aproveitar a ferramenta ao máximo em negócios ou organizações.
Conquiste o selo de habilidade introdutório Prepare os dados para relatórios e dashboards do Looker para mostrar que você sabe: filtrar, ordenar e dinamizar dados; mesclar resultados de diferentes Análises do Looker; e usar funções e operadores para criar dashboards e relatórios do Looker para análise e visualização de dados.
Quer criar modelos de ML em minutos em vez de horas usando apenas SQL? O BigQuery ML democratiza o machine learning ao permitir que analistas de dados criem, treinem, avaliem e façam previsões usando habilidades e ferramentas de SQL que eles já têm. Nesta série de laboratórios, você vai fazer alguns testes e saber quais são as características de um bom modelo.
Esta é a primeira de duas Quests de laboratórios práticos e é derivada dos exercícios do livro Data Science on Google Cloud Platform de Valliappa Lakshmanan, publicado pela O'Reilly Media, Inc. Nesta primeira Quest, que aborda o capítulo 8, você poderá praticar todos os aspectos de ingestão, preparação, processamento, consulta, exploração e visualização de conjuntos de dados usando as ferramentas e os serviços do Google Cloud Platform.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
This quest assesses your ability to create and use BigQuery ML machine learning models.
This quest assesses a Data Engineer's ability to build data transformation pipelines using Cloud Data Fusion.
This quest assesses a Data Analyst's ability to use Google Data Studio to build an interactive dashboard that presents aggregated data from multiple BigQuery tables.