Victor Kinuthia
Menjadi anggota sejak 2021
Menjadi anggota sejak 2021
Agen AI Generatif: Mentransformasi Organisasi Anda adalah kursus kelima dan terakhir dari jalur pembelajaran Pemimpin AI Generatif. Kursus ini membahas cara organisasi menggunakan agen AI generatif kustom untuk membantu mengatasi tantangan bisnis tertentu. Anda akan mendapatkan praktik langsung dalam membangun agen AI generatif dasar, sambil mempelajari komponen agen ini, seperti model, loop penalaran, dan alat.
Aplikasi AI Generatif: Mentransformasi Pekerjaan Anda adalah kursus keempat dari jalur pembelajaran Generative AI Leader. Kursus ini memperkenalkan aplikasi AI generatif Google, seperti Gemini untuk Workspace dan NotebookLM. Kursus ini memandu Anda memahami konsep seperti grounding, retrieval augmented generation, menyusun perintah yang efektif, dan membangun alur kerja otomatis.
AI Generatif: Memahami Lanskap adalah kursus ketiga dari alur pembelajaran Generative AI Leader. AI generatif mengubah cara kita bekerja dan berinteraksi dengan dunia di sekitar kita. Namun, sebagai seorang pemimpin, bagaimana Anda dapat memanfaatkan kekuatan AI untuk mendorong hasil bisnis yang nyata? Dalam kursus ini, Anda akan mempelajari berbagai lapisan dalam membangun solusi AI generatif, penawaran Google Cloud, dan faktor yang perlu dipertimbangkan saat memilih solusi.
AI Generatif: Memahami Konsep Dasar adalah kursus kedua dari alur pembelajaran Generative AI Leader. Dalam kursus ini, Anda akan mempelajari konsep dasar AI generatif. Anda akan mempelajari perbedaan antara AI, ML, dan AI generatif serta mempelajari bagaimana berbagai jenis data memungkinkan AI generatif mengatasi tantangan bisnis. Anda juga akan mendapatkan insight tentang strategi Google Cloud untuk mengatasi keterbatasan model dasar dan tantangan utama dalam pengembangan dan deployment AI yang bertanggung jawab dan aman.
AI Generatif: Lebih dari Sekadar Chatbot adalah kursus pertama dari alur pembelajaran Generative AI Leader. Kursus ini tidak memiliki prasyarat. Kursus ini bertujuan untuk melampaui pemahaman dasar tentang chatbot guna mengeksplorasi potensi sebenarnya dari AI generatif untuk organisasi Anda. Anda akan mempelajari konsep seperti model dasar dan rekayasa perintah, yang penting untuk memanfaatkan kekuatan AI generatif. Kursus ini juga memandu Anda melalui pertimbangan penting yang harus Anda buat saat mengembangkan strategi AI generatif yang sukses untuk organisasi Anda.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Selesaikan badge keahlian pengantar Membangun Mesh Data dengan Dataplex untuk menunjukkan keterampilan dalam hal berikut: membuat mesh data dengan Dataplex untuk memfasilitasi keamanan, tata kelola, dan penemuan data di Google Cloud. Anda akan berlatih dan menguji keterampilan Anda dalam memberikan tag pada aset, menetapkan peran IAM, dan menilai kualitas data di Dataplex.
Selesaikan badge keahlian tingkat menengah Membangun Data Warehouse dengan BigQuery untuk menunjukkan keterampilan Anda dalam hal berikut: menggabungkan data untuk membuat tabel baru, memecahkan masalah penggabungan, menambahkan data dengan union, membuat tabel berpartisi tanggal, serta menggunakan JSON, array, dan struct di BigQuery.
Kursus ini menunjukkan cara menggunakan model AI/ML untuk tugas-tugas AI generatif di BigQuery. Melalui kasus penggunaan praktis yang melibatkan pengelolaan hubungan pelanggan (CRM), Anda akan mempelajari alur kerja pemecahan masalah bisnis dengan model Gemini. Untuk memudahkan pemahaman, kursus ini juga menyediakan panduan langkah demi langkah melalui solusi coding menggunakan kueri SQL dan notebook Python.
Kursus ini mengeksplorasi Gemini in BigQuery, yakni paket fitur yang didukung AI untuk membantu alur kerja data ke AI. Paket fitur ini meliputi eksplorasi dan persiapan data, pembuatan kode dan pemecahan masalah, serta penemuan dan visualisasi alur kerja. Melalui penjelasan konseptual, kasus penggunaan praktis, dan lab interaktif, kursus ini akan membantu para praktisi data dalam meningkatkan produktivitas mereka dan mempercepat pipeline pengembangan.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
Dalam kursus ini, Anda akan belajar tentang data engineering on Google Cloud, peran dan tanggung jawab data engineer, dan bagaimana hal tersebut terhubung dengan penawaran yang disediakan oleh Google Cloud. Anda juga akan mempelajari cara untuk mengatasi tantangan terkait data engineering.
This course goes beyond the basics of Looker Studio to explore the powerful features and capabilities of Looker Studio Pro. Learn how to leverage team workspaces for efficient collaboration, enhance data security and administration, and utilize Google Cloud Customer Care for support. Discover premium features that elevate your data visualization and reporting capabilities. This course is designed for users who already have a foundational understanding of Looker Studio and want to unlock its full potential for their business or organization.
Selesaikan badge keahlian pengantar Menyiapkan Data untuk Dasbor dan Laporan Looker untuk menunjukkan keterampilan dalam hal berikut: memfilter, mengurutkan, dan melakukan pivot pada data; menggabungkan hasil dari sejumlah Eksplorasi Looker; serta menggunakan fungsi dan operator untuk membangun dasbor dan laporan Looker untuk analisis dan visualisasi data.
Ingin membangun model ML dalam hitungan menit, bukan jam, hanya dengan menggunakan SQL? BigQuery ML memperluas akses machine learning dengan memungkinkan analis data membuat, melatih, mengevaluasi, dan memprediksi sesuatu dengan model machine learning menggunakan alat serta keterampilan SQL yang ada. Dalam rangkaian lab ini, Anda akan bereksperimen dengan beragam jenis model dan mempelajari ciri-ciri model yang baik.
This is the first of two Quests of hands-on labs is derived from the exercises from the book Data Science on Google Cloud Platform, 2nd Edition by Valliappa Lakshmanan, published by O'Reilly Media, Inc. In this first Quest, covering up through chapter 8, you are given the opportunity to practice all aspects of ingestion, preparation, processing, querying, exploring and visualizing data sets using Google Cloud tools and services.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
This quest assesses your ability to create and use BigQuery ML machine learning models.
This quest assesses a Data Engineer's ability to build data transformation pipelines using Cloud Data Fusion.
This quest assesses a Data Analyst's ability to use Google Data Studio to build an interactive dashboard that presents aggregated data from multiple BigQuery tables.