Francisco Colomer
회원 가입일: 2023
다이아몬드 리그
46909포인트
회원 가입일: 2023
In this video, you'll learn to build a working music synthesizer using a simple text prompt in Gemini Canvas. You'll see how to specify controls like waveform, attack, and sustain, and then interact with the generated instrument to create and experiment with your own unique sounds.
"바이브 코딩과 MCP를 활용하여 스마트한 클라우드 애플리케이션 빌드하기" 과정을 완료하여 기술 배지를 획득하세요. 이 과정에서는 Google의 AI 코딩 어시스턴트와 MCP 서버의 강력한 기능을 활용하는 방법을 배울 수 있습니다.
Complete the Streamline Application Development with Gemini CLI skill badge to demonstrate your proficiency in using the full capabilities of Gemini CLI in application development tasks. You will be tasked with defining multi-step plans, creating a reusable CLI extension, managing context, experimenting with checkpoints and deploying to Cloud Run all from Gemini CLI. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
본 과정은 이 터미널을 위해 구축된 Gemini 기반의 생성형 AI 에이전트인 Gemini CLI를 사용하여 더욱 스마트하게 작업하고자 하는 앱 개발자와 DevOps 엔지니어를 대상으로 고안되었습니다. 이 과정에서는 Gemini CLI 설치 및 구성에 대해 설명하고 사용 사례와 보안 권장사항을 소개합니다. 명령어, 도구, MCP 서버, 확장 프로그램에 대해서도 다룹니다. 실습을 통해 Gemini CLI를 설치 및 구성하고 이를 사용하여 코드를 분석하고 앱을 빌드 및 수정해 봅니다.
Welcome to the "AI Infrastructure: Networking Techniques" course. In this course, you'll learn to leverage Google Cloud's high-bandwidth, low-latency infrastructure to optimize data transfer and communication between all the components of your AI system. By the end, you'll grasp the critical role networking plays across the entire AI pipeline from data ingestion and training to inference and be able to apply best practices to ensure your workloads run at maximum speed.
In this course, you’ll take a comprehensive journey through the storage solutions available on Google Cloud, specifically tailored for AI and high-performance computing (HPC) workloads. You’ll learn how to choose the right storage for each stage of the ML lifecycle. You’ll explore how to optimize for I/O performance during training, manage massive datasets for data preparation, and serve model artifacts with low latency. Through practical examples and demonstrations, you’ll gain the expertise to design robust storage solutions that accelerate your AI innovation.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
Cloud TPU 과정에 오신 것을 환영합니다. 다양한 시나리오에서 TPU의 장단점을 살펴보고 여러 TPU 가속기를 비교하여 적합한 것을 선택하는 데 도움을 드리겠습니다. 이 과정을 통해 AI 모델의 성능과 효율성을 극대화하는 전략을 배우고 유연한 머신러닝 워크플로에 있어 GPU/TPU 상호 운용성이 얼마나 중요한지 이해하게 될 것입니다. 흥미로운 콘텐츠와 실용적인 데모를 통해 TPU를 효과적으로 활용하는 방법을 단계별로 안내해 드리겠습니다.
Curious about the powerful hardware behind AI? This course breaks down performance-optimized AI computers, showing you why they're so important. We'll explore how CPUs, GPUs, and TPUs make AI tasks super fast, what makes each one unique, and how AI software gets the most out of them. By the end, you'll know exactly how to pick the right compute for your AI projects, helping you make smart choices for your AI workkoads.
AI 하이퍼컴퓨터를 시작할 준비가 되셨나요? 이 과정에서는 AI 하이퍼컴퓨터를 쉽게 시작할 수 있도록 도와드립니다. AI 하이퍼컴퓨터에 대한 기본사항을 다루고 AI 하이퍼컴퓨터가 AI의 AI 워크로드 처리에 어떤 도움을 주는지 살펴봅니다. GPU, TPU, CPU 등 하이퍼컴퓨터 내부의 다양한 구성요소와 니즈에 맞는 적절한 배포 방식을 선택하는 방법을 알아봅니다.
In this Google DeepMind course you will focus on the training process for machine learning models. You will learn how to spot and mitigate issues when training a model, such as overfitting and underfitting. In practical coding labs, you will implement and evaluate the multilayer perceptron for simple classification tasks. This will provide insights into the mechanics of training a neural network model and the backpropagation algorithm. Research case studies will demonstrate how neural networks power real-world models. Additionally, you will consider the broader social impacts of innovation by looking beyond immediate benefits to anticipate potential risks, safety concerns, and further-reaching societal consequences.
In this Google DeepMind course you will learn how to prepare text data for language models to process. You will investigate the tools and techniques used to prepare, structure, and represent text data for language models, with a focus on tokenization and embeddings. You will be encouraged to think critically about the decisions behind data preparation, and what biases within the data may be introduced into models. You will analyze trade-offs, learn how to work with vectors and matrices, how meaning is represented in language models. Finally, you will practice designing a dataset ethically using the Data Cards process, ensuring transparency, accountability, and respect for community values in AI development.
In this Google DeepMind course, you will learn the fundamentals of language models and gain a high-level understanding of the machine learning development pipeline. You will consider the strengths and limitations of traditional n-gram models and advanced transformer models. Practical coding labs will enable you to develop insights into how machine learning models work and how they can be used to generate text and identify patterns in language. Through real-world case studies, you will build an understanding around how research engineers operate. Drawing on these insights you will identify problems that you wish to tackle in your own community and consider how to leverage the power of machine learning responsibly to address these problems within a global and local context.
The course aims to train Google technical sales partners on the business value discovery process using proprietary content. Course activities use an external tool (Yoodli). Refer to Yoodli's Terms of Service and Privacy Notice.
Want to learn more about Google Cloud? Grow your Google Cloud knowledge, strengthen your skills to win with customers, and scale your Google Cloud business. Find it here in one handy location.
This course enables system integrators and partners to understand the principles of automated migrations, plan legacy system migrations to Google Cloud leveraging G4 Platform, and execute a trial code conversion.
초급 AlloyDB 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 다음 기술을 입증하세요. AlloyDB 핵심 작업 및 태스크 수행하기, PostgreSQL에서 AlloyDB로 마이그레이션하기, AlloyDB 데이터베이스 관리하기, AlloyDB 열 기반 엔진을 사용하여 분석 쿼리 가속화하기
초급 Bigtable 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 인스턴스 만들기, 스키마 설계, 데이터 쿼리, Bigtable의 관리 작업 수행(성능 모니터링, 노드 자동 확장 및 복제 구성 등)과 관련된 기술 역량을 입증하세요.
초급 Cloud Spanner 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 Cloud Spanner 인스턴스 및 데이터베이스를 만들고 상호작용하기, 다양한 기법을 사용하여 Cloud Spanner 데이터베이스 로드, Cloud Spanner 데이터베이스 백업, 스키마 정의 및 쿼리 계획 이해, Cloud Spanner 인스턴스에 연결된 최신 웹 앱 배포와 관련된 기술 역량을 입증하세요.
초급 PostgreSQL용 Cloud SQL 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 PostgreSQL용 Cloud SQL 인스턴스와 데이터베이스를 마이그레이션, 구성, 관리할 수 있는 기술 역량을 입증하세요.
이 과정에서는 생성형 AI 모델과 상호작용하고 비즈니스 아이디어의 프로토타입을 제작하여 프로덕션으로 출시할 수 있는 도구인 Vertex AI Studio를 소개합니다. 몰입감 있는 사용 사례, 흥미로운 강의, 실무형 실습을 통해 프롬프트부터 프로덕션에 이르는 수명 주기를 살펴보고 Vertex AI Studio를 Gemini 멀티모달 애플리케이션, 프롬프트 설계, 프롬프트 엔지니어링, 모델 조정에 활용하는 방법을 알아봅니다. 이 과정의 목표는 Vertex AI Studio로 프로젝트에서 생성형 AI의 잠재력을 활용하는 것입니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
This course introduces you to the world of reliable deep learning, a critical discipline focused on developing machine learning models that not only make accurate predictions but also understand and communicate their own uncertainty. You'll learn how to create AI systems that are trustworthy, robust, and adaptable, particularly in high-stakes scenarios where errors can have significant consequences.
초급 Database Migration Service로 MySQL 데이터를 Cloud SQL로 마이그레이션하기 기술 배지 과정을 완료하여 Database Migration Service에서 제공되는 다양한 작업 유형 및 연결 옵션을 사용하여 MySQL 데이터를 Cloud SQL로 마이그레이션하고 Database Migration Service 작업을 실행할 때 MySQL 사용자 데이터를 마이그레이션할 수 있는 기술 역량을 입증하세요.
This course is intended to give architects, engineers, and developers the skills required to help enterprise customers architect, plan, execute, and test database migration projects. Through a combination of presentations, demos, and hands-on labs participants move databases to Google Cloud while taking advantage of various services. This course covers how to move on-premises, enterprise databases like SQL Server to Google Cloud (Compute Engine and Cloud SQL) and Oracle to Google Cloud bare metal.
이 과정에서는 Google Cloud에서 애플리케이션을 효과적으로 개발하기 위해 니즈에 맞는 데이터베이스를 분석하고 선택하는 방법을 알아봅니다. 관계형 데이터베이스 및 NoSQL 데이터베이스를 살펴보고 Cloud SQL, AlloyDB, Spanner에 대해 자세히 알아보고 생성형 AI를 포함한 애플리케이션 요구사항에 맞게 데이터베이스의 강점을 활용하는 방법을 배웁니다. 실무형 실습을 통해 벡터 검색을 구성하고 애플리케이션을 클라우드로 마이그레이션해 봅니다.
Google Cloud 기초: 핵심 인프라 과정은 Google Cloud 사용에 관한 중요한 개념 및 용어를 소개합니다. 이 과정에서는 동영상 및 실무형 실습을 통해 중요한 리소스 및 정책 관리 도구와 함께 Google Cloud의 다양한 컴퓨팅 및 스토리지 서비스를 살펴보고 비교합니다.
이 과정에서는 우수사례를 중심으로 ML 워크플로에 대한 실질적인 접근 방식을 취합니다. ML팀은 다양한 ML 비즈니스 요구사항과 사용 사례에 직면합니다. 팀에서는 데이터 관리 및 거버넌스에 필요한 도구를 이해하고 가장 효과적으로 데이터 전처리에 접근하는 방식을 파악해야 합니다. 두 가지 사용 사례를 위한 ML 모델을 빌드하는 세 가지 옵션이 팀에 제시됩니다. 이 과정에서는 목표를 달성하기 위해 AutoML, BigQuery ML 또는 커스텀 학습을 사용하는 이유를 설명합니다.
Google Cloud에서 머신러닝을 구현하기 위한 권장사항에는 어떤 것이 있을까요? Vertex AI란 무엇이고, 이 플랫폼을 사용하여 코드는 한 줄도 작성하지 않고 AutoML 머신러닝 모델을 빠르게 빌드, 학습, 배포하려면 어떻게 해야 할까요? 머신러닝이란 무엇이며 어떤 종류의 문제를 해결할 수 있을까요? Google은 머신러닝을 조금 다른 방식으로 바라봅니다. Google이 머신러닝과 관련하여 중요하게 생각하는 것은 관리형 데이터 세트를 위한 통합 플랫폼과 특징 저장소를 제공하고, 코드를 작성하지 않고도 머신러닝 모델을 빌드, 학습, 배포할 방법을 제공하고, 데이터에 라벨을 지정하고, TensorFlow, scikit-learn, Pytorch, R 등과 같은 프레임워크를 사용하여 Workbench 노트북을 만들 수 있도록 지원하는 것입니다. Google의 Vertex AI 플랫폼에는 커스텀 모델을 학습시키고, 구성요소 파이프라인을 빌드하고, 온라인 및 일괄 예측을 실행하는 기능이 포함되어 있습니다. 후보 사용 사례를 머신러닝으로 구동되도록 변환하는 5단계를 살펴보고, 단계를 건너뛰지 않는 것이 중요한 이유를 알아봅니다. 마지막으로, 머신러닝이 증폭시킬 수 있는 편향과 이를 인식할 방법을 살펴봅니다.
중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다.
중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요.
초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.
이 중급 과정에서는 Google Cloud에서 강력한 일괄 데이터 파이프라인을 설계, 빌드, 최적화하는 방법을 알아봅니다. 기본적인 데이터 처리를 넘어, 시의적절한 비즈니스 인텔리전스와 중요한 보고에 필수적인 대규모 데이터 변환과 효율적인 워크플로 조정에 대해 살펴봅니다. Apache Beam용 Dataflow와 Apache Spark용 서버리스(Dataproc Serverless)를 사용하여 구현을 실습하고, 파이프라인 안정성과 운영 우수성을 보장하기 위해 데이터 품질, 모니터링, 알림에 대한 중요한 고려사항을 다룹니다. 데이터 웨어하우징, ETL/ELT, SQL, Python, Google Cloud 개념에 대한 기본적인 지식이 있으면 좋습니다.
이 과정에서는 스트리밍 데이터 파이프라인을 빌드할 때 직면하는 실제 과제를 해결하기 위해 실습을 진행합니다. Google Cloud 제품을 사용하여 지속적이고 무제한적인 데이터를 관리하는 데 중점을 둡니다.
데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.