
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Set up the notebook
/ 10
Interact with the model
/ 15
Configure and control the model
/ 15
Manage the model interaction
/ 20
Function calling
/ 10
Use context caching
/ 10
Retrieve batch prediction results
/ 10
Get text embeddings
/ 10
Google Gen AI SDK, Google'ın üretken yapay zeka API hizmetlerine yönelik birleşik bir arayüz sunar. Bu SDK, üretken yapay zeka özelliklerini uygulamalara ve hizmetlere entegre etme sürecini basitleştirerek geliştiricilerin çeşitli görevler için Google'ın gelişmiş yapay zeka modellerinden faydalanmasını sağlar. Bu laboratuvarda, Google Gen AI SDK'yı inceleyerek yapay zeka hizmetlerine bağlanmayı, çeşitli istemler göndermeyi ve Gemini'dan gelen yanıtları kişiselleştirmeyi öğreneceksiniz. Ayrıca üretken yapay zekanın gücünden kendi projelerinizde yararlanabilmeniz için daha gelişmiş tekniklerle uygulamalı deneyim kazanacaksınız.
Bu laboratuvarda, Python için Google Gen AI SDK'yı kullanarak Gemini da dahil olmak üzere Google'ın üretken yapay zeka hizmetleriyle ve modelleriyle etkileşim kurmayı öğreneceksiniz. Bahsedeceğimiz konular:
Bu laboratuvara başlamadan önce şunlar hakkında bilgi sahibi olmanız gerekir:
Buradaki talimatları okuyun. Laboratuvarlar süreli olduğundan duraklatılamaz. Start Lab'i (Laboratuvarı başlat) tıkladığınızda başlayan zamanlayıcı, Google Cloud kaynaklarının ne süreyle kullanımınıza açık durumda kalacağını gösterir.
Bu uygulamalı laboratuvarı kullanarak, laboratuvar etkinliklerini simülasyon veya demo ortamı yerine gerçek bir bulut ortamında gerçekleştirebilirsiniz. Bunu yapabilmeniz için size yeni, geçici kimlik bilgileri verilir. Bu kimlik bilgilerini laboratuvar süresince Google Cloud'da oturum açmak ve Google Cloud'a erişmek için kullanabilirsiniz.
Bu laboratuvarı tamamlamak için gerekenler:
Laboratuvarı Başlat düğmesini tıklayın. Laboratuvar için ödeme yapmanız gerekiyorsa ödeme yöntemini seçebileceğiniz bir iletişim kutusu açılır. Soldaki "Laboratuvar ayrıntıları" panelinde şunlar yer alır:
Google Cloud Console'u aç'ı tıklayın (veya Chrome Tarayıcı'yı kullanıyorsanız sağ tıklayıp Bağlantıyı gizli pencerede aç'ı seçin).
Laboratuvar, kaynakları çalıştırır ve sonra "Oturum aç" sayfasını gösteren başka bir sekme açar.
İpucu: Sekmeleri ayrı pencerelerde, yan yana açın.
Gerekirse aşağıdaki kullanıcı adını kopyalayıp Oturum açın iletişim kutusuna yapıştırın.
Kullanıcı adını "Laboratuvar ayrıntıları" panelinde de bulabilirsiniz.
İleri'yi tıklayın.
Aşağıdaki şifreyi kopyalayıp Hoş geldiniz iletişim kutusuna yapıştırın.
Şifreyi "Laboratuvar ayrıntıları" panelinde de bulabilirsiniz.
İleri'yi tıklayın.
Sonraki sayfalarda ilgili düğmeleri tıklayarak ilerleyin:
Birkaç saniye sonra Google Cloud konsolu bu sekmede açılır.
Google Cloud Console'un gezinme menüsünde () Vertex AI > Workbench (Çalışma Alanı) seçeneğini tıklayın.
Workbench örneğinizin JupyterLab arayüzü, yeni bir tarayıcı sekmesinde açılır.
Not defterinizi açın, kitaplıklarınızı içe aktarın ve modelinizi seçin.
Select Kernel (Çekirdek Seç) iletişim kutusunda, kullanılabilir çekirdekler listesinden Python 3'ü seçin.
Not defterinin şu bölümlerini inceleyin:
Project_ID (Proje kimliği) için
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
Vertex AI'daki tüm yapay zeka modelleri ve API'ler hakkında daha fazla bilgi için Google modelleri ve Model Garden'a göz atın.
İstemlerinize yanıt oluşturmak için generate_content
yöntemini kullanın. generate_content
işlevine metin gönderebilir ve yanıtın metin içeriğini almak için .text
özelliğini kullanabilirsiniz.
İstem isteklerinize metin, PDF belgesi, resim, ses ve video ekleyip metin veya kod biçiminde yanıtlar alabilirsiniz.
Dosya URL'sini, modele yapılan istekte doğrudan Part.from_uri
bölümünde de iletebilirsiniz.
Sistem talimatları, model davranışını kontrol etmenizi sağlar. Modele görevi anlaması, daha özelleştirilmiş yanıtlar vermesi ve kullanıcı etkileşimiyle ilgili kurallara uyması için ek bağlam sağlamak üzere sistem talimatı ayarlayın.
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
Modelin yanıt oluşturma şeklini kontrol etmek için modele gönderdiğiniz her çağrıya parametre değerleri ekleyebilirsiniz. Daha fazla bilgi edinmek için Parametre değerleriyle deneme yapma başlıklı makaleye bakın.
Gemini API, belirli içerik türlerini kısıtlamak veya bunlara izin vermek için birden fazla filtre kategorisi genelinde ayarlayabileceğiniz güvenlik filtreleri sağlar. Kullanım alanınıza göre ayarlamalar yapmak için bu filtreleri kullanabilirsiniz. Ayrıntılı bilgi için Güvenlik filtrelerini yapılandırma başlıklı makaleye bakın.
Modellere istek gönderdiğinizde içerik analiz edilir ve içeriğe güvenlik derecesi atanır. Bu örnekte olduğu gibi, model yanıtlarını yazdırarak oluşturulan içeriğin güvenlik derecelerini inceleyebilirsiniz:
Gemini API, serbest ve çok adımlı sohbetler yapmanıza olanak tanır.
Gemini API'deki kontrollü oluşturma özelliği, model çıkışını yapılandırılmış bir biçimle sınırlamanıza olanak tanır. Şemaları Pydantic modelleri veya JSON dizesi olarak girebilirsiniz.
Yanıt şemasını Python sözlüğünde de tanımlayabilirsiniz. Yalnızca aşağıdaki alanları kullanabilirsiniz. Diğer tüm alanlar yoksayılır.
enum
items
maxItems
nullable
properties
required
Bu örnekte, modele ürün yorum verilerini analiz etme, temel varlıkları ayıklama, duygu sınıflandırması yapma (çoktan seçmeli), ek açıklama sağlama ve sonuçları JSON biçiminde çıkış olarak verme talimatı vereceksiniz.
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
Varsayılan olarak, model tüm oluşturma işlemini tamamladıktan sonra yanıt verir. Yanıt oluşturulurken generate_content_stream
yöntemini kullanarak yanıtı akış halinde görüntüleyebilirsiniz. Model, yanıtının tamamının oluşturulmasını beklemeden yanıtı parça parça döndürür.
client.aio
modülünü kullanarak eşzamansız istekler gönderebilirsiniz. Bu modül, client
modülünde bulunan tüm benzer eşzamansız yöntemleri gösterir.
Örneğin, client.aio.models.generate_content
, client.models.generate_content
'in eşzamansız versiyonudur.
Gemini API'ye istek göndermeden önce giriş parçalarının sayısını hesaplamak için count_tokens
yöntemini kullanabilirsiniz. Ayrıntılı bilgi için Parçaları listeleme ve sayma sayfasına bakın.
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
İşlev çağırma sayesinde, kullanıcının istemlerine yanıt vermek için kullanılabilecek bir dizi araç sağlayabilirsiniz. Kodunuzda bir işlevin açıklamasını oluşturup bu açıklamayı bir istekteki dil modeline geçirirsiniz. Modelin verdiği yanıt, açıklamaya uyan bir işlevin adını ve işlevi çağırmak için gereken bağımsız değişkenleri içerir.
İşlev çağırmayla ilgili daha fazla örnek için bu not defterine bakın.
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
Bağlamı önbelleğe alma özelliği, sık kullanılan giriş parçalarını özel bir önbellekte depolamanıza ve sonraki isteklerde bunlara başvurmanıza olanak tanır. Bu sayede, modele aynı parça grubunu tekrar tekrar iletme ihtiyacı ortadan kalkar.
Not: Bağlamı önbelleğe alma özelliği, yalnızca sabit sürümleri olan kararlı modellerde (ör. gemini-2.0-flash-001
) kullanılabilir. Sürümün sonundaki eki (ör. -001
) eklemeniz gerekir.
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
Tek seferde tek bir giriş isteğinde bulunabileceğiniz online (eşzamanlı) yanıt alma yönteminden farklı olarak, Vertex AI'da Gemini API için toplu tahminler tek bir toplu istekle Gemini'a çok sayıda istek göndermenize olanak tanır. Ardından, model yanıtları Cloud Storage veya BigQuery'deki depolama çıkış konumuna eşzamansız olarak doldurulur.
Gecikmeye duyarlı olmayan çok sayıda giriş işlenirken, toplu tahminler genellikle online tahminlere göre daha verimli ve maliyet açısından daha uygundur.
Toplu istek girişi, modelinize tahmin için gönderilecek öğeleri belirtir.
Gemini için toplu isteklerde, BigQuery depolama kaynakları ve Cloud Storage kaynakları kabul edilir. Toplu giriş biçimleri hakkında daha fazla bilgiyi Toplu metin oluşturma sayfasında bulabilirsiniz.
Bu laboratuvarda, örnek olarak Cloud Storage kullanılmıştır. Cloud Storage girişi için aşağıdaki şartlar geçerlidir:
us-central1
Bir modele gönderdiğiniz her istek, modelin nasıl yanıt üreteceğini kontrol eden parametreler içerebilir. Parametre değerleriyle denemeler yapma sayfasından, Gemini parametreleri hakkında daha fazla bilgi edinebilirsiniz.
batch_requests_for_multimodal_input_2.jsonl
adlı giriş JSONL dosyasında yer alan örnek isteklerden biri aşağıda verilmiştir:
Toplu tahmin görevi tamamlandığında çıkış, isteğinizde belirttiğiniz konumda saklanır.
Konum, Cloud Storage veya BigQuery URI öneki şeklindedir (ör.
gs://path/to/output/data
veya bq://projectId.bqDatasetId
).
Belirtilmemişse Cloud Storage kaynağı için gs://STAGING_BUCKET/gen-ai-batch-prediction
, BigQuery kaynağı için ise bq://PROJECT_ID.gen_ai_batch_prediction.predictions_TIMESTAMP
kullanılır.
Bu laboratuvarda, çıkış konumu için örnek olarak bir Cloud Storage paketi kullanılmıştır.
Cloud Storage paketinizin URI'sini BUCKET_URI
'de belirtebilirsiniz. Belirtilmezse gs://PROJECT_ID-TIMESTAMP
biçiminde yeni bir Cloud Storage paketi oluşturulur.
Toplu tahmin isteği göndermek için kaynak model kimliğini, giriş kaynağını ve Vertex AI'ın toplu tahmin sonuçlarını depoladığı çıkış konumunu belirtmeniz gerekir.
Daha fazla bilgi için Toplu tahmin API'si sayfasını inceleyin. Ayrıca şu adresten durumu konsolda da kontrol edebilirsiniz: https://console.cloud.google.com/vertex-ai/batch-predictions
Toplu tahmin görevi tamamlandığında tahminin çıkışı, isteğinizde belirttiğiniz konumda saklanır. Çıkışa batch_job.dest.bigquery_uri
veya batch_job.dest.gcs_uri
alanları üzerinden de ulaşabilirsiniz.
Örnek çıkış:
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
embed_content
yöntemini kullanarak bir metin snippet'ini metin yerleştirme olarak alabilirsiniz. Tüm modeller varsayılan olarak 768 boyutlu bir çıkış üretir. Ancak bazı modeller, kullanıcılara 1
ile 768
arasında bir çıkış boyutu seçme seçeneği sunar. Ayrıntılar için Vertex AI metin yerleştirmeleri API'si sayfasını inceleyin.
Hedefi doğrulamak için Check my progress'i (İlerleme durumumu kontrol et) tıklayın.
Tebrikler! Google Gen AI SDK'yı başarıyla incelediniz. Yapay zeka hizmetlerine bağlanmayı, çeşitli istemler göndermeyi ve Gemini modelinden gelen yanıtları kişiselleştirmeyi öğrendiniz. Ayrıca etkileşimleri yönetme, bağlamı önbelleğe alma ve hatta yerleştirmelerle çalışma gibi daha ileri tekniklerle ilgili uygulamalı deneyim kazandınız. Artık kendi projeleriniz için üretken yapay zekanın gücünden yararlanmaya hazırsınız.
Gemini hakkında daha fazla bilgi edinmek için aşağıdaki kaynakları inceleyin:
...Google Cloud teknolojilerinden en iyi şekilde yararlanmanıza yardımcı olur. Derslerimizde teknik becerilere odaklanırken en iyi uygulamalara da yer veriyoruz. Gerekli yetkinlik seviyesine hızlıca ulaşmanız ve öğrenim maceranızı sürdürebilmeniz için sizlere yardımcı olmayı amaçlıyoruz. Temel kavramlardan ileri seviyeye kadar farklı eğitim programlarımız mevcut. Ayrıca, yoğun gündeminize uyması için talep üzerine sağlanan, canlı ve sanal eğitim alternatiflerimiz de var. Sertifikasyonlar ise Google Cloud teknolojilerindeki becerilerinizi ve uzmanlığınızı doğrulamanıza ve kanıtlamanıza yardımcı oluyor.
Kılavuzun Son Güncellenme Tarihi: 5 Mayıs 2025
Laboratuvarın Son Test Edilme Tarihi: 5 Mayıs 2025
Telif Hakkı 2025 Google LLC. Tüm hakları saklıdır. Google ve Google logosu, Google LLC şirketinin ticari markalarıdır. Diğer tüm şirket ve ürün adları ilişkili oldukları şirketlerin ticari markaları olabilir.
This content is not currently available
We will notify you via email when it becomes available
Great!
We will contact you via email if it becomes available
One lab at a time
Confirm to end all existing labs and start this one