Crie um aplicativo para enviar comandos do Chat usando o Gemini
Laboratório
15 minutos
universal_currency_alt
Sem custo financeiro
show_chart
Introdutório
info
Este laboratório pode incorporar ferramentas de IA para ajudar no seu aprendizado.
Acesse mais de 700 laboratórios e cursos

Visão geral
- Os laboratórios são cronometrados e não podem ser pausados. O timer começa quando você clica em Iniciar laboratório.
- O terminal de nuvem incluído já vem pré-configurado com o SDK gcloud.
- Use o terminal para executar comandos e clique em Verificar meu progresso para conferir seu trabalho.
Objetivo
A IA generativa na Vertex AI (também conhecida como genAI ou gen AI) disponibiliza os grandes modelos de IA generativa do Google, permitindo que você os teste, ajuste e implante em seus aplicativos com tecnologia de IA. Neste laboratório, você vai:
-
Conectar-se à Vertex AI (plataforma de IA do Google Cloud): saiba como estabelecer uma conexão com os serviços de IA do Google usando o SDK da Vertex AI.
-
Carregar um modelo de IA generativa pré-treinado, o Gemini: descubra como usar um modelo de IA pré-treinado e avançado sem precisar criar um do zero.
-
Enviar texto para o modelo de IA: entenda como fornecer entradas para a IA processar.
-
Extrair respostas de chat da IA: aprenda a lidar com as respostas de chat geradas pelo modelo de IA e a interpretá-las.
-
Entender os conceitos básicos da criação de aplicativos de IA: descubra os principais conceitos da integração da IA em projetos de software.
Como trabalhar com a IA generativa
Depois de iniciar o laboratório, você vai ver um painel dividido com o editor de código à esquerda e as instruções do laboratório à direita. Siga estas etapas para interagir com as APIs de IA generativa usando o SDK da Vertex AI para Python.
Respostas de chat sem usar streaming:
O streaming consiste em receber respostas a solicitações conforme elas são geradas. Ou seja, assim que o modelo gera os tokens de saída, eles são enviados. Uma resposta a comandos sem streaming só é enviada depois que todos os tokens de saída são gerados.
Primeiro, vamos analisar as respostas do chat sem usar streaming.
Crie um novo arquivo para receber as respostas do chat sem usar streaming:
- Clique em Arquivo > Novo arquivo para abrir um novo arquivo no editor de código.
- Copie e cole o snippet de código fornecido no seu arquivo.
from google import genai
from google.genai.types import HttpOptions, ModelContent, Part, UserContent
import logging
from google.cloud import logging as gcp_logging
# ------ O código de Cloud Logging abaixo é para uso interno da Qwiklab. Não o edite nem remova. --------
# Initialize GCP logging
gcp_logging_client = gcp_logging.Client()
gcp_logging_client.setup_logging()
client = genai.Client(
vertexai=True,
project='{{{ project_0.project_id | "project-id" }}}',
location='{{{ project_0.default_region | "REGION" }}}',
http_options=HttpOptions(api_version="v1")
)
chat = client.chats.create(
model="gemini-2.0-flash-001",
history=[
UserContent(parts=[Part(text="Hello")]),
ModelContent(
parts=[Part(text="Great to meet you. O que você quer saber?")],
),
],
)
response = chat.send_message("Quais são as cores do arco-íris?")
print(response.text)
response = chat.send_message("Por que ele surge quando está chovendo?")
print(response.text)
-
Clique em Arquivo > Salvar, insira SendChatwithoutStream.py no campo Nome e clique em Salvar.
-
Execute o arquivo Python digitando o comando abaixo no terminal dentro do painel do editor de código para visualizar a saída.
/usr/bin/python3 /SendChatwithoutStream.py
Explicação do código
- O snippet do código está carregando um modelo de IA pré-treinado chamado Gemini (gemini-2.0-flash-001) na Vertex AI.
- O código chama o método
send_message do modelo Gemini carregado.
- O código usa a capacidade de chat do Gemini. Ele usa o texto fornecido no comando para conversar.
Respostas de chat usando streaming:
Vamos analisar as respostas do chat usando streaming.
Crie um novo arquivo para receber as respostas do chat usando streaming:
- Clique em Arquivo > Novo arquivo para abrir um novo arquivo no editor de código.
- Copie e cole o snippet de código fornecido no seu arquivo.
from google import genai
from google.genai.types import HttpOptions
import logging
from google.cloud import logging as gcp_logging
# ------ O código de Cloud Logging abaixo é para uso interno da Qwiklab. Não o edite nem remova. --------
# Initialize GCP logging
gcp_logging_client = gcp_logging.Client()
gcp_logging_client.setup_logging()
client = genai.Client(
vertexai=True,
project='{{{ project_0.project_id | "project-id" }}}',
location='{{{ project_0.default_region | "REGION" }}}',
http_options=HttpOptions(api_version="v1")
)
chat = client.chats.create(model="gemini-2.0-flash-001")
response_text = ""
for chunk in chat.send_message_stream("Quais são as cores do arco-íris?"):
print(chunk.text, end="")
response_text += chunk.text
-
Clique em Arquivo > Salvar, insira SendChatwithStream.py no campo Nome e clique em Salvar.
-
Execute o arquivo Python digitando o comando abaixo no terminal dentro do painel do editor de código para visualizar a saída.
/usr/bin/python3 /SendChatwithStream.py
Explicação do código
- O snippet do código está carregando um modelo de IA pré-treinado chamado Gemini (gemini-2.0-flash-001) na Vertex AI.
- O código chama o método
send_message_stream do modelo Gemini carregado.
- O código usa a capacidade do Gemini de entender comandos e ter uma conversa com estado.
Faça um teste! Teste diferentes comandos para conhecer os recursos do Gemini.
Clique em Verificar meu progresso para conferir o objetivo.
Enviar as solicitações de comandos de texto para a IA generativa e receber uma resposta de chat
Parabéns!
Você concluiu o laboratório. Parabéns!
Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.