GSP1290

Descripción general
En este lab, se presenta Gemini 2.0 Flash, un nuevo y potente modelo de IA multimodal de Google DeepMind, disponible a través de la API de Gemini en Vertex AI. Explorarás su velocidad, rendimiento y calidad mejorados significativamente mientras aprendes a aprovechar sus capacidades para tareas como la generación de texto y código, el procesamiento de datos multimodales y las llamadas a funciones. El lab también abarca funciones avanzadas, como métodos asíncronos, instrucciones del sistema, generación controlada, configuración de seguridad, fundamentación con la Búsqueda de Google y conteo de tokens.
Gemini
Gemini es una familia de potentes modelos de IA generativa desarrollados por Google DeepMind que son capaces de comprender y generar varias formas de contenido, como texto, código, imágenes, audio y video.
API de Gemini en Vertex AI
La API de Gemini en Vertex AI proporciona una interfaz unificada para interactuar con modelos de Gemini. Esto permite que los desarrolladores integren fácilmente estas potentes capacidades de IA a sus aplicaciones. Para conocer los detalles más recientes y las funciones específicas de las últimas versiones, consulta la documentación oficial de Gemini.
Modelos de Gemini
-
Gemini Pro: Se diseñó para tareas de razonamiento complejo, como las siguientes:
- Analizar y resumir grandes cantidades de información.
- Razonamiento multimodal sofisticado (en texto, código, imágenes, etc.).
- Resolución de problemas eficaz con bases de código complejas.
-
Gemini Flash: Optimizado para velocidad y eficiencia, con las siguientes características:
- Tiempos de respuesta de menos de un segundo y alta capacidad de procesamiento.
- Alta calidad a un costo más bajo para una amplia variedad de tareas.
- Funciones multimodales mejoradas, incluidas la comprensión espacial, nuevas modalidades de resultados (texto, audio, imágenes) y el uso de herramientas nativas (Búsqueda de Google, ejecución de código y funciones de terceros).
Requisitos previos
Antes de comenzar este lab, debes tener los siguientes conocimientos:
- Programación de Python básica
- Conceptos generales sobre APIs
- Ejecución de código de Python en un notebook de Jupyter en Vertex AI Workbench
Objetivos
En este lab, aprenderás a usar Gemini 2.0 Flash para realizar las siguientes tareas:
-
Generar texto y código: genera varias formas de texto, incluida la transmisión de los resultados, participa en conversaciones de varios turnos, y escribe y ejecuta código.
-
Configurar y controlar el comportamiento del modelo: configura los parámetros del modelo, establece instrucciones del sistema, aplica filtros de seguridad y utiliza técnicas de generación controlada para adaptar los resultados del modelo.
-
Procesar datos multimodales: maneja y procesa diversos tipos de datos, incluidos texto, audio, código, documentos, imágenes y video.
-
Interactuar de forma flexible con el modelo: adáptate a los diversos requisitos de aplicación usando métodos de interacción síncrona y asíncrona.
-
Fundamentar las respuestas del modelo con la Búsqueda de Google: mejora la exactitud y la actualidad de las respuestas del modelo fundamentándolas en datos del mundo real de la Búsqueda de Google.
-
Utilizar las llamadas a funciones y administrar tokens: implementa llamadas a funciones automáticas y manuales, y aprende a contar tokens para hacer un seguimiento del uso.
Configuración y requisitos
Antes de hacer clic en el botón Comenzar lab
Lee estas instrucciones. Los labs cuentan con un temporizador que no se puede pausar. El temporizador, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.
Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.
Para completar este lab, necesitarás lo siguiente:
- Acceso a un navegador de Internet estándar. Se recomienda el navegador Chrome.
Nota: Usa una ventana del navegador privada o de incógnito (opción recomendada) para ejecutar el lab. Así evitarás conflictos entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.
- Tiempo para completar el lab (recuerda que, una vez que comienzas un lab, no puedes pausarlo).
Nota: Usa solo la cuenta de estudiante para este lab. Si usas otra cuenta de Google Cloud, es posible que se apliquen cargos a esa cuenta.
Cómo iniciar tu lab y acceder a la consola de Google Cloud
-
Haz clic en el botón Comenzar lab. Si debes pagar por el lab, se abrirá un diálogo para que selecciones la forma de pago.
A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:
- El botón para abrir la consola de Google Cloud
- El tiempo restante
- Las credenciales temporales que debes usar para el lab
- Otra información para completar el lab, si es necesaria
-
Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).
El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.
Sugerencia: Ordena las pestañas en ventanas separadas, una junto a la otra.
Nota: Si ves el diálogo Elegir una cuenta, haz clic en Usar otra cuenta.
-
De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.
{{{user_0.username | "Username"}}}
También puedes encontrar el nombre de usuario en el panel Detalles del lab.
-
Haz clic en Siguiente.
-
Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.
{{{user_0.password | "Password"}}}
También puedes encontrar la contraseña en el panel Detalles del lab.
-
Haz clic en Siguiente.
Importante: Debes usar las credenciales que te proporciona el lab. No uses las credenciales de tu cuenta de Google Cloud.
Nota: Usar tu propia cuenta de Google Cloud para este lab podría generar cargos adicionales.
-
Haz clic para avanzar por las páginas siguientes:
- Acepta los Términos y Condiciones.
- No agregues opciones de recuperación o autenticación de dos factores (esta es una cuenta temporal).
- No te registres para obtener pruebas gratuitas.
Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.
Nota: Para acceder a los productos y servicios de Google Cloud, haz clic en el menú de navegación o escribe el nombre del servicio o producto en el campo Buscar.
Tarea 1: Abre el notebook en Vertex AI Workbench
-
En el menú de navegación (
) de la consola de Google Cloud, haz clic en Vertex AI > Workbench.
-
Busca la instancia y haz clic en el botón Abrir JupyterLab.
La interfaz de JupyterLab para tu instancia de Workbench se abrirá en una pestaña nueva del navegador.
Tarea 2: Configura el notebook
-
Abre el archivo .
-
En el cuadro de diálogo Select Kernel, elige Python 3 en la lista de kernels disponibles.
-
Ejecuta las secciones Getting Started e Import libraries del notebook.
- Para Project ID, usa , y para Location, usa .
Nota: Puedes omitir las celdas del notebook que tienen la indicación Colab only. Si recibes una respuesta 429 de cualquiera de las ejecuciones de celda del notebook, espera 1 minuto antes de volver a ejecutar la celda para continuar.
Haz clic en Revisar mi progreso para verificar el objetivo.
Configurar el notebook
Tarea 3. Genera texto a partir de instrucciones de texto
En esta tarea, usarás el modelo Gemini 2.0 Flash para generar texto a partir de instrucciones de texto.
- Ejecuta la sección Carga el modelo Gemini 2.0 Flash del notebook.
- Ejecuta la sección Genera texto a partir de instrucciones de texto del notebook. Prueba algunas de las instrucciones de ejemplo para ver cómo responde el modelo.
Genera transmisión de contenido
De forma predeterminada, el modelo devuelve una respuesta después de completar todo el proceso de generación. También puedes usar el método generate_content_stream
para transmitir la respuesta a medida que se genera, y el modelo devolverá fragmentos de la respuesta en cuanto se generen.
- Ejecuta la sección Genera transmisión de contenido del notebook.
Inicia un chat de varios turnos
La API de Gemini admite conversaciones de varios turnos de formato libre con interacciones recíprocas.
El contexto de la conversación se conserva entre los mensajes.
- Ejecuta la sección Inicia un chat de varios turnos del notebook.
Envía solicitudes asíncronas
client.aio
expone todos los métodos asíncronos análogos que están disponibles en client
.
Por ejemplo, client.aio.models.generate_content
es la versión asíncrona de client.models.generate_content
.
- Ejecuta la sección Envía solicitudes asíncronas del notebook.
Haz clic en Revisar mi progreso para verificar el objetivo.
Generar texto a partir de instrucciones de texto
Tarea 4. Configura los parámetros del modelo
En esta tarea, aprenderás a configurar los parámetros del modelo para ajustar sus resultados. Si ajustas estos parámetros, puedes controlar aspectos como la creatividad, la longitud y la seguridad del texto generado.
Puedes incluir valores de parámetros en cada llamada que envíes a un modelo para controlar cómo este genera una respuesta. El modelo puede generar resultados diferentes para distintos valores de parámetros. Puedes experimentar con diferentes parámetros del modelo para ver cómo cambian los resultados.
- Ejecuta la sección Configura los parámetros del modelo del notebook.
Establece instrucciones del sistema
Las instrucciones del sistema te permiten dirigir el comportamiento del modelo. Cuando configuras la instrucción del sistema, le das contexto adicional al modelo para que comprenda la tarea, proporcione respuestas más personalizadas y cumpla con lineamientos sobre la interacción del usuario.
- Ejecuta la sección Establece instrucciones del sistema del notebook.
Filtros de seguridad
La API de Gemini proporciona filtros de seguridad que puedes ajustar en varias categorías de filtros para restringir o permitir ciertos tipos de contenido. Puedes usar estos filtros para ajustar lo que sea apropiado para tu caso de uso. Consulta la página Configura filtros de seguridad para obtener más detalles.
Cuando haces una solicitud a Gemini, el contenido se analiza y se le asigna una calificación de seguridad. Puedes imprimir las respuestas del modelo para inspeccionar las calificaciones de seguridad del contenido generado. La configuración de seguridad está en OFF
de forma predeterminada y los umbrales de bloqueo predeterminados son BLOCK_NONE
.
Puedes usar safety_settings
para ajustar la configuración de seguridad de cada solicitud que realices a la API. En este ejemplo, se muestra cómo establecer el umbral de bloqueo en BLOCK_LOW_AND_ABOVE
para todas las categorías:
- Ejecuta la sección Filtros de seguridad del notebook.
Haz clic en Revisar mi progreso para verificar el objetivo.
Configurar los parámetros del modelo
Tarea 5. Envía instrucciones multimodales
Gemini es un modelo multimodal que es compatible con las instrucciones multimodales.
Puedes incluir cualquiera de los siguientes tipos de datos de varias fuentes. Esta es la tabla HTML actualizada con los tipos de MIME expandidos para la sección "Audio":
Tipo de datos |
Fuentes |
Tipos de MIME |
Texto |
Intercalado, archivo local, URL general, Google Cloud Storage |
text/plain |
Código |
Intercalado, archivo local, URL general, Google Cloud Storage |
text/plain |
Documento |
Archivo local, URL general, Google Cloud Storage |
application/pdf |
Imagen |
Archivo local, URL general, Google Cloud Storage |
image/jpeg image/png image/webp
|
Audio |
Archivo local, URL general, Google Cloud Storage |
audio/aac audio/flac audio/mp3
audio/m4a audio/mpeg audio/mpga
audio/mp4 audio/opus audio/pcm
audio/wav audio/webm
|
Video |
Archivo local, URL general, Google Cloud Storage, YouTube |
video/mp4 video/mpeg video/x-flv
video/quicktime video/mpegps video/mpg
video/webm video/wmv video/3gpp
|
En esta tarea, enviarás diferentes tipos de instrucciones multimodales al modelo, combinando texto con otros tipos de datos, como imágenes, audio y video.
- Ejecuta la sección Envía una imagen local del notebook.
- Ejecuta la sección Envía un documento desde Google Cloud Storage del notebook.
- Ejecuta la sección Envía audio desde una URL general del notebook.
- Ejecuta la sección Envía un video desde una URL de YouTube del notebook.
Haz clic en Revisar mi progreso para verificar el objetivo.
Enviar instrucciones multimodales
Tarea 6. Controla el resultado generado y administra tokens
La generación controlada te permite definir un esquema de respuesta para especificar la estructura del resultado de un modelo, los nombres de los campos y el tipo de datos esperado para cada campo. El esquema de respuesta se especifica en el parámetro response_schema
en config
, y el resultado del modelo seguirá estrictamente ese esquema.
Puedes proporcionar los esquemas como modelos de Pydantic o una cadena de JSON, y el modelo responderá como JSON o un enum según el valor establecido en response_mime_type
. En esta tarea, explorarás técnicas para controlar el resultado del modelo y administrar el uso de tokens.
En esta tarea, que se basa en la anterior (en la que aprendiste a configurar parámetros), se muestra cómo definir un esquema de respuesta para tener un control aún mayor sobre el formato de resultado del modelo.
- Ejecuta la sección Controla el resultado generado del notebook.
Cuenta y procesa tokens
Puedes usar el método count_tokens()
para calcular la cantidad de tokens de entrada antes de enviar una solicitud a la API de Gemini. Para obtener más información, consulta Enumera y cuenta tokens.
- Ejecuta la sección Cuenta y procesa tokens del notebook.
Haz clic en Revisar mi progreso para verificar el objetivo.
Controlar el resultado generado y administrar tokens
Tarea 7. La Búsqueda de Google como herramienta (fundamentación)
La fundamentación te permite conectar datos del mundo real con el modelo de Gemini.
Cuando se fundamentan las respuestas del modelo en los resultados de la Búsqueda de Google, el modelo puede acceder a información en tiempo de ejecución que va más allá de sus datos de entrenamiento, lo que puede producir respuestas más precisas, actualizadas y pertinentes.
Con la función de fundamentación con la Búsqueda de Google, puedes mejorar la precisión y la actualidad de las respuestas del modelo. A partir de Gemini 2.0, la Búsqueda de Google está disponible como herramienta. Esto significa que el modelo puede decidir cuándo usar la Búsqueda de Google.
Búsqueda de Google
Puedes agregar el argumento de palabra clave tools
con una Tool
que incluya GoogleSearch
para indicarle a Gemini que primero utilice la Búsqueda de Google con la instrucción y, luego, cree una respuesta basada en los resultados de la búsqueda web.
La recuperación dinámica te permite establecer un umbral para cuando se usa la fundamentación en las respuestas del modelo. Esto es útil cuando la instrucción no requiere una respuesta fundamentada en la Búsqueda de Google y los modelos compatibles pueden proporcionar una respuesta basada en su conocimiento sin fundamentación. Esto te ayuda a administrar la latencia, la calidad y el costo con mayor eficacia.
- Ejecuta la sección Búsqueda de Google del notebook.
Haz clic en Revisar mi progreso para verificar el objetivo.
Usar la Búsqueda de Google como herramienta (fundamentación)
Tarea 8. Usa la llamada a funciones y la ejecución de código
Las llamadas a funciones en Gemini permiten que los desarrolladores creen una descripción de una función en su código y, luego, pasen esa descripción a un modelo de lenguaje en una solicitud. Puedes enviar una función de Python para las llamadas automáticas a funciones, que ejecutará la función y devolverá el resultado en lenguaje natural generado por Gemini.
También puedes enviar una especificación de OpenAPI, que responderá con el nombre de una función que coincida con la descripción y los argumentos con los que llamarla. En esta tarea, explorarás las llamadas a funciones, lo que permite que el modelo interactúe con sistemas externos, y ejecutarás el código generado por el modelo.
- Ejecuta la sección Función de Python (llamadas automáticas a funciones) del notebook.
- Ejecuta la sección Especificación de OpenAPI (llamadas manuales a funciones) del notebook.
Ejecución de código
La función de ejecución de código de la API de Gemini permite que el modelo genere y ejecute código de Python y aprenda de forma iterativa a partir de los resultados hasta llegar a un resultado final. Puedes usar esta función de ejecución de código para crear aplicaciones que se beneficien del razonamiento basado en código y que produzcan resultados de texto. Por ejemplo, puedes usar la ejecución de código en una aplicación que resuelve ecuaciones o procesa texto.
La API de Gemini proporciona la ejecución de código como una herramienta, de forma similar a las llamadas a funciones.
Después de que agregas la ejecución de código como herramienta, el modelo decide cuándo usarla.
- Ejecuta la sección Ejecución de código del notebook.
Haz clic en Revisar mi progreso para verificar el objetivo.
Usar la llamada a funciones y la ejecución de código
¡Felicitaciones!
¡Felicitaciones! En este lab, adquiriste experiencia práctica con el modelo de vanguardia Gemini 2.0 Flash a través de la API de Gemini en Vertex AI. Exploraste con éxito sus diversas capacidades, como la generación de texto y código, el procesamiento de datos multimodales y la configuración avanzada de modelos. Ahora tienes todo lo necesario para aprovechar estas potentes funciones en la creación de aplicaciones de IA innovadoras y sofisticadas. También te familiarizaste con las nuevas funciones que se presentan en Gemini 2.0 y aprendiste a aprovechar el nuevo SDK para migrar entre APIs.
Próximos pasos/Más información
Consulta los siguientes recursos para obtener más información sobre Gemini:
Capacitación y certificación de Google Cloud
Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.
Última actualización del manual: 5 de mayo de 2025
Prueba más reciente del lab: 5 de mayo de 2025
Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.