Cargando…
No se encontraron resultados.

Google Cloud Skills Boost

Aplica tus habilidades en la consola de Google Cloud


Obtén acceso a más de 700 labs y cursos

Introducción a Gemini 2.0 Flash

Lab 45 minutos universal_currency_alt 1 crédito show_chart Introductorio
info Es posible que este lab incorpore herramientas de IA para facilitar tu aprendizaje.
Obtén acceso a más de 700 labs y cursos

GSP1290

Logotipo de los labs de autoaprendizaje de Google Cloud

Descripción general

En este lab, se presenta Gemini 2.0 Flash, un nuevo y potente modelo de IA multimodal de Google DeepMind, disponible a través de la API de Gemini en Vertex AI. Explorarás su velocidad, rendimiento y calidad mejorados significativamente mientras aprendes a aprovechar sus capacidades para tareas como la generación de texto y código, el procesamiento de datos multimodales y las llamadas a funciones. El lab también abarca funciones avanzadas, como métodos asíncronos, instrucciones del sistema, generación controlada, configuración de seguridad, fundamentación con la Búsqueda de Google y conteo de tokens.

Gemini

Gemini es una familia de potentes modelos de IA generativa desarrollados por Google DeepMind que son capaces de comprender y generar varias formas de contenido, como texto, código, imágenes, audio y video.

API de Gemini en Vertex AI

La API de Gemini en Vertex AI proporciona una interfaz unificada para interactuar con modelos de Gemini. Esto permite que los desarrolladores integren fácilmente estas potentes capacidades de IA a sus aplicaciones. Para conocer los detalles más recientes y las funciones específicas de las últimas versiones, consulta la documentación oficial de Gemini.

Modelos de Gemini

  • Gemini Pro: Se diseñó para tareas de razonamiento complejo, como las siguientes:
    • Analizar y resumir grandes cantidades de información.
    • Razonamiento multimodal sofisticado (en texto, código, imágenes, etc.).
    • Resolución de problemas eficaz con bases de código complejas.
  • Gemini Flash: Optimizado para velocidad y eficiencia, con las siguientes características:
    • Tiempos de respuesta de menos de un segundo y alta capacidad de procesamiento.
    • Alta calidad a un costo más bajo para una amplia variedad de tareas.
    • Funciones multimodales mejoradas, incluidas la comprensión espacial, nuevas modalidades de resultados (texto, audio, imágenes) y el uso de herramientas nativas (Búsqueda de Google, ejecución de código y funciones de terceros).

Requisitos previos

Antes de comenzar este lab, debes tener los siguientes conocimientos:

  • Programación de Python básica
  • Conceptos generales sobre APIs
  • Ejecución de código de Python en un notebook de Jupyter en Vertex AI Workbench

Objetivos

En este lab, aprenderás a usar Gemini 2.0 Flash para realizar las siguientes tareas:

  • Generar texto y código: genera varias formas de texto, incluida la transmisión de los resultados, participa en conversaciones de varios turnos, y escribe y ejecuta código.
  • Configurar y controlar el comportamiento del modelo: configura los parámetros del modelo, establece instrucciones del sistema, aplica filtros de seguridad y utiliza técnicas de generación controlada para adaptar los resultados del modelo.
  • Procesar datos multimodales: maneja y procesa diversos tipos de datos, incluidos texto, audio, código, documentos, imágenes y video.
  • Interactuar de forma flexible con el modelo: adáptate a los diversos requisitos de aplicación usando métodos de interacción síncrona y asíncrona.
  • Fundamentar las respuestas del modelo con la Búsqueda de Google: mejora la exactitud y la actualidad de las respuestas del modelo fundamentándolas en datos del mundo real de la Búsqueda de Google.
  • Utilizar las llamadas a funciones y administrar tokens: implementa llamadas a funciones automáticas y manuales, y aprende a contar tokens para hacer un seguimiento del uso.

Configuración y requisitos

Antes de hacer clic en el botón Comenzar lab

Lee estas instrucciones. Los labs cuentan con un temporizador que no se puede pausar. El temporizador, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.

Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.

Para completar este lab, necesitarás lo siguiente:

  • Acceso a un navegador de Internet estándar. Se recomienda el navegador Chrome.
Nota: Usa una ventana del navegador privada o de incógnito (opción recomendada) para ejecutar el lab. Así evitarás conflictos entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.
  • Tiempo para completar el lab (recuerda que, una vez que comienzas un lab, no puedes pausarlo).
Nota: Usa solo la cuenta de estudiante para este lab. Si usas otra cuenta de Google Cloud, es posible que se apliquen cargos a esa cuenta.

Cómo iniciar tu lab y acceder a la consola de Google Cloud

  1. Haz clic en el botón Comenzar lab. Si debes pagar por el lab, se abrirá un diálogo para que selecciones la forma de pago. A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:

    • El botón para abrir la consola de Google Cloud
    • El tiempo restante
    • Las credenciales temporales que debes usar para el lab
    • Otra información para completar el lab, si es necesaria
  2. Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).

    El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.

    Sugerencia: Ordena las pestañas en ventanas separadas, una junto a la otra.

    Nota: Si ves el diálogo Elegir una cuenta, haz clic en Usar otra cuenta.
  3. De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.

    {{{user_0.username | "Username"}}}

    También puedes encontrar el nombre de usuario en el panel Detalles del lab.

  4. Haz clic en Siguiente.

  5. Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.

    {{{user_0.password | "Password"}}}

    También puedes encontrar la contraseña en el panel Detalles del lab.

  6. Haz clic en Siguiente.

    Importante: Debes usar las credenciales que te proporciona el lab. No uses las credenciales de tu cuenta de Google Cloud. Nota: Usar tu propia cuenta de Google Cloud para este lab podría generar cargos adicionales.
  7. Haz clic para avanzar por las páginas siguientes:

    • Acepta los Términos y Condiciones.
    • No agregues opciones de recuperación o autenticación de dos factores (esta es una cuenta temporal).
    • No te registres para obtener pruebas gratuitas.

Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.

Nota: Para acceder a los productos y servicios de Google Cloud, haz clic en el menú de navegación o escribe el nombre del servicio o producto en el campo Buscar. Ícono del menú de navegación y campo de búsqueda

Tarea 1: Abre el notebook en Vertex AI Workbench

  1. En el menú de navegación (Ícono del menú de navegación) de la consola de Google Cloud, haz clic en Vertex AI > Workbench.

  2. Busca la instancia y haz clic en el botón Abrir JupyterLab.

La interfaz de JupyterLab para tu instancia de Workbench se abrirá en una pestaña nueva del navegador.

Tarea 2: Configura el notebook

  1. Abre el archivo .

  2. En el cuadro de diálogo Select Kernel, elige Python 3 en la lista de kernels disponibles.

  3. Ejecuta las secciones Getting Started e Import libraries del notebook.

    • Para Project ID, usa , y para Location, usa .
Nota: Puedes omitir las celdas del notebook que tienen la indicación Colab only. Si recibes una respuesta 429 de cualquiera de las ejecuciones de celda del notebook, espera 1 minuto antes de volver a ejecutar la celda para continuar.

Haz clic en Revisar mi progreso para verificar el objetivo. Configurar el notebook

Tarea 3. Genera texto a partir de instrucciones de texto

En esta tarea, usarás el modelo Gemini 2.0 Flash para generar texto a partir de instrucciones de texto.

  1. Ejecuta la sección Carga el modelo Gemini 2.0 Flash del notebook.
  2. Ejecuta la sección Genera texto a partir de instrucciones de texto del notebook. Prueba algunas de las instrucciones de ejemplo para ver cómo responde el modelo.

Genera transmisión de contenido

De forma predeterminada, el modelo devuelve una respuesta después de completar todo el proceso de generación. También puedes usar el método generate_content_stream para transmitir la respuesta a medida que se genera, y el modelo devolverá fragmentos de la respuesta en cuanto se generen.

  1. Ejecuta la sección Genera transmisión de contenido del notebook.

Inicia un chat de varios turnos

La API de Gemini admite conversaciones de varios turnos de formato libre con interacciones recíprocas.

El contexto de la conversación se conserva entre los mensajes.

  1. Ejecuta la sección Inicia un chat de varios turnos del notebook.

Envía solicitudes asíncronas

client.aio expone todos los métodos asíncronos análogos que están disponibles en client.

Por ejemplo, client.aio.models.generate_content es la versión asíncrona de client.models.generate_content.

  1. Ejecuta la sección Envía solicitudes asíncronas del notebook.

Haz clic en Revisar mi progreso para verificar el objetivo. Generar texto a partir de instrucciones de texto

Tarea 4. Configura los parámetros del modelo

En esta tarea, aprenderás a configurar los parámetros del modelo para ajustar sus resultados. Si ajustas estos parámetros, puedes controlar aspectos como la creatividad, la longitud y la seguridad del texto generado.

Puedes incluir valores de parámetros en cada llamada que envíes a un modelo para controlar cómo este genera una respuesta. El modelo puede generar resultados diferentes para distintos valores de parámetros. Puedes experimentar con diferentes parámetros del modelo para ver cómo cambian los resultados.

  1. Ejecuta la sección Configura los parámetros del modelo del notebook.

Establece instrucciones del sistema

Las instrucciones del sistema te permiten dirigir el comportamiento del modelo. Cuando configuras la instrucción del sistema, le das contexto adicional al modelo para que comprenda la tarea, proporcione respuestas más personalizadas y cumpla con lineamientos sobre la interacción del usuario.

  1. Ejecuta la sección Establece instrucciones del sistema del notebook.

Filtros de seguridad

La API de Gemini proporciona filtros de seguridad que puedes ajustar en varias categorías de filtros para restringir o permitir ciertos tipos de contenido. Puedes usar estos filtros para ajustar lo que sea apropiado para tu caso de uso. Consulta la página Configura filtros de seguridad para obtener más detalles.

Cuando haces una solicitud a Gemini, el contenido se analiza y se le asigna una calificación de seguridad. Puedes imprimir las respuestas del modelo para inspeccionar las calificaciones de seguridad del contenido generado. La configuración de seguridad está en OFF de forma predeterminada y los umbrales de bloqueo predeterminados son BLOCK_NONE.

Puedes usar safety_settings para ajustar la configuración de seguridad de cada solicitud que realices a la API. En este ejemplo, se muestra cómo establecer el umbral de bloqueo en BLOCK_LOW_AND_ABOVE para todas las categorías:

  1. Ejecuta la sección Filtros de seguridad del notebook.

Haz clic en Revisar mi progreso para verificar el objetivo. Configurar los parámetros del modelo

Tarea 5. Envía instrucciones multimodales

Gemini es un modelo multimodal que es compatible con las instrucciones multimodales.

Puedes incluir cualquiera de los siguientes tipos de datos de varias fuentes. Esta es la tabla HTML actualizada con los tipos de MIME expandidos para la sección "Audio":

Tipo de datos Fuentes Tipos de MIME
Texto Intercalado, archivo local, URL general, Google Cloud Storage text/plain
Código Intercalado, archivo local, URL general, Google Cloud Storage text/plain
Documento Archivo local, URL general, Google Cloud Storage application/pdf
Imagen Archivo local, URL general, Google Cloud Storage image/jpeg image/png image/webp
Audio Archivo local, URL general, Google Cloud Storage audio/aac audio/flac audio/mp3 audio/m4a audio/mpeg audio/mpga audio/mp4 audio/opus audio/pcm audio/wav audio/webm
Video Archivo local, URL general, Google Cloud Storage, YouTube video/mp4 video/mpeg video/x-flv video/quicktime video/mpegps video/mpg video/webm video/wmv video/3gpp

En esta tarea, enviarás diferentes tipos de instrucciones multimodales al modelo, combinando texto con otros tipos de datos, como imágenes, audio y video.

  1. Ejecuta la sección Envía una imagen local del notebook.
  2. Ejecuta la sección Envía un documento desde Google Cloud Storage del notebook.
  3. Ejecuta la sección Envía audio desde una URL general del notebook.
  4. Ejecuta la sección Envía un video desde una URL de YouTube del notebook.

Haz clic en Revisar mi progreso para verificar el objetivo. Enviar instrucciones multimodales

Tarea 6. Controla el resultado generado y administra tokens

La generación controlada te permite definir un esquema de respuesta para especificar la estructura del resultado de un modelo, los nombres de los campos y el tipo de datos esperado para cada campo. El esquema de respuesta se especifica en el parámetro response_schema en config, y el resultado del modelo seguirá estrictamente ese esquema.

Puedes proporcionar los esquemas como modelos de Pydantic o una cadena de JSON, y el modelo responderá como JSON o un enum según el valor establecido en response_mime_type. En esta tarea, explorarás técnicas para controlar el resultado del modelo y administrar el uso de tokens.

En esta tarea, que se basa en la anterior (en la que aprendiste a configurar parámetros), se muestra cómo definir un esquema de respuesta para tener un control aún mayor sobre el formato de resultado del modelo.

  1. Ejecuta la sección Controla el resultado generado del notebook.

Cuenta y procesa tokens

Puedes usar el método count_tokens() para calcular la cantidad de tokens de entrada antes de enviar una solicitud a la API de Gemini. Para obtener más información, consulta Enumera y cuenta tokens.

  1. Ejecuta la sección Cuenta y procesa tokens del notebook.

Haz clic en Revisar mi progreso para verificar el objetivo. Controlar el resultado generado y administrar tokens

Tarea 7. La Búsqueda de Google como herramienta (fundamentación)

La fundamentación te permite conectar datos del mundo real con el modelo de Gemini.

Cuando se fundamentan las respuestas del modelo en los resultados de la Búsqueda de Google, el modelo puede acceder a información en tiempo de ejecución que va más allá de sus datos de entrenamiento, lo que puede producir respuestas más precisas, actualizadas y pertinentes.

Con la función de fundamentación con la Búsqueda de Google, puedes mejorar la precisión y la actualidad de las respuestas del modelo. A partir de Gemini 2.0, la Búsqueda de Google está disponible como herramienta. Esto significa que el modelo puede decidir cuándo usar la Búsqueda de Google.

Búsqueda de Google

Puedes agregar el argumento de palabra clave tools con una Tool que incluya GoogleSearch para indicarle a Gemini que primero utilice la Búsqueda de Google con la instrucción y, luego, cree una respuesta basada en los resultados de la búsqueda web.

La recuperación dinámica te permite establecer un umbral para cuando se usa la fundamentación en las respuestas del modelo. Esto es útil cuando la instrucción no requiere una respuesta fundamentada en la Búsqueda de Google y los modelos compatibles pueden proporcionar una respuesta basada en su conocimiento sin fundamentación. Esto te ayuda a administrar la latencia, la calidad y el costo con mayor eficacia.

  1. Ejecuta la sección Búsqueda de Google del notebook.

Haz clic en Revisar mi progreso para verificar el objetivo. Usar la Búsqueda de Google como herramienta (fundamentación)

Tarea 8. Usa la llamada a funciones y la ejecución de código

Las llamadas a funciones en Gemini permiten que los desarrolladores creen una descripción de una función en su código y, luego, pasen esa descripción a un modelo de lenguaje en una solicitud. Puedes enviar una función de Python para las llamadas automáticas a funciones, que ejecutará la función y devolverá el resultado en lenguaje natural generado por Gemini.

También puedes enviar una especificación de OpenAPI, que responderá con el nombre de una función que coincida con la descripción y los argumentos con los que llamarla. En esta tarea, explorarás las llamadas a funciones, lo que permite que el modelo interactúe con sistemas externos, y ejecutarás el código generado por el modelo.

  1. Ejecuta la sección Función de Python (llamadas automáticas a funciones) del notebook.
  2. Ejecuta la sección Especificación de OpenAPI (llamadas manuales a funciones) del notebook.

Ejecución de código

La función de ejecución de código de la API de Gemini permite que el modelo genere y ejecute código de Python y aprenda de forma iterativa a partir de los resultados hasta llegar a un resultado final. Puedes usar esta función de ejecución de código para crear aplicaciones que se beneficien del razonamiento basado en código y que produzcan resultados de texto. Por ejemplo, puedes usar la ejecución de código en una aplicación que resuelve ecuaciones o procesa texto.

La API de Gemini proporciona la ejecución de código como una herramienta, de forma similar a las llamadas a funciones. Después de que agregas la ejecución de código como herramienta, el modelo decide cuándo usarla.

  1. Ejecuta la sección Ejecución de código del notebook.

Haz clic en Revisar mi progreso para verificar el objetivo. Usar la llamada a funciones y la ejecución de código

¡Felicitaciones!

¡Felicitaciones! En este lab, adquiriste experiencia práctica con el modelo de vanguardia Gemini 2.0 Flash a través de la API de Gemini en Vertex AI. Exploraste con éxito sus diversas capacidades, como la generación de texto y código, el procesamiento de datos multimodales y la configuración avanzada de modelos. Ahora tienes todo lo necesario para aprovechar estas potentes funciones en la creación de aplicaciones de IA innovadoras y sofisticadas. También te familiarizaste con las nuevas funciones que se presentan en Gemini 2.0 y aprendiste a aprovechar el nuevo SDK para migrar entre APIs.

Próximos pasos/Más información

Consulta los siguientes recursos para obtener más información sobre Gemini:

Capacitación y certificación de Google Cloud

Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.

Última actualización del manual: 5 de mayo de 2025

Prueba más reciente del lab: 5 de mayo de 2025

Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.

Antes de comenzar

  1. Los labs crean un proyecto de Google Cloud y recursos por un tiempo determinado
  2. .
  3. Los labs tienen un límite de tiempo y no tienen la función de pausa. Si finalizas el lab, deberás reiniciarlo desde el principio.
  4. En la parte superior izquierda de la pantalla, haz clic en Comenzar lab para empezar

Usa la navegación privada

  1. Copia el nombre de usuario y la contraseña proporcionados para el lab
  2. Haz clic en Abrir la consola en modo privado

Accede a la consola

  1. Accede con tus credenciales del lab. Si usas otras credenciales, se generarán errores o se incurrirá en cargos.
  2. Acepta las condiciones y omite la página de recursos de recuperación
  3. No hagas clic en Finalizar lab, a menos que lo hayas terminado o quieras reiniciarlo, ya que se borrará tu trabajo y se quitará el proyecto

Este contenido no está disponible en este momento

Te enviaremos una notificación por correo electrónico cuando esté disponible

¡Genial!

Nos comunicaremos contigo por correo electrónico si está disponible

Un lab a la vez

Confirma para finalizar todos los labs existentes y comenzar este

Usa la navegación privada para ejecutar el lab

Usa una ventana de navegación privada o de Incógnito para ejecutar el lab. Así evitarás cualquier conflicto entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.