Gemini API con Firebase AI Logic
Compila apps y funciones potenciadas por IA para dispositivos móviles y la Web con los Gemini modelos usando Firebase AI Logic
Firebase AI Logic te brinda acceso a los modelos de IA generativa más recientes de Google: los modelos de Gemini.
Si necesitas llamar a la Gemini API directamente desde tu app web o para dispositivos móviles — en lugar de hacerlo desde el servidor— puedes usar los Firebase AI Logic de cliente. Estos SDK de cliente se compilan específicamente para usarse con apps web y para dispositivos móviles, y ofrecen opciones de seguridad contra clientes no autorizados, así como integraciones con otros servicios de Firebase.
Estos SDK de cliente están disponibles en Swift para plataformas de Apple, Kotlin y Java para Android, JavaScript para la Web, Dart para Flutter y Unity.
Con estos SDK de cliente, puedes agregar personalización de IA a las apps, compilar una experiencia de chat con IA, crear optimizaciones y automatización potenciadas por IA, y mucho más.
Funciones clave
| Entrada multimodal y de lenguaje natural |
Los Gemini modelos son
multimodales, por lo que las instrucciones enviadas a la Gemini API pueden incluir texto,
imágenes, archivos PDF, video y audio. Algunos modelos Gemini también pueden
generar resultados multimodales.
Se puede solicitar a los modelos de Gemini que usen entradas de lenguaje natural. |
| Conjunto creciente de capacidades | Con los SDK, puedes llamar a la Gemini API directamente desde tu app web o para dispositivos móviles para compilar experiencias de chat con IA, generar imágenes, usar herramientas (como la llamada a funciones y la fundamentación con la Búsqueda de Google), transmitir entrada y salida multimodales (incluido el audio) y mucho más. |
| Seguridad y prevención de abusos para apps de producción |
Usa
Firebase App Check para proteger las APIs que acceden a los Gemini modelos contra el abuso de
clientes no autorizados.
Firebase AI Logic también tiene límites de frecuencia por usuario de forma predeterminada, y estos límites de frecuencia por usuario son completamente configurables. |
| Infraestructura sólida | Aprovecha la infraestructura escalable diseñada para usarse con apps web y para dispositivos móviles , como la administración de archivos con Cloud Storage for Firebase, la administración de datos estructurados con las ofertas de bases de datos de Firebase (como Cloud Firestore) y la configuración dinámica de las configuraciones de tiempo de ejecución con Firebase Remote Config. |
¿Cómo funciona?
Firebase AI Logic proporciona SDK de cliente, un servicio de proxy y otras funciones que te permiten acceder a los modelos de IA generativa de Google para compilar funciones de IA en tus apps web y para dispositivos móviles.
Compatibilidad con los modelos de Google y los proveedores de "Gemini API"
Admitimos todos los modelos Gemini más recientes, y tú eliges tu proveedor de "Gemini API" preferido para acceder a estos modelos. Admitimos tanto Gemini Developer API como Vertex AI Gemini API. Obtén información sobre las diferencias entre el uso de los dos proveedores de la API.
Además, si eliges usar el Gemini Developer API, puedes aprovechar su "nivel gratuito" para ponerte en marcha rápidamente.
SDK de clientes para la Web y dispositivos móviles
Envías solicitudes a los modelos directamente desde tu app web o para dispositivos móviles con nuestros Firebase AI Logic SDK de cliente, disponibles en Swift para plataformas de Apple, Kotlin y Java para Android, JavaScript para la Web, Dart para Flutter y Unity.
Si tienes configurados ambos proveedores de la API de Gemini API en tu proyecto de Firebase, puedes cambiar entre ellos habilitando la otra API y cambiando algunas líneas de código de inicialización.
Además, varios de nuestros SDK de cliente ofrecen acceso a la inferencia híbrida y en el dispositivo. Esta configuración permite que tu app use el modelo en el dispositivo cuando esté disponible, pero que vuelva sin problemas al modelo alojado en la nube cuando sea necesario (y viceversa).
Servicio de proxy
Nuestro servicio de proxy actúa como una puerta de enlace entre el cliente y el proveedor que elegiste Gemini API (y los modelos de Google). Proporciona servicios e integraciones que son importantes para las apps web y para dispositivos móviles. Por ejemplo, puedes configurar Firebase App Check para proteger el proveedor de la API que elegiste y tus recursos de backend contra el abuso de clientes no autorizados.
Esto es fundamental si elegiste usar el Gemini Developer API ya que nuestro servicio de proxy y esta App Check integración garantizan que tu Gemini clave de API permanezca en el servidor y no esté integrada en la base de código de tus apps.
Ruta de implementación
| Configura tu proyecto de Firebase y conecta tu app a Firebase | Usa el flujo de trabajo guiado en la Firebase AI Logic página de la Firebase console para configurar tu proyecto (incluida la habilitación de las APIs requeridas para el proveedor de la Gemini API que elegiste), registrar tu app en tu proyecto de Firebase y, luego, agregar la configuración de Firebase a tu app. | |
| Instala el SDK y, luego, inicialízalo | Instala el Firebase AI Logic SDK que es específico para la plataforma de tu app y, luego, inicializa el servicio y crea una instancia del modelo en tu app. | |
| Envía solicitudes de instrucciones a los Gemini modelos | Usa los SDK para enviar instrucciones solo de texto o multimodales a un Gemini
modelo para generar
texto y código,
resultados estructurados (como JSON)
y
imágenes.
Crea experiencias más enriquecedoras con chat de varios turnos, transmisión bidireccional (incluido el audio), y llamada a funciones. |
|
| Preparación para la producción | Implementa integraciones importantes para apps web y para dispositivos móviles, como proteger la API contra el abuso con Firebase App Check y usar Firebase Remote Config para actualizar parámetros en tu código de forma remota (lo más importante, el nombre del modelo). |
Próximos pasos
Comienza a acceder a un modelo desde tu app web o para dispositivos móviles