Gemini API usando Firebase AI Logic
Crie apps e recursos da Web e para dispositivos móveis com tecnologia de IA usando os modelos Gemini e Imagen com Firebase AI Logic
O Firebase AI Logic oferece acesso aos modelos mais recentes de IA generativa do Google: os modelos Gemini e Imagen.
Se você precisar chamar o Gemini API ou o Imagen API diretamente do app para dispositivos móveis ou da Web, em vez do lado do servidor, use os SDKs do cliente Firebase AI Logic. Esses SDKs de cliente foram criados especificamente para uso com apps para dispositivos móveis e Web, oferecendo opções de segurança contra clientes não autorizados, além de integrações com outros serviços do Firebase.
Esses SDKs de cliente estão disponíveis em Swift para plataformas da Apple, Kotlin e Java para Android, JavaScript para Web, Dart para Flutter e Unity.
Com esses SDKs do cliente, é possível adicionar a personalização por IA a apps, criar uma experiência de chat por IA, criar otimizações e automações com IA e muito mais.
Precisa de mais flexibilidade ou integração do lado do servidor?
Genkit é o framework de código aberto do Firebase
para desenvolvimento sofisticado de IA do lado do servidor com amplo acesso a
modelos do Google, OpenAI, Anthropic e outros. Ele inclui recursos de IA
mais avançados e ferramentas locais dedicadas.
Principais recursos
Entrada multimodal e de linguagem natural |
Os modelos Gemini são
multimodais, então os comandos enviados para o Gemini API podem incluir texto,
imagens, PDFs, vídeos e áudio.
Os modelos Gemini e Imagen podem ser solicitados com entrada de linguagem natural. |
Conjunto crescente de recursos | Com os SDKs, é possível chamar o Gemini API ou Imagen API diretamente do seu app para dispositivos móveis ou da Web para criar experiências de chat com IA, gerar imagens, usar chamadas de função (ferramentas), transmitir entrada e saída (incluindo áudio) e muito mais. |
Segurança e prevenção contra abuso para apps de produção |
Use
Firebase App Check para ajudar
a proteger as APIs que acessam os modelos Gemini e Imagen
contra abusos de clientes não autorizados.
O Firebase AI Logic também tem limites de taxa por usuário padrão, e esses limites de taxa por usuário são totalmente configuráveis. |
Infraestrutura robusta | Aproveite a infraestrutura escalonável criada para uso com apps móveis e da Web, como gerenciar arquivos com Cloud Storage for Firebase, gerenciar dados estruturados com as ofertas de banco de dados do Firebase (como Cloud Firestore) e definir dinamicamente configurações de tempo de execução com Firebase Remote Config. |
Como funciona?
O Firebase AI Logic fornece SDKs de cliente, um serviço de proxy e outros recursos que permitem acessar os modelos de IA generativa do Google para criar recursos de IA nos seus apps para dispositivos móveis e Web.
Suporte para modelos do Google e provedores "Gemini API"
Oferecemos suporte a todos os modelos Gemini e Imagen 3 mais recentes. Escolha o provedor de "Gemini API" de sua preferência para acessar esses modelos. Oferecemos suporte para Gemini Developer API e Vertex AI Gemini API. Saiba mais sobre as diferenças entre o uso dos dois provedores de API.
Se você optar por usar o Gemini Developer API, poderá aproveitar o "nível sem custo financeiro" para começar a usar o serviço rapidamente.
SDKs de cliente para dispositivos móveis e Web
Você envia solicitações para os modelos diretamente do seu app para dispositivos móveis ou da Web usando nossos SDKs de cliente Firebase AI Logic, disponíveis em Swift para plataformas Apple, Kotlin e Java para Android, JavaScript para Web, Dart para Flutter e Unity.
Se você tiver os dois provedores de Gemini API configurados no seu projeto do Firebase, poderá alternar entre eles apenas ativando a outra API e mudando algumas linhas de código de inicialização.
Além disso, nosso SDK de cliente para Web oferece acesso experimental a inferência híbrida e no dispositivo para apps da Web executados no Chrome para computador. Essa configuração permite que o app use o modelo no dispositivo quando ele estiver disponível, mas volte ao modelo hospedado na nuvem quando necessário.
Serviço de proxy
Nosso serviço de proxy atua como um gateway entre o cliente e o provedor de Gemini API escolhido (e os modelos do Google). Ele oferece serviços e integrações importantes para apps para dispositivos móveis e da Web. Por exemplo, é possível configurar Firebase App Check para ajudar a proteger o provedor de API escolhido e seus recursos de back-end contra abusos de clientes não autorizados.
Isso é especialmente importante se você escolheu usar o Gemini Developer API, porque nosso serviço de proxy e essa integração App Check garantem que a chave da API Gemini permaneça no servidor e não seja incorporada à base de código dos apps.
Caminho de implementação
Configurar seu projeto do Firebase e conectar seu app a ele | Use o fluxo de trabalho guiado na página Firebase AI Logic do Console do Firebase para configurar seu projeto (incluindo ativar as APIs necessárias para o provedor de Gemini API escolhido), registrar seu app no projeto do Firebase e adicionar a configuração do Firebase ao app. | |
Instalar o SDK e inicializar | Instale o SDK Firebase AI Logic específico da plataforma do app, inicialize o serviço e crie uma instância de modelo no app. | |
Enviar solicitações de comando para os modelos Gemini e Imagen | Use os SDKs para enviar comandos somente texto ou multimodais para um modelo Gemini
para gerar
texto e código,
saída estruturada (como JSON)
e imagens.
Como alternativa, você também pode solicitar que um modelo Imagen
gere imagens.
Crie experiências mais ricas com chat de várias interações, streaming bidirecional de texto e áudio e chamada de função. |
|
Preparação para a produção | Implementar integrações importantes para apps para dispositivos móveis e da Web, como proteger a API contra abuso com Firebase App Check e usar Firebase Remote Config para atualizar parâmetros no código remotamente (como o nome do modelo). |
Próximas etapas
Começar a acessar um modelo no app para dispositivos móveis ou Web