Lista de verificação de produção para usar a Lógica de IA do Firebase

Quando você estiver pronto para lançar seu app e tiver usuários finais reais interagindo com os recursos de IA generativa, revise esta lista de verificação de práticas recomendadas e considerações importantes.

Geral

Consulte a lista de verificação geral de lançamento para apps que usam o Firebase

Esta lista de verificação de lançamento do Firebase descreve práticas recomendadas importantes antes de lançar qualquer app do Firebase na produção.

Verifique se os projetos do Firebase seguem as práticas recomendadas

Por exemplo, use projetos diferentes do Firebase para desenvolvimento, teste e produção. Confira mais práticas recomendadas para gerenciar seus projetos.

Acesso e segurança

Consulte a lista de verificação de segurança geral para apps que usam o Firebase

Esta lista de verificação de segurança descreve práticas recomendadas importantes para acesso e segurança de apps e serviços do Firebase.

Começar a aplicar Firebase App Check

O App Check ajuda a proteger as APIs que acessam os modelos Gemini e Imagen ao verificar se as solicitações são do seu app real. Ele oferece suporte a provedores de declaração para plataformas Apple (DeviceCheck ou App Attest), Android (Play Integrity) e Web (reCAPTCHA Enterprise).

Configurar restrições para suas chaves de API do Firebase

  • Revise a lista de permissões de "Restrições de API" de cada chave de API do Firebase:

  • Defina Restrições de aplicativos para restringir o uso de cada chave de API do Firebase apenas a solicitações do seu app (por exemplo, um ID de pacote correspondente para o app da Apple). Mesmo que você restrinja sua chave, o uso de Firebase App Check ainda é altamente recomendável.

As APIs relacionadas ao Firebase usam chaves de API apenas para identificar o projeto ou app do Firebase, não para autorização para chamar a API.

Faturamento, monitoramento e cota

Evitar cobranças inesperadas

Se o projeto do Firebase estiver no plano de preços Blaze de pagamento por uso, monitore seu uso e configure alertas de orçamento.

Configurar o monitoramento de IA no console do Firebase

Disponível apenas quando você usa o Vertex AI Gemini API como seu provedor de API.

Configure o monitoramento de IA para observar várias métricas e painéis no console Firebase e ter visibilidade abrangente das suas solicitações dos SDKs Firebase AI Logic.

Revise suas cotas para as APIs subjacentes necessárias

Gerenciamento de configurações

Use uma versão estável do modelo no app de produção

No app de produção, use apenas versões estáveis do modelo (como gemini-2.0-flash-001), não uma versão de pré-lançamento ou experimental nem um alias atualizado automaticamente.

Embora um alias estável atualizado automaticamente aponte para uma versão estável, a versão real do modelo para que ele aponta muda automaticamente sempre que uma nova versão estável é lançada, o que pode resultar em comportamento ou respostas inesperadas. Além disso, as versões prévia e experimental são recomendadas apenas durante a prototipagem.

Configurar e usar o Firebase Remote Config

Com o Remote Config, é possível controlar configurações importantes do recurso de IA generativa na nuvem em vez de codificar valores no seu código. Isso significa que você pode atualizar a configuração sem lançar uma nova versão do app. É possível fazer muitas coisas com Remote Config, mas aqui estão os principais valores que recomendamos controlar remotamente para seu recurso de IA generativa:

  • Mantenha o app atualizado.

    • Nome do modelo: atualize o modelo usado pelo seu app à medida que novos modelos forem lançados ou outros forem descontinuados.
  • Ajuste valores e entradas com base nos atributos do cliente ou para acomodar o feedback de testes ou usuários.

    • Configuração do modelo: ajuste a temperatura, o número máximo de tokens de saída e muito mais.

    • Configurações de segurança: ajuste as configurações de segurança se muitas respostas estiverem sendo bloqueadas ou se os usuários denunciarem respostas nocivas.

    • Instruções do sistema e comandos fornecidos: ajuste o contexto adicional que você está enviando ao modelo para orientar as respostas e o comportamento dele. Por exemplo, você pode querer adaptar os comandos para tipos específicos de clientes ou personalizar comandos para novos usuários que sejam diferentes daqueles usados para gerar respostas para usuários atuais.

Você também pode definir um parâmetro minimum_version em Remote Config para comparar a versão atual do app com a versão mais recente definida em Remote Config e mostrar uma notificação de upgrade aos usuários ou forçar o upgrade.

Defina o local para acessar o modelo

Disponível apenas quando você usa o Vertex AI Gemini API como seu provedor de API.

Definir um local para acessar o modelo pode ajudar a reduzir os custos e evitar a latência para os usuários.

Se você não especificar um local, o padrão será us-central1. Você pode definir esse local durante a inicialização ou, opcionalmente, usar Firebase Remote Config para mudar dinamicamente o local com base na localização de cada usuário.