Quando você estiver pronto para lançar seu app e tiver usuários finais reais interagindo com os recursos de IA generativa, revise esta lista de verificação de práticas recomendadas e considerações importantes.
Geral
Consulte a lista de verificação geral de lançamento para apps que usam o Firebase
Esta lista de verificação de lançamento do Firebase descreve práticas recomendadas importantes antes de lançar qualquer app do Firebase na produção.
Verifique se os projetos do Firebase seguem as práticas recomendadas
Por exemplo, use projetos diferentes do Firebase para desenvolvimento, teste e produção. Confira mais práticas recomendadas para gerenciar seus projetos.
Acesso e segurança
Consulte a lista de verificação de segurança geral para apps que usam o Firebase
Esta lista de verificação de segurança descreve práticas recomendadas importantes para acesso e segurança de apps e serviços do Firebase.
Começar a aplicar Firebase App Check
O App Check ajuda a proteger as APIs que acessam os modelos Gemini e Imagen ao verificar se as solicitações são do seu app real. Ele oferece suporte a provedores de declaração para plataformas Apple (DeviceCheck ou App Attest), Android (Play Integrity) e Web (reCAPTCHA Enterprise).
Configurar restrições para suas chaves de API do Firebase
Revise a lista de permissões de "Restrições de API" de cada chave de API do Firebase:
Verifique se a API Firebase AI Logic está na lista de permissões.
Verifique se as únicas outras APIs na lista de permissões da chave são para serviços do Firebase que você usa no seu app. Consulte a lista de quais APIs precisam estar na lista de permissões para cada produto.
Defina Restrições de aplicativos para restringir o uso de cada chave de API do Firebase apenas a solicitações do seu app (por exemplo, um ID de pacote correspondente para o app da Apple). Mesmo que você restrinja sua chave, o uso de Firebase App Check ainda é altamente recomendável.
As APIs relacionadas ao Firebase usam chaves de API apenas para identificar o projeto ou app do Firebase, não para autorização para chamar a API.
Faturamento, monitoramento e cota
Evitar cobranças inesperadas
Se o projeto do Firebase estiver no plano de preços Blaze de pagamento por uso, monitore seu uso e configure alertas de orçamento.
Configurar o monitoramento de IA no console do Firebase
Disponível apenas quando você usa o Vertex AI Gemini API como seu provedor de API. |
Configure o monitoramento de IA para observar várias métricas e painéis no console Firebase e ter visibilidade abrangente das suas solicitações dos SDKs Firebase AI Logic.
Revise suas cotas para as APIs subjacentes necessárias
Defina limites de taxa por usuário (o padrão é 100 RPM).
Edite a cota ou solicite um aumento, conforme necessário.
Gerenciamento de configurações
Use uma versão estável do modelo no app de produção
No app de produção, use apenas
versões estáveis do modelo (como
gemini-2.0-flash-001
), não uma versão de pré-lançamento ou experimental nem
um alias atualizado automaticamente.
Embora um alias estável atualizado automaticamente aponte para uma versão estável, a versão real do modelo para que ele aponta muda automaticamente sempre que uma nova versão estável é lançada, o que pode resultar em comportamento ou respostas inesperadas. Além disso, as versões prévia e experimental são recomendadas apenas durante a prototipagem.
Configurar e usar o Firebase Remote Config
Com o Remote Config, é possível controlar configurações importantes do recurso de IA generativa na nuvem em vez de codificar valores no seu código. Isso significa que você pode atualizar a configuração sem lançar uma nova versão do app. É possível fazer muitas coisas com Remote Config, mas aqui estão os principais valores que recomendamos controlar remotamente para seu recurso de IA generativa:
Mantenha o app atualizado.
- Nome do modelo: atualize o modelo usado pelo seu app à medida que novos modelos forem lançados ou outros forem descontinuados.
Ajuste valores e entradas com base nos atributos do cliente ou para acomodar o feedback de testes ou usuários.
Configuração do modelo: ajuste a temperatura, o número máximo de tokens de saída e muito mais.
Configurações de segurança: ajuste as configurações de segurança se muitas respostas estiverem sendo bloqueadas ou se os usuários denunciarem respostas nocivas.
Instruções do sistema e comandos fornecidos: ajuste o contexto adicional que você está enviando ao modelo para orientar as respostas e o comportamento dele. Por exemplo, você pode querer adaptar os comandos para tipos específicos de clientes ou personalizar comandos para novos usuários que sejam diferentes daqueles usados para gerar respostas para usuários atuais.
Você também pode definir um parâmetro minimum_version
em Remote Config
para comparar a versão atual do app com a versão mais recente definida em Remote Config
e mostrar uma notificação de upgrade aos usuários ou forçar o upgrade.
Defina o local para acessar o modelo
Disponível apenas quando você usa o Vertex AI Gemini API como seu provedor de API. |
Definir um local para acessar o modelo pode ajudar a reduzir os custos e evitar a latência para os usuários.
Se você não especificar um local, o padrão será us-central1
. Você pode definir esse local durante a inicialização ou, opcionalmente, usar Firebase Remote Config para mudar dinamicamente o local com base na localização de cada usuário.