Quando estiver tudo pronto para lançar o app e os usuários finais interagirem com os recursos de IA generativa, revise esta lista de verificação de práticas recomendadas e considerações importantes.
Geral
Revise a lista de verificação geral de lançamento para apps que usam o Firebase
Esta lista de verificação de lançamento do Firebase descreve práticas recomendadas importantes antes de lançar qualquer app do Firebase para produção.
Confirmar se os projetos do Firebase seguem as práticas recomendadas
Por exemplo, use projetos diferentes do Firebase para desenvolvimento, teste e produção. Consulte mais práticas recomendadas para gerenciar seus projetos.
Acesso e segurança
Revise a lista de verificação de segurança geral para apps que usam o Firebase
Esta lista de verificação de segurança descreve práticas recomendadas importantes para acesso e segurança de apps e serviços do Firebase.
Começar a aplicar Firebase App Check
O App Check ajuda a proteger as APIs que acessam os modelos Gemini e Imagen verificando se as solicitações são do app real. Ele oferece suporte a provedores de atestado para plataformas Apple (DeviceCheck ou App Attest), Android (Play Integrity) e Web (reCAPTCHA Enterprise).
Configurar restrições para suas chaves de API do Firebase
Revise a lista de permissões de "Restrições de API" de cada chave de API do Firebase:
Verifique se a API Firebase AI Logic está na lista de permissões.
Verifique se as únicas outras APIs na lista de permissões da chave são para os serviços do Firebase que você usa no app. Consulte a lista de APIs que precisam estar na lista de permissões de cada produto.
Defina Restrições de aplicativo para restringir o uso de cada chave de API do Firebase apenas a solicitações do seu app (por exemplo, um ID de pacote correspondente para o app da Apple). Mesmo que você restringa a chave, o uso de Firebase App Check ainda é altamente recomendado.
As APIs relacionadas ao Firebase usam chaves de API apenas para identificar o projeto ou app do Firebase, não para autorização para chamar a API.
Faturamento, monitoramento e cota
Evitar cobranças inesperadas
Se o projeto do Firebase estiver no plano de preços Blaze de pagamento por uso, monitore o uso e configure alertas de orçamento.
Configurar o monitoramento de IA no console do Firebase
Disponível apenas ao usar o Vertex AI Gemini API como seu provedor de API. |
Configure o monitoramento de IA para observar várias métricas e painéis no console Firebase e ter visibilidade abrangente das solicitações dos SDKs Firebase AI Logic.
Revise as cotas das APIs necessárias.
Defina limites de taxa por usuário. O padrão é 100 RPM.
Edite a cota ou solicite um aumento, conforme necessário.
Gerenciamento de configurações
Usar uma versão estável do modelo no app de produção
No app de produção, use apenas
versões de modelo estáveis (como
gemini-2.0-flash-001
), não uma versão de pré-lançamento ou experimental ou
um alias de atualização automática.
Mesmo que um alias estável com atualização automática aponte para uma versão estável, a versão real do modelo para a qual ele aponta vai mudar automaticamente sempre que uma nova versão estável for lançada, o que pode significar comportamento ou respostas inesperados. Além disso, as versões de visualização e experimentais são recomendadas apenas durante a prototipagem.
Configurar e usar o Firebase Remote Config
Com Remote Config, é possível controlar configurações importantes do recurso de IA generativa na nuvem em vez de fixar valores no código. Isso significa que você pode atualizar a configuração sem lançar uma nova versão do app. É possível fazer muitas coisas com Remote Config, mas aqui estão os principais valores que recomendamos controlar remotamente para o recurso de IA genética:
Mantenha o app atualizado.
- Nome do modelo: atualize o modelo usado pelo app conforme novos modelos são lançados ou outros são descontinuados.
Ajuste valores e entradas com base nos atributos do cliente ou para acomodar o feedback de testes ou usuários.
Configuração do modelo: ajuste a temperatura, os tokens de saída máximos e mais.
Configurações de segurança: ajuste as configurações de segurança se muitas respostas estiverem sendo bloqueadas ou se os usuários denunciarem respostas nocivas.
Instruções do sistema e comandos fornecidos: ajuste o contexto adicional que você está enviando para o modelo para orientar as respostas e o comportamento dele. Por exemplo, você pode personalizar comandos para tipos de clientes específicos ou personalizar comandos para novos usuários que sejam diferentes dos usados para gerar respostas para usuários atuais.
Também é possível definir um parâmetro minimum_version
em Remote Config
para comparar a versão atual do app com a versão mais recente definida
por Remote Config, para mostrar uma notificação de upgrade aos usuários ou forçá-los a
fazer o upgrade.
Definir o local para acessar o modelo
Disponível apenas ao usar o Vertex AI Gemini API como seu provedor de API. |
A definição de um local para acessar o modelo pode ajudar com os custos e evitar a latência para os usuários.
Se você não especificar um local, o padrão será us-central1
. É possível definir esse
local durante a inicialização ou, opcionalmente,
usar Firebase Remote Config para mudar dinamicamente o local com base no local de cada usuário.