Lorsque vous êtes prêt à lancer votre application et à permettre à de vrais utilisateurs finaux d'interagir avec vos fonctionnalités d'IA générative, veillez à consulter cette checklist des bonnes pratiques et des points importants à prendre en compte.
Général
Consultez la checklist de lancement général pour les applications qui utilisent Firebase.
Cette checklist de lancement Firebase décrit les bonnes pratiques importantes à suivre avant de lancer une application Firebase en production.
Assurez-vous que vos projets Firebase respectent les bonnes pratiques
Par exemple, assurez-vous d'utiliser différents projets Firebase pour le développement, les tests et la production. Consultez d'autres bonnes pratiques pour gérer vos projets.
Accès et sécurité
Consulter la checklist de sécurité générale pour les applications qui utilisent Firebase
Cette checklist de sécurité décrit les bonnes pratiques importantes concernant l'accès et la sécurité des applications et services Firebase.
Commencer à appliquer Firebase App Check
App Check permet de protéger les API qui accèdent aux modèles Gemini et Imagen en vérifiant que les requêtes proviennent bien de votre application. Il est compatible avec les fournisseurs d'attestation pour les plates-formes Apple (DeviceCheck ou App Attest), Android (Play Integrity) et Web (reCAPTCHA Enterprise).
Configurer des restrictions pour vos clés API Firebase
Examinez la liste d'autorisation des restrictions d'API de chaque clé API Firebase :
Assurez-vous que l'API Firebase AI Logic figure sur la liste d'autorisation.
Assurez-vous que les seules autres API figurant dans la liste d'autorisation de la clé sont celles des services Firebase que vous utilisez dans votre application. Consultez la liste des API qui doivent figurer dans la liste d'autorisation pour chaque produit.
Définissez des restrictions d'application pour limiter l'utilisation de chaque clé API Firebase aux requêtes provenant de votre application (par exemple, un ID de bundle correspondant pour l'application Apple). Notez que même si vous restreignez votre clé, nous vous recommandons vivement d'utiliser Firebase App Check.
Notez que les API liées à Firebase utilisent des clés API uniquement pour identifier le projet ou l'application Firebase, et non pour autoriser l'appel de l'API.
Facturation, surveillance et quotas
Éviter les factures surprises
Si votre projet Firebase est associé au forfait Blaze avec paiement à l'usage, surveillez votre utilisation et configurez des alertes budgétaires.
Configurer la surveillance de l'IA dans la console Firebase
Disponible uniquement lorsque vous utilisez Vertex AI Gemini API comme fournisseur d'API. |
Configurez la surveillance de l'IA pour observer différentes métriques et différents tableaux de bord dans la console Firebase afin d'obtenir une visibilité complète sur vos requêtes à partir des SDK Firebase AI Logic.
Vérifiez vos quotas pour les API sous-jacentes requises.
Assurez-vous de comprendre les quotas pour chaque API requise.
Définissez des limites de débit par utilisateur (la valeur par défaut est de 100 requêtes par minute).
Modifiez le quota ou demandez une augmentation de quota, si nécessaire.
Gestion des configurations
Utiliser une version de modèle stable dans votre application de production
Dans votre application de production, n'utilisez que des versions stables de modèle (comme gemini-2.0-flash-001
), et non une version preview ou expérimentale, ni un alias mis à jour automatiquement.
Même si un alias stable mis à jour automatiquement pointe vers une version stable, la version réelle du modèle vers laquelle il pointe changera automatiquement chaque fois qu'une nouvelle version stable sera publiée, ce qui pourrait entraîner des comportements ou des réponses inattendus. De plus, les versions preview et expérimentales ne sont recommandées que lors du prototypage.
Configurer et utiliser Firebase Remote Config
Avec Remote Config, vous pouvez contrôler les configurations importantes de votre fonctionnalité d'IA générative dans le cloud au lieu de coder en dur les valeurs dans votre code. Cela signifie que vous pouvez mettre à jour votre configuration sans publier une nouvelle version de votre application. Vous pouvez faire beaucoup de choses avec Remote Config, mais voici les principales valeurs que nous vous recommandons de contrôler à distance pour votre fonctionnalité d'IA générative :
Maintenez votre application à jour.
- Nom du modèle : mettez à jour le modèle utilisé par votre application lorsque de nouveaux modèles sont publiés ou que d'autres sont abandonnés.
Ajustez les valeurs et les entrées en fonction des attributs du client, ou pour tenir compte des commentaires des tests ou des utilisateurs.
Configuration du modèle : ajustez la température, le nombre maximal de jetons de sortie et plus encore.
Paramètres de sécurité : ajustez les paramètres de sécurité si trop de réponses sont bloquées ou si les utilisateurs signalent des réponses nuisibles.
Instructions système et prompts que vous fournissez : ajustez le contexte supplémentaire que vous envoyez au modèle pour orienter ses réponses et son comportement. Par exemple, vous pouvez adapter les requêtes à des types de clients spécifiques ou les personnaliser pour les nouveaux utilisateurs, en les différenciant de celles utilisées pour générer des réponses pour les utilisateurs existants.
Vous pouvez également définir un paramètre minimum_version
dans Remote Config pour comparer la version actuelle de l'application avec la dernière version définie par Remote Config, afin d'afficher une notification de mise à niveau aux utilisateurs ou de les forcer à effectuer la mise à niveau.
Définir l'emplacement pour accéder au modèle
Disponible uniquement lorsque vous utilisez Vertex AI Gemini API comme fournisseur d'API. |
Définir un emplacement pour accéder au modèle peut vous aider à réduire les coûts et à éviter la latence pour vos utilisateurs.
Si vous ne spécifiez pas d'emplacement, la valeur par défaut est us-central1
. Vous pouvez définir cet emplacement lors de l'initialisation ou, si vous le souhaitez, utiliser Firebase Remote Config pour modifier dynamiquement l'emplacement en fonction de la position de chaque utilisateur.