Quando è tutto pronto per lanciare la tua app e far interagire gli utenti finali reali con le tue funzionalità di AI generativa, assicurati di esaminare questo elenco di controllo delle best practice e delle considerazioni importanti.
Generale
Esaminare l'elenco di controllo generale per il lancio delle app che utilizzano Firebase
Questo elenco di controllo per il lancio di Firebase descrive le best practice importanti prima di lanciare qualsiasi app Firebase in produzione.
Assicurati che i tuoi progetti Firebase seguano le best practice
Ad esempio, assicurati di utilizzare progetti Firebase diversi per lo sviluppo, i test e la produzione. Consulta altre best practice per gestire i progetti.
Accesso e sicurezza
Esamina l'elenco di controllo generale della sicurezza per le app che utilizzano Firebase
Questo elenco di controllo della sicurezza descrive le best practice importanti per l'accesso e la sicurezza di app e servizi Firebase.
Inizia l'applicazione Firebase App Check
App Check aiuta a proteggere le API che accedono ai modelli Gemini e Imagen verificando che le richieste provengano dalla tua app effettiva. Supporta i fornitori di attestazione per le piattaforme Apple (DeviceCheck o App Attest), Android (Play Integrity) e web (reCAPTCHA Enterprise).
Configurare le limitazioni per le chiavi API di Firebase
Esamina la lista consentita delle "Limitazioni API" di ogni chiave API Firebase:
Assicurati che l'API Firebase AI Logic sia nella lista consentita.
Assicurati che le uniche altre API nella lista consentita della chiave siano per i servizi Firebase che utilizzi nella tua app. Consulta l'elenco delle API che devono essere incluse nella lista consentita per ogni prodotto.
Imposta "Limitazioni delle applicazioni" per limitare l'utilizzo di ogni chiave API di Firebase solo alle richieste provenienti dalla tua app (ad esempio, un ID pacchetto corrispondente per l'app Apple). Tieni presente che anche se limiti la chiave, Firebase App Check è comunque fortemente consigliato.
Tieni presente che le API correlate a Firebase utilizzano le chiavi API solo per identificare il progetto o l'app Firebase, non per l'autorizzazione a chiamare l'API.
Fatturazione, monitoraggio e quota
Evitare fatture a sorpresa
Se il tuo progetto Firebase utilizza il piano tariffario Blaze con pagamento a consumo, monitora l'utilizzo e configura gli avvisi di budget.
Configurare il monitoraggio dell'AI nella console Firebase
Disponibile solo quando utilizzi Vertex AI Gemini API come provider API. |
Configura il monitoraggio dell'AI per osservare varie metriche e dashboard nella console Firebase per ottenere una visibilità completa delle tue richieste dagli SDK Firebase AI Logic.
Rivedi le quote per le API di base richieste
Assicurati di comprendere le quote per ogni API richiesta.
Imposta limiti di frequenza per utente (il valore predefinito è 100 RPM).
Modifica la quota o richiedi un aumento della quota, se necessario.
Gestione delle configurazioni
Utilizzare una versione stabile del modello nell'app di produzione
Nella tua app di produzione, utilizza solo
versioni stabili del modello (ad esempio
gemini-2.0-flash-001
), non una versione di anteprima o sperimentale o
un alias aggiornato automaticamente.
Anche se un alias stabile aggiornato automaticamente punta a una versione stabile, la versione del modello effettiva a cui punta cambierà automaticamente ogni volta che viene rilasciata una nuova versione stabile, il che potrebbe comportare comportamenti o risposte imprevisti. Inoltre, le versioni anteprima e sperimentale sono consigliate solo durante la prototipazione.
Configurare e utilizzare Firebase Remote Config
Con Remote Config, puoi controllare configurazioni importanti per la tua funzionalità di AI generativa nel cloud anziché codificare i valori nel codice. Ciò significa che puoi aggiornare la configurazione senza rilasciare una nuova versione dell'app. Puoi fare molto con Remote Config, ma ecco i valori principali che ti consigliamo di controllare da remoto per la tua funzionalità di AI generativa:
Mantieni l'app aggiornata.
- Nome modello: aggiorna il modello utilizzato dalla tua app man mano che vengono rilasciati nuovi modelli o altri vengono ritirati.
Modifica i valori e gli input in base agli attributi del cliente o per tenere conto del feedback dei test o degli utenti.
Configurazione del modello: regola la temperatura, il numero massimo di token di output e altro ancora.
Impostazioni di sicurezza: modifica le impostazioni di sicurezza se vengono bloccate troppe risposte o se gli utenti segnalano risposte dannose.
Istruzioni di sistema e prompt forniti: regola il contesto aggiuntivo che invii al modello per indirizzare le sue risposte e il suo comportamento. Ad esempio, potresti voler personalizzare i prompt per tipi di clienti specifici o personalizzare i prompt per i nuovi utenti in modo diverso da quelli utilizzati per generare risposte per gli utenti esistenti.
Puoi anche impostare facoltativamente un parametro minimum_version
in Remote Config
per confrontare la versione attuale dell'app con l'ultima versione
definita da Remote Config, per mostrare agli utenti una notifica di aggiornamento o forzarli
a eseguire l'upgrade.
Impostare la località per accedere al modello
Disponibile solo quando utilizzi Vertex AI Gemini API come provider API. |
L'impostazione di una località per l'accesso al modello può contribuire a ridurre i costi e a prevenire la latenza per gli utenti.
Se non specifichi una località, il valore predefinito è us-central1
. Puoi impostare questa
posizione durante l'inizializzazione oppure puoi, facoltativamente,
utilizzare Firebase Remote Config per modificare dinamicamente la posizione in base a quella di ogni utente.