Lista kontrolna produkcji dla korzystania z Firebase AI Logic

Gdy aplikacja będzie gotowa do uruchomienia i użytkownicy będą mogli korzystać z funkcji generatywnej AI, zapoznaj się z tą listą kontrolną zawierającą sprawdzone metody i ważne kwestie.

Ogólne

Sprawdź ogólną listę kontrolną dotyczącą uruchamiania aplikacji korzystających z Firebase

Ta lista kontrolna przed wdrożeniem Firebase zawiera ważne sprawdzone metody, które warto zastosować przed wdrożeniem dowolnej aplikacji Firebase w wersji produkcyjnej.

 Sprawdź, czy Twoje projekty Firebase są zgodne ze sprawdzonymi metodami

Na przykład upewnij się, że do tworzenia, testowania i wdrażania aplikacji używasz różnych projektów Firebase. Poznaj więcej sprawdzonych metod zarządzania projektami.

Dostęp i bezpieczeństwo

Zapoznaj się z ogólną listą kontrolną dotyczącą bezpieczeństwa aplikacji korzystających z Firebase

Ta lista kontrolna bezpieczeństwa zawiera ważne sprawdzone metody dotyczące dostępu i bezpieczeństwa aplikacji i usług Firebase.

Rozpocznij egzekwowanie Firebase App Check

App Check pomaga chronić interfejsy API, które mają dostęp do modeli GeminiImagen, sprawdzając, czy żądania pochodzą z Twojej aplikacji. Obsługuje dostawców atestów na platformach Apple (DeviceCheck lub App Attest), Android (Play Integrity) i w internecie (reCAPTCHA Enterprise).

Ustawianie ograniczeń kluczy interfejsu API Firebase

Pamiętaj, że interfejsy API związane z Firebase używają kluczy interfejsu API tylko do identyfikowania projektu lub aplikacji Firebase, a nie do autoryzacji wywołań interfejsu API.

Płatności, monitorowanie i limity

Unikaj niespodziewanych rachunków

Jeśli Twój projekt Firebase korzysta z abonamentu Blaze (płatność według zużycia zasobów), monitoruj wykorzystanie zasobówskonfiguruj alerty budżetowe.

 Konfigurowanie monitorowania AI w konsoli Firebase

Dostępne tylko wtedy, gdy jako dostawcę interfejsu API używasz Vertex AI Gemini API.

Skonfiguruj monitorowanie AI, aby obserwować różne dane i panele w konsoli Firebase i uzyskać pełny wgląd w żądania z pakietów SDK Firebase AI Logic.

Sprawdź limity wymaganych interfejsów API

Zarządzanie konfiguracjami

Używanie stabilnej wersji modelu w aplikacji produkcyjnej

W aplikacji produkcyjnej używaj tylko stabilnych wersji modelu (np.gemini-2.0-flash-001), a nie wersji wersji podglądowej, eksperymentalnej ani automatycznie aktualizowanego aliasu.

Chociaż automatycznie aktualizowany alias stabilny wskazuje wersję stabilną, rzeczywista wersja modelu, na którą wskazuje, będzie się automatycznie zmieniać za każdym razem, gdy zostanie wydana nowa wersja stabilna, co może oznaczać nieoczekiwane działanie lub odpowiedzi. Wersje podglądoweeksperymentalne są zalecane tylko podczas tworzenia prototypów.

Konfigurowanie i używanie Firebase Remote Config

Dzięki Remote Config możesz kontrolować ważne konfiguracje funkcji generatywnej AI w chmurze, zamiast na stałe kodować wartości w kodzie. Oznacza to, że możesz zaktualizować konfigurację bez publikowania nowej wersji aplikacji. Za pomocą Remote Config możesz zrobić wiele, ale oto najważniejsze wartości, które zalecamy kontrolować zdalnie w przypadku funkcji generatywnej AI:

  • Dbaj o aktualność aplikacji.

    • Nazwa modelu: aktualizuj model używany przez aplikację, gdy pojawią się nowe modele lub inne zostaną wycofane.
  • Dostosuj wartości i dane wejściowe na podstawie atrybutów klienta lub uwzględnij opinie z testów lub od użytkowników.

    • Konfiguracja modelu: dostosuj temperaturę, maksymalną liczbę tokenów wyjściowych i inne ustawienia.

    • Ustawienia bezpieczeństwa: dostosuj ustawienia bezpieczeństwa, jeśli zbyt wiele odpowiedzi jest blokowanych lub użytkownicy zgłaszają szkodliwe odpowiedzi.

    • Instrukcje systemoweprompty: dostosuj dodatkowy kontekst wysyłany do modelu, aby kierować jego odpowiedziami i zachowaniem. Możesz na przykład dostosowywać prompty do konkretnych typów klientów lub personalizować prompty dla nowych użytkowników, aby różniły się od tych, które są używane do generowania odpowiedzi dla obecnych użytkowników.

Możesz też opcjonalnie ustawić parametr minimum_versionRemote Config, aby porównać bieżącą wersję aplikacji z najnowszą wersją zdefiniowaną w Remote Config. Dzięki temu możesz wyświetlać użytkownikom powiadomienia o aktualizacji lub wymuszać aktualizację.

Ustawianie lokalizacji dostępu do modelu

Dostępne tylko wtedy, gdy jako dostawcę interfejsu API używasz Vertex AI Gemini API.

Ustawienie lokalizacji dostępu do modelu może pomóc w obniżeniu kosztów i zapobieganiu opóźnieniom u użytkowników.

Jeśli nie określisz lokalizacji, domyślną wartością będzie us-central1. Tę lokalizację możesz ustawić podczas inicjowania lub opcjonalnie użyć Firebase Remote Config, aby dynamicznie zmieniać lokalizację na podstawie lokalizacji każdego użytkownika.