Gdy aplikacja będzie gotowa do uruchomienia i użytkownicy będą mogli korzystać z funkcji generatywnej AI, zapoznaj się z tą listą kontrolną zawierającą sprawdzone metody i ważne kwestie.
Ogólne
Sprawdź ogólną listę kontrolną dotyczącą uruchamiania aplikacji korzystających z Firebase
Ta lista kontrolna przed wdrożeniem Firebase zawiera ważne sprawdzone metody, które warto zastosować przed wdrożeniem dowolnej aplikacji Firebase w wersji produkcyjnej.
Sprawdź, czy Twoje projekty Firebase są zgodne ze sprawdzonymi metodami
Na przykład upewnij się, że do tworzenia, testowania i wdrażania aplikacji używasz różnych projektów Firebase. Poznaj więcej sprawdzonych metod zarządzania projektami.
Dostęp i bezpieczeństwo
Zapoznaj się z ogólną listą kontrolną dotyczącą bezpieczeństwa aplikacji korzystających z Firebase
Ta lista kontrolna bezpieczeństwa zawiera ważne sprawdzone metody dotyczące dostępu i bezpieczeństwa aplikacji i usług Firebase.
Rozpocznij egzekwowanie Firebase App Check
App Check pomaga chronić interfejsy API, które mają dostęp do modeli Gemini i Imagen, sprawdzając, czy żądania pochodzą z Twojej aplikacji. Obsługuje dostawców atestów na platformach Apple (DeviceCheck lub App Attest), Android (Play Integrity) i w internecie (reCAPTCHA Enterprise).
Ustawianie ograniczeń kluczy interfejsu API Firebase
Sprawdź listę dozwolonych „ograniczeń interfejsu API” każdego klucza interfejsu API Firebase:
Sprawdź, czy interfejs API Firebase AI Logic znajduje się na liście dozwolonych.
Upewnij się, że na liście dozwolonych interfejsów API klucza znajdują się tylko interfejsy API usług Firebase, których używasz w aplikacji. Zapoznaj się z listą interfejsów API, które muszą znajdować się na liście dozwolonych w przypadku poszczególnych usług.
Ustaw „Ograniczenia aplikacji”, aby ograniczyć użycie każdego klucza interfejsu API Firebase tylko do żądań z Twojej aplikacji (np. pasujący identyfikator pakietu aplikacji na urządzenia Apple). Pamiętaj, że nawet jeśli ograniczysz klucz, Firebase App Check jest nadal zdecydowanie zalecane.
Pamiętaj, że interfejsy API związane z Firebase używają kluczy interfejsu API tylko do identyfikowania projektu lub aplikacji Firebase, a nie do autoryzacji wywołań interfejsu API.
Płatności, monitorowanie i limity
Unikaj niespodziewanych rachunków
Jeśli Twój projekt Firebase korzysta z abonamentu Blaze (płatność według zużycia zasobów), monitoruj wykorzystanie zasobów i skonfiguruj alerty budżetowe.
Konfigurowanie monitorowania AI w konsoli Firebase
Dostępne tylko wtedy, gdy jako dostawcę interfejsu API używasz Vertex AI Gemini API. |
Skonfiguruj monitorowanie AI, aby obserwować różne dane i panele w konsoli Firebase i uzyskać pełny wgląd w żądania z pakietów SDK Firebase AI Logic.
Sprawdź limity wymaganych interfejsów API
Sprawdź, czy znasz limity każdego wymaganego interfejsu API.
Ustaw limity szybkości dla poszczególnych użytkowników (domyślnie 100 zapytań na minutę).
W razie potrzeby zmień limit lub poproś o jego zwiększenie.
Zarządzanie konfiguracjami
Używanie stabilnej wersji modelu w aplikacji produkcyjnej
W aplikacji produkcyjnej używaj tylko stabilnych wersji modelu (np.gemini-2.0-flash-001
), a nie wersji wersji podglądowej, eksperymentalnej ani automatycznie aktualizowanego aliasu.
Chociaż automatycznie aktualizowany alias stabilny wskazuje wersję stabilną, rzeczywista wersja modelu, na którą wskazuje, będzie się automatycznie zmieniać za każdym razem, gdy zostanie wydana nowa wersja stabilna, co może oznaczać nieoczekiwane działanie lub odpowiedzi. Wersje podglądowe i eksperymentalne są zalecane tylko podczas tworzenia prototypów.
Konfigurowanie i używanie Firebase Remote Config
Dzięki Remote Config możesz kontrolować ważne konfiguracje funkcji generatywnej AI w chmurze, zamiast na stałe kodować wartości w kodzie. Oznacza to, że możesz zaktualizować konfigurację bez publikowania nowej wersji aplikacji. Za pomocą Remote Config możesz zrobić wiele, ale oto najważniejsze wartości, które zalecamy kontrolować zdalnie w przypadku funkcji generatywnej AI:
Dbaj o aktualność aplikacji.
- Nazwa modelu: aktualizuj model używany przez aplikację, gdy pojawią się nowe modele lub inne zostaną wycofane.
Dostosuj wartości i dane wejściowe na podstawie atrybutów klienta lub uwzględnij opinie z testów lub od użytkowników.
Konfiguracja modelu: dostosuj temperaturę, maksymalną liczbę tokenów wyjściowych i inne ustawienia.
Ustawienia bezpieczeństwa: dostosuj ustawienia bezpieczeństwa, jeśli zbyt wiele odpowiedzi jest blokowanych lub użytkownicy zgłaszają szkodliwe odpowiedzi.
Instrukcje systemowe i prompty: dostosuj dodatkowy kontekst wysyłany do modelu, aby kierować jego odpowiedziami i zachowaniem. Możesz na przykład dostosowywać prompty do konkretnych typów klientów lub personalizować prompty dla nowych użytkowników, aby różniły się od tych, które są używane do generowania odpowiedzi dla obecnych użytkowników.
Możesz też opcjonalnie ustawić parametr minimum_version
w Remote Config, aby porównać bieżącą wersję aplikacji z najnowszą wersją zdefiniowaną w Remote Config. Dzięki temu możesz wyświetlać użytkownikom powiadomienia o aktualizacji lub wymuszać aktualizację.
Ustawianie lokalizacji dostępu do modelu
Dostępne tylko wtedy, gdy jako dostawcę interfejsu API używasz Vertex AI Gemini API. |
Ustawienie lokalizacji dostępu do modelu może pomóc w obniżeniu kosztów i zapobieganiu opóźnieniom u użytkowników.
Jeśli nie określisz lokalizacji, domyślną wartością będzie us-central1
. Tę lokalizację możesz ustawić podczas inicjowania lub opcjonalnie użyć Firebase Remote Config, aby dynamicznie zmieniać lokalizację na podstawie lokalizacji każdego użytkownika.