Wenn Sie Ihre App veröffentlichen und echte Endnutzer mit Ihren generativen KI-Funktionen interagieren lassen möchten, sollten Sie sich diese Checkliste mit Best Practices und wichtigen Überlegungen ansehen.
Allgemein
Allgemeine Checkliste für die Markteinführung von Apps mit Firebase ansehen
In dieser Checkliste für die Einführung von Firebase werden wichtige Best Practices beschrieben, die Sie beachten sollten, bevor Sie eine Firebase-App in die Produktion bringen.
Best Practices für Firebase-Projekte beachten
Verwenden Sie beispielsweise unterschiedliche Firebase-Projekte für Entwicklung, Tests und Produktion. Weitere Best Practices für die Projektverwaltung
Zugriff und Sicherheit
Allgemeine Sicherheitscheckliste für Apps mit Firebase prüfen
In dieser Checkliste für die Sicherheit werden wichtige Best Practices für den Zugriff und die Sicherheit von Firebase-Apps und ‑Diensten beschrieben.
Erzwingen starten Firebase App Check
App Check trägt zum Schutz der APIs bei, die auf die Gemini- und Imagen-Modelle zugreifen, indem überprüft wird, ob Anfragen von Ihrer tatsächlichen App stammen. Es unterstützt Attestierungsanbieter für Apple-Plattformen (DeviceCheck oder App Attest), Android (Play Integrity) und Web (reCAPTCHA Enterprise).
Einschränkungen für Ihre Firebase API-Schlüssel einrichten
Prüfen Sie die Zulassungsliste API-Einschränkungen für jeden Firebase API-Schlüssel:
Die Firebase AI Logic API muss auf der Zulassungsliste stehen.
Achten Sie darauf, dass die einzigen anderen APIs auf der Zulassungsliste des Schlüssels für Firebase-Dienste sind, die Sie in Ihrer App verwenden. In dieser Liste finden Sie eine Übersicht darüber, welche APIs für jedes Produkt auf der Zulassungsliste stehen müssen.
Legen Sie Anwendungseinschränkungen fest, um die Nutzung jedes Firebase API-Schlüssels auf Anfragen von Ihrer App zu beschränken (z. B. eine übereinstimmende Bundle-ID für die Apple-App). Auch wenn Sie Ihren Schlüssel einschränken, wird Firebase App Check dringend empfohlen.
Bei Firebase-bezogenen APIs werden API-Schlüssel nur zum Identifizieren des Firebase-Projekts oder der Firebase-App verwendet, nicht zur Autorisierung für den API-Aufruf.
Abrechnung, Monitoring und Kontingent
Unerwartete Rechnungen vermeiden
Wenn für Ihr Firebase-Projekt der Blaze-Tarif (Pay as you go) gilt, überwachen Sie die Nutzung und richten Sie Budgetbenachrichtigungen ein.
KI-Monitoring in der Firebase-Konsole einrichten
Nur verfügbar, wenn Vertex AI Gemini API als API-Anbieter verwendet wird. |
Richten Sie KI-Monitoring ein, um verschiedene Messwerte und Dashboards in der Firebase-Konsole zu beobachten und so einen umfassenden Überblick über Ihre Anfragen über die Firebase AI Logic-SDKs zu erhalten.
Kontingente für die erforderlichen zugrunde liegenden APIs prüfen
Informieren Sie sich über die Kontingente für jede erforderliche API.
Legen Sie Ratenlimits pro Nutzer fest. (Standardmäßig ist das 100 RPM.)
Bearbeiten Sie das Kontingent oder beantragen Sie eine Kontingenterhöhung, falls erforderlich.
Verwaltung von Konfigurationen
Stabile Modellversion in Ihrer Produktions-App verwenden
Verwenden Sie in Ihrer Produktions-App nur stabile Modellversionen (z. B. gemini-2.0-flash-001
), keine Vorschau- oder experimentellen Versionen und keinen automatisch aktualisierten Alias.
Auch wenn ein stabiler Alias, der automatisch aktualisiert wird, auf eine stabile Version verweist, ändert sich die tatsächliche Modellversion, auf die er verweist, automatisch, sobald eine neue stabile Version veröffentlicht wird. Dies kann zu unerwartetem Verhalten oder unerwarteten Antworten führen. Außerdem werden Vorabversionen und experimentelle Versionen nur während des Prototypings empfohlen.
Firebase Remote Config einrichten und verwenden
Mit Remote Config können Sie wichtige Konfigurationen für Ihre generative AI-Funktion in der Cloud steuern, anstatt Werte in Ihren Code einzufügen. So können Sie Ihre Konfiguration aktualisieren, ohne eine neue Version Ihrer App zu veröffentlichen. Mit Remote Config können Sie viele Dinge tun. Hier sind die wichtigsten Werte, die wir empfehlen, für Ihre generative KI-Funktion aus der Ferne zu steuern:
Halten Sie Ihre App auf dem neuesten Stand.
- Modellname: Aktualisieren Sie das Modell, das Ihre App verwendet, wenn neue Modelle veröffentlicht oder andere eingestellt werden.
Passen Sie Werte und Eingaben anhand von Kundenattributen oder Feedback aus Tests oder von Nutzern an.
Modellkonfiguration: Sie können unter anderem die Temperatur und die maximale Anzahl von Ausgabetokens anpassen.
Sicherheitseinstellungen: Passen Sie die Sicherheitseinstellungen an, wenn zu viele Antworten blockiert werden oder Nutzer schädliche Antworten melden.
Systemanweisungen und von Ihnen bereitgestellte Prompts: Passen Sie den zusätzlichen Kontext an, den Sie an das Modell senden, um seine Antworten und sein Verhalten zu steuern. So können Sie beispielsweise Prompts für bestimmte Kundentypen anpassen oder Prompts für neue Nutzer personalisieren, die sich von denen unterscheiden, die zum Generieren von Antworten für Bestandsnutzer verwendet werden.
Optional können Sie auch einen minimum_version
-Parameter in Remote Config festlegen, um die aktuelle Version der App mit der in Remote Config definierten neuesten Version zu vergleichen. So können Sie Nutzern entweder eine Upgrade-Benachrichtigung anzeigen oder sie zum Upgrade zwingen.
Speicherort für den Zugriff auf das Modell festlegen
Nur verfügbar, wenn Vertex AI Gemini API als API-Anbieter verwendet wird. |
Wenn Sie einen Speicherort für den Zugriff auf das Modell festlegen, können Sie die Kosten senken und Latenzen für Ihre Nutzer vermeiden.
Wenn Sie keinen Standort angeben, ist us-central1
der Standardwert. Sie können diesen Speicherort bei der Initialisierung festlegen oder Firebase Remote Config verwenden, um den Speicherort dynamisch basierend auf dem Standort des jeweiligen Nutzers zu ändern.