Kosten, Nutzung und andere Messwerte im Blick behalten

Die Kosten, die Nutzung und andere Messwerte Ihrer KI-Funktionen im Blick zu behalten, ist ein wichtiger Bestandteil des Betriebs einer Produktions-App. Sie müssen wissen, wie normale Nutzungsmuster für Ihre App aussehen, und darauf achten, dass Sie die für Sie wichtigen Grenzwerte nicht überschreiten.

Auf dieser Seite werden einige empfohlene Optionen zum Überwachen Ihrer Kosten, Nutzung und anderer Messwerte in der Firebase Console und der Google Cloud Console beschrieben.

Kosten überwachen

Im Dashboard „Nutzung und Abrechnung“ der Firebase-Konsole können Sie die Kosten Ihres Projekts für den Aufruf von Vertex AI Gemini API und Gemini Developer API einsehen (wenn Sie den Blaze-Tarif nutzen).

Die im Dashboard angezeigten Kosten beziehen sich nicht unbedingt auf Aufrufe mit den Firebase AI Logic-Client-SDKs. Die angezeigten Kosten beziehen sich auf alle Aufrufe dieser Gemini APIs, unabhängig davon, ob sie über die Firebase AI Logic-Client-SDKs, die Google GenAI-Server-SDKs, Genkit, die Firebase Extensions für die Gemini API, REST-Aufrufe, eines der AI Studios oder andere API-Clients erfolgen.

Weitere Informationen zu den Preisen für die Produkte, die mit Ihrer Nutzung von Firebase AI Logic verknüpft sind

Benachrichtigung einrichten

Um unerwartete Abrechnungen zu vermeiden, sollten Sie Budgetbenachrichtigungen einrichten, wenn Sie den Blaze-Tarif nutzen.

Budgetbenachrichtigungen sind keine Budgetobergrenzen. Sie erhalten eine Benachrichtigung, wenn Sie sich dem konfigurierten Schwellenwert nähern oder ihn überschritten haben, damit Sie in Ihrer App oder Ihrem Projekt Maßnahmen ergreifen können.

Nutzung Ihrer KI-Funktionen in der Firebase Console beobachten

Nur verfügbar, wenn Sie Vertex AI Gemini API als API-Anbieter verwenden.

Sie können die KI-Überwachung auf der Seite Firebase AI Logic der Firebase-Konsole aktivieren, um verschiedene Messwerte und die Nutzung auf App-Ebene zu beobachten und so umfassende Einblicke in Ihre Anfragen über die Firebase AI Logic-Client-SDKs zu erhalten. Diese Dashboards sind detaillierter als die einfachen Tokenanzahlen, die Sie bei einem Aufruf der Count Tokens API erhalten.

Wichtige Funktionen für das KI-Monitoring in der Firebase-Konsole:

  • Sie können quantitative Messwerte wie Anfragevolumen, Latenz, Fehler und Tokennutzung pro Modalität für jede Ihrer Apps ansehen.

  • Sie können die Attribute, Eingaben und Ausgaben Ihrer Anfragen prüfen, was beim Debuggen und bei der Qualitätsverbesserung hilfreich sein kann.

  • Daten nach Dimensionen wie Anfragestatus, Mindestlatenz und Modellname aufschlüsseln.

Alle diese Funktionen basieren auf Google Cloud Observability Suite (siehe detaillierte Produktinformationen unten).

KI-Monitoring aktivieren

So können Sie das KI-Monitoring in der Firebase-Konsole aktivieren:

Voraussetzungen für die Aktivierung und Verwendung von KI‑Monitoring:

  • Sie müssen Projektinhaber, Projektbearbeiter oder Firebase Vertex AI-Administrator sein.

  • Für Ihr Firebase-Projekt muss der Blaze-Tarif (Pay as you go) aktiviert sein (siehe detaillierte Produktinformationen unten).

  • Sie müssen die Vertex AI Gemini API als API-Anbieter verwenden (Unterstützung für die Gemini Developer API folgt in Kürze).

  • Ihre App muss mindestens die folgenden Firebase-Bibliotheksversionen verwenden:
    iOS+: v11.13.0+ | Android: v16.0.0+ (BoM: v33.14.0+) | Web: v11.8.0+ | Flutter: v2.0.0+ (BoM: v3.11.0+) | Unity: v12.9.0+

  • Für Ihre App muss die Datenerhebung mit Einwilligung aktiviert sein (standardmäßig aktiviert).

Wenn Ihre App diese Anforderungen erfüllt und Sie die KI-Überwachung in der Konsole aktivieren, müssen Sie in Ihrer App oder der Konsole nichts weiter tun, damit Daten in den Dashboards auf dem Tab Firebase AI Logic KI-Überwachung angezeigt werden. Es kann zu einer leichten Verzögerung (manchmal bis zu 5 Minuten) kommen, bevor die Telemetrie einer Anfrage in der Firebase-Konsole verfügbar ist.

Fortgeschrittene Nutzung

In diesem Abschnitt wird die Konfiguration der Samplingrate beschrieben. Außerdem werden verschiedene Optionen zum Ansehen und Bearbeiten Ihrer Daten erläutert.

Abtastrate

Wenn Sie eine große Anzahl von Anfragen stellen, empfehlen wir Ihnen, die Konfiguration der Sampling-Rate zu nutzen. Die Abtastrate gibt den Anteil der Anfragen an, für die tatsächlich Daten erhoben werden.

Auf dem Tab Firebase AI Logic Einstellungen der Firebase-Konsole können Sie die Sampling-Rate für Ihr Projekt auf einen Wert zwischen 1 und 100 % festlegen. Bei 100% wird der gesamte Traffic an die KI-Überwachung gesendet. Der Standardwert ist 100 %. Wenn Sie mehr Traffic senden, werden Ihre Messwerte genauer, aber auch die Kosten für die Überwachung steigen. Die Diagramme im Monitoring-Dashboard basieren auf Ihrer Sampling-Rate. Wenn Ihre Sampling-Rate also 50% beträgt, sollten Sie die Anzahl der Anfragen, die Tokennutzung usw. verdoppeln, um das tatsächliche Volumen zu schätzen.

Zusätzliche Optionen außerhalb der Firebase-Konsole

Zusätzlich zum KI-Monitoring in der Firebase-Konsole haben Sie folgende Möglichkeiten:

  • Vertex AI Model Garden
    Diese Dashboards bieten zusätzliche Trendinformationen zu Latenz und Durchsatz für die verwalteten Modelle und ergänzen die Informationen, die Sie über die KI-Überwachung in der Firebase-Konsole erhalten.

  • Daten mit Google Cloud Observability Suite
    untersuchen und verwenden Da Telemetriedaten für die KI-Überwachung in Google Cloud Observability Suite gespeichert werden, die mit Ihrem Projekt verknüpft ist, können Sie Ihre Daten in den zugehörigen Dashboards untersuchen, einschließlich Trace Explorer und Logs Explorer. Diese sind verknüpft, wenn Sie Ihre einzelnen Traces in der Firebase-Konsole untersuchen. Sie können Ihre Daten auch verwenden, um benutzerdefinierte Dashboards zu erstellen, Benachrichtigungen einzurichten und vieles mehr.

Detaillierte Informationen zu Produkten, die für das KI-Monitoring verwendet werden

Bei der KI-Überwachung werden Ihre Telemetriedaten in verschiedenen Produkten gespeichert, die in Google Cloud Observability Suite verfügbar sind, darunter Cloud Monitoring, Cloud Trace und Cloud Logging.

  • Cloud Monitoring: Speichert Messwerte wie die Anzahl der Anfragen, die Erfolgsrate und die Anfrage-Latenz.

  • Cloud Trace: Speichert Traces für jede Ihrer Anfragen, sodass Sie Details einzeln statt aggregiert ansehen können. Ein Trace ist in der Regel mit Logs verknüpft, damit Sie den Inhalt und das Timing jeder Interaktion untersuchen können.

  • Cloud Logging: Erfasst Metadaten zu Eingabe, Ausgabe und Konfiguration, um detaillierte Informationen zu jedem Teil Ihrer KI-Anfrage bereitzustellen.

Da Ihre Telemetriedaten in diesen Produkten gespeichert werden, können Sie die Aufbewahrungs- und Zugriffseinstellungen direkt in jedem Produkt festlegen. Weitere Informationen finden Sie in der Dokumentation zu Cloud Monitoring, Cloud Trace und Cloud Logging. Die tatsächlichen Prompts und die generierte Ausgabe jeder Stichprobenanfrage werden zusammen mit den Messwerten gespeichert.

Preise

Google Cloud Observability Suite ist ein kostenpflichtiger Dienst. Daher muss für Ihr Firebase-Projekt der Blaze-Tarif (Pay as you go) gelten. Für jedes Produkt gibt es jedoch großzügige kostenlose Stufen. Weitere Informationen finden Sie in der Google Cloud Observability Suite-Preisdokumentation.

API-Messwerte auf Projektebene in der Google Cloud Console ansehen

Für jede API können Sie Messwerte auf Projektebene, z. B. die Nutzung, in der Google Cloud-Konsole aufrufen.

Die in diesem Abschnitt beschriebenen Google Cloud-Konsolenseiten enthalten keine Informationen wie Anfrage- und Antwortinhalte und die Anzahl der Tokens. Wenn Sie diese Art von Informationen im Blick behalten möchten, sollten Sie KI-Monitoring in der Firebase-Konsole verwenden (siehe vorheriger Abschnitt).

  1. Rufen Sie in der Google Cloud Console die Seite Messwerte der API auf, die Sie sich ansehen möchten:

    • Vertex AI API: Sehen Sie sich die Nutzung an, die mit einer beliebigen Anfrage an die Vertex AI Gemini API verbunden ist.

      • Dazu gehören Anfragen über Firebase AI Logic-Client-SDKs, die Google GenAI-Server-SDKs, Genkit, die Firebase Extensions für die Gemini API, REST API, Vertex AI Studio usw.
    • Gemini Developer API: Ruft die Nutzung ab, die mit einer beliebigen Anfrage an die Gemini Developer API verknüpft ist.

      • Beinhaltet Anfragen, die über die Firebase AI Logic-Client-SDKs, die Google GenAI-Server-SDKs, Genkit, die Firebase Extensions für die Gemini API, die REST API, Google AI Studio usw. gesendet werden.
      • Der Anzeigename dieser API in der Google Cloud-Konsole ist „Generative Language API“.

    Wenn Sie sich auf einer Übersichtsseite für die API befinden, klicken Sie auf Verwalten und dann auf den Tab Messwerte.

  2. Über die Drop-down-Menüs können Sie die gewünschten Messwerte aufrufen, z. B. Traffic nach Antwortcode, Fehler nach API-Methode, Gesamtlatenz und Latenz nach API-Methode.