Kosten, Nutzung und andere Messwerte im Blick behalten

Die Kosten, die Nutzung und andere Messwerte Ihrer KI-Funktionen im Blick zu behalten, ist ein wichtiger Teil der Verwaltung einer Produktions-App. Sie müssen wissen, wie die normalen Nutzungsmuster für Ihre App aussehen, und dafür sorgen, dass Sie die für Sie wichtigen Grenzwerte einhalten.

Auf dieser Seite werden einige empfohlene Optionen zum Überwachen von Kosten, Nutzung und anderen Messwerten sowohl in der Firebase Console als auch in der Google Cloud Console beschrieben.

Kosten überwachen

Im Dashboard Nutzung und Abrechnung der Firebase-Konsole können Sie die Kosten Ihres Projekts für Aufrufe der Vertex AI Gemini API und der Gemini Developer API einsehen, wenn Sie den Blaze-Preisplan verwenden.

Die im Dashboard angezeigten Kosten beziehen sich nicht unbedingt auf Aufrufe mit den Firebase AI Logic-Client-SDKs. Die angezeigten Kosten sind mit allen Aufrufen dieser „Gemini APIs“ verknüpft, unabhängig davon, ob dabei die Firebase AI Logic-Client-SDKs, die Google GenAI-Server-SDKs, Genkit, die Firebase Extensions für die Gemini API, REST-Aufrufe, eine der AI Studios oder andere API-Clients verwendet werden.

Weitere Informationen zu den Preisen für die Produkte, die mit der Nutzung von Firebase AI Logic verbunden sind

Benachrichtigung einrichten

Wenn Sie den Blaze-Preisplan nutzen, sollten Sie Budgetbenachrichtigungen einrichten, um unerwartete Rechnungen zu vermeiden.

Budgetbenachrichtigungen sind keine Budgetobergrenzen. Sie erhalten eine Benachrichtigung, wenn Sie den konfigurierten Grenzwert erreichen oder überschreiten, damit Sie Maßnahmen in Ihrer App oder Ihrem Projekt ergreifen können.

Nutzung Ihrer KI-Funktionen in der Firebase-Konsole beobachten

Nur verfügbar, wenn Vertex AI Gemini API als API-Anbieter verwendet wird.

Sie können die KI-Überwachung auf der Seite Firebase AI Logic der Firebase-Konsole aktivieren, um verschiedene Messwerte und Nutzungsdaten auf App-Ebene zu beobachten und so einen umfassenden Überblick über Ihre Anfragen über die Firebase AI Logic-Client-SDKs zu erhalten. Diese Dashboards sind detaillierter als die grundlegenden Tokenzahlen, die Sie über einen Aufruf der Count Tokens API erhalten.

Zu den wichtigsten Funktionen des KI-Monitorings in der Firebase-Konsole gehören:

  • Sie können quantitative Messwerte wie Anfragevolumen, Latenz, Fehler und Tokennutzung pro Modalität für jede Ihrer Apps aufrufen.

  • Sie können sich die Attribute, Eingaben und Ausgaben Ihrer Anfragen ansehen, um Fehler zu beheben und die Qualität zu verbessern.

  • Daten nach Dimensionen wie Anfragestatus, Mindestlatenz und Modellname unterteilen

Alle diese Funktionen werden mit Google Cloud Observability Suite erstellt (siehe detaillierte Produktinformationen unten).

KI-Monitoring aktivieren

So können Sie das KI-Monitoring in der Firebase-Konsole aktivieren:

Voraussetzungen für die Aktivierung und Verwendung des KI-Monitorings:

  • Sie müssen Projektinhaber, -bearbeiter oder Firebase Vertex AI-Administrator sein.

  • Für Ihr Firebase-Projekt muss der Blaze-Tarif (Pay as you go) verwendet werden (siehe detaillierte Produktinformationen unten).

  • Sie müssen die Vertex AI Gemini API als API-Anbieter verwenden. Unterstützung für die Gemini Developer API ist bald verfügbar.

  • In Ihrer App müssen mindestens die folgenden Firebase-Bibliotheksversionen verwendet werden:
    iOS und höher: Version 11.13.0 oder höher | Android: Version 16.0.0 oder höher (BoM: Version 33.14.0 oder höher) | Web: Version 11.8.0 oder höher | Flutter: Version 2.0.0 oder höher (BoM: Version 3.11.0 oder höher) | Unity: Version 12.9.0 oder höher

  • In Ihrer App muss die Einwilligungsbasierte Datenerhebung aktiviert sein. Diese ist standardmäßig aktiviert.

Sobald Ihre App diese Anforderungen erfüllt und Sie die KI-Überwachung in der Console aktiviert haben, müssen Sie in Ihrer App oder in der Console nichts weiter tun, damit Daten in den Dashboards auf dem Tab Firebase AI Logic KI-Überwachung angezeigt werden. Es kann eine kurze Verzögerung (manchmal bis zu 5 Minuten) dauern, bis die Telemetriedaten einer Anfrage in der Firebase-Konsole verfügbar sind.

Fortgeschrittene Nutzung

In diesem Abschnitt werden die Konfiguration der Abtastrate sowie verschiedene Optionen zum Ansehen und Arbeiten mit Ihren Daten beschrieben.

Abtastrate

Wenn Sie eine große Anzahl von Anfragen stellen, empfehlen wir die Konfiguration der Abtastrate. Die Abtastrate gibt den Anteil der Anfragen an, für die Daten tatsächlich erhoben werden.

Auf dem Tab Firebase AI Logic Einstellungen der Firebase-Konsole können Sie die Abtastrate für Ihr Projekt auf einen Wert zwischen 1 und 100 % festlegen. Bei 100% wird der gesamte Traffic an das KI-Monitoring gesendet. Der Standardwert ist 100 %. Je mehr Traffic gesendet wird, desto genauer sind Ihre Messwerte. Allerdings steigen auch die Monitoringkosten. Die im Monitoring-Dashboard angezeigten Diagramme basieren auf Ihrer Stichprobenrate. Wenn diese also 50% beträgt, sollten Sie die Anzahl der Anfragen, die Tokennutzung usw. verdoppeln, um das tatsächliche Volumen zu schätzen.

Weitere Optionen außerhalb der Firebase-Konsole

Zusätzlich zum KI-Monitoring in der Firebase-Konsole haben Sie folgende Möglichkeiten:

  • Vertex AI Model Garden
    Diese Dashboards bieten weitere Trendinformationen zu Latenz und Durchsatz für die verwalteten Modelle und ergänzen die Informationen aus dem KI-Monitoring in der Firebase-Konsole.

  • Daten mit Google Cloud Observability Suite
    untersuchen und verwenden Da Telemetriedaten für die KI-Überwachung in Google Cloud Observability Suite gespeichert werden, die mit Ihrem Projekt verknüpft ist, können Sie Ihre Daten in den zugehörigen Dashboards untersuchen, einschließlich Trace Explorer und Logs Explorer, die verknüpft sind, wenn Sie Ihre einzelnen Traces in der Firebase-Konsole prüfen. Außerdem können Sie Ihre Daten verwenden, um benutzerdefinierte Dashboards zu erstellen und Benachrichtigungen einzurichten.

Detaillierte Informationen zu Produkten, die für das KI-Monitoring verwendet werden

Bei der KI-Überwachung werden Ihre Telemetriedaten in verschiedenen Produkten gespeichert, die in Google Cloud Observability Suite verfügbar sind, darunter Cloud Monitoring, Cloud Trace und Cloud Logging.

  • Cloud Monitoring: Hier werden Messwerte wie Anzahl der Anfragen, Erfolgsrate und Anfragelatenz gespeichert.

  • Cloud Trace: Hier werden für jede Anfrage Protokolle gespeichert, sodass Sie Details einzeln und nicht zusammengefasst aufrufen können. Eine Spur ist in der Regel mit Protokollen verknüpft, damit Sie den Inhalt und die Zeit jeder Interaktion prüfen können.

  • Cloud Logging: Hier werden Eingabe-, Ausgabe- und Konfigurationsmetadaten erfasst, um detaillierte Informationen zu jedem Teil Ihrer KI-Anfrage bereitzustellen.

Da Ihre Telemetry-Daten in diesen Produkten gespeichert werden, können Sie die Einstellungen für die Aufbewahrung und den Zugriff direkt in den einzelnen Produkten festlegen. Weitere Informationen finden Sie in der Dokumentation zu Cloud Monitoring, Cloud Trace und Cloud Logging. Die tatsächlichen Prompts und die generierte Ausgabe jeder Stichprobenerstellung werden zusammen mit den Messwerten gespeichert.

Preise

Google Cloud Observability Suite ist ein kostenpflichtiger Dienst. Ihr Firebase-Projekt muss daher den Blaze-Tarif (Pay as you go) verwenden. Für jedes Produkt gibt es jedoch großzügige kostenlose Stufen. Weitere Informationen finden Sie in der Google Cloud Observability Suite-Dokumentation zu Preisen.

API-Messwerte auf Projektebene in der Google Cloud Console ansehen

Für jede API können Sie in der Google Cloud Console Messwerte auf Projektebene wie die Nutzung aufrufen.

Die in diesem Abschnitt beschriebenen Google Cloud-Console-Seiten enthalten keine Informationen wie Anfrage- und Antwortinhalte und die Tokenanzahl. Sie können diese Art von Informationen mithilfe des KI-Monitorings in der Firebase Console überwachen (siehe vorheriger Abschnitt).

  1. Rufen Sie in der Google Cloud Console die Seite Messwerte der gewünschten API auf:

    • Vertex AI API: Sie können sich die Nutzung ansehen, die mit jeder Anfrage an die Vertex AI Gemini API verbunden ist.

      • Dazu gehören Anfragen mit Firebase AI Logic-Client-SDKs, den Google GenAI-Server-SDKs, Genkit, der Firebase Extensions für die Gemini API, der REST API, Vertex AI Studio usw.
    • Gemini Developer API: Sie können sich die Nutzung ansehen, die mit jeder Anfrage an die Gemini Developer API verknüpft ist.

      • Dazu gehören Anfragen, die die Firebase AI Logic-Client-SDKs, die Google GenAI-Server-SDKs, Genkit, die Firebase Extensions für die Gemini API, die REST API und Google AI Studio verwenden.
      • Der Anzeigename dieser API in der Google Cloud Console lautet „Generative Language API“.

    Wenn Sie sich auf der Übersichtsseite der API befinden, klicken Sie auf Verwalten und dann auf den Tab Messwerte.

  2. Über die Drop-down-Menüs können Sie die gewünschten Messwerte aufrufen, z. B. Traffic nach Antwortcode, Fehler nach API-Methode, Gesamtlatenz und Latenz nach API-Methode.