Mit der Gemini API Text aus reinen Text-Prompts generieren


Wenn Sie die Gemini API über ein Vertex AI in Firebase SDK aus Ihrer App aufrufen, können Sie das Gemini-Modell auffordern, Text basierend auf einer reinen Texteingabe zu generieren.

Hinweis

Lesen Sie den Startleitfaden, in dem beschrieben wird, wie Sie ein Firebase-Projekt einrichten, Ihre App mit Firebase verbinden, das SDK hinzufügen, den Vertex AI-Dienst initialisieren und eine GenerativeModel-Instanz erstellen.

Text aus reiner Texteingabe generieren

Sie können die Gemini API mit einer Eingabe aufrufen, die nur Text enthält. Für diese Aufrufe müssen Sie ein Modell verwenden, das nur Textprompts unterstützt (z. B. Gemini 2.0 Flash).

Wählen Sie aus, ob Sie die Antwort streamen (generateContentStream) oder warten möchten, bis das gesamte Ergebnis generiert wurde (generateContent).

Streaming

Sie können schnellere Interaktionen erzielen, wenn Sie nicht auf das vollständige Ergebnis der Modellgenerierung warten, sondern stattdessen Streaming zum Verarbeiten von Teilergebnissen verwenden.

Ohne Streaming

Alternativ können Sie auf das vollständige Ergebnis warten, anstatt es zu streamen. Das Ergebnis wird erst zurückgegeben, wenn das Modell den gesamten Generierungsprozess abgeschlossen hat.

Hier erfahren Sie, wie Sie ein Modell und optional einen Standort auswählen, die für Ihren Anwendungsfall und Ihre App geeignet sind.

Was können Sie sonst noch tun?

Andere Funktionen ausprobieren

Inhaltserstellung steuern

Mit Vertex AI Studio können Sie auch mit Prompts und Modellkonfigurationen experimentieren.

Weitere Informationen zu den unterstützten Modellen

Hier finden Sie Informationen zu den Modellen, die für verschiedene Anwendungsfälle verfügbar sind, sowie zu ihren Kontingenten und Preisen.


Feedback zu Vertex AI in Firebase geben