Antworten mithilfe der Modellkonfiguration steuern

Bei jedem Aufruf eines Modells können Sie eine Modellkonfiguration senden, um zu steuern, wie das Modell eine Antwort generiert. Jedes Modell bietet unterschiedliche Konfigurationsoptionen.

Sie können mit Prompts und Modellkonfigurationen experimentieren und mit Vertex AI Studio schnell iterieren.

 Zu den Konfigurationsoptionen für Gemini  Zu den Konfigurationsoptionen für Imagen



Gemini-Modelle konfigurieren

In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Gemini-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.

Modellkonfiguration einrichten (Gemini)

Konfiguration für allgemeine Anwendungsfälle

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Konfiguration für Gemini Live API

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Beschreibung der Parameter (Gemini)

Hier finden Sie eine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.

Parameter Beschreibung Standardwert
Audio-Zeitstempel
audioTimestamp

Ein boolescher Wert, der das Verstehen von Zeitstempeln für Eingabedateien mit reiner Audiowiedergabe ermöglicht.

Gilt nur, wenn generateContent- oder generateContentStream-Aufrufe verwendet werden und der Eingabetyp eine reine Audiodatei ist.

false
Häufigkeitsstrafe
frequencyPenalty
Steuert die Wahrscheinlichkeit, dass Tokens eingeschlossen werden, die wiederholt in der generierten Antwort vorkommen.
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird.
---
Max. Ausgabetokens
maxOutputTokens
Gibt die maximale Anzahl von Tokens an, die in der Antwort generiert werden können. ---
Präsenzminderung
presencePenalty
Damit wird die Wahrscheinlichkeit gesteuert, dass Tokens eingeschlossen werden, die bereits in der generierten Antwort vorkommen.
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird.
---
Stoppsequenzen
stopSequences

Gibt eine Liste an Strings an, die das Modell anweist, Inhalte nicht mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird.

Gilt nur bei Verwendung einer GenerativeModel-Konfiguration.

---
Temperatur
temperature
Damit wird der Grad der Zufälligkeit der Antwort gesteuert.
Niedrigere Temperaturen führen zu deterministischeren Antworten und höhere Temperaturen zu vielfältigeren oder kreativeren Antworten.
Je nach Modell
Top-K
topK
Begrenzt die Anzahl der Wörter mit der höchsten Wahrscheinlichkeit, die in den generierten Inhalten verwendet werden.
Ein „Top-K“-Wert von 1 bedeutet, dass das nächste ausgewählte Token das wahrscheinlichste unter allen Tokens im Vokabular des Modells sein sollte. Ein „Top-K“-Wert von n bedeutet, dass das nächste Token aus den n wahrscheinlichsten Tokens ausgewählt werden sollte (je nach festgelegter Temperatur).
Je nach Modell
Top-P
topP
Steuert die Vielfalt der generierten Inhalte.
Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“ oben) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht.
Je nach Modell
Antwortmodalität
responseModality

Gibt den Typ der gestreamten Ausgabe an, wenn Live API verwendet wird, z. B. Text oder Audio.

Gilt nur bei Verwendung von Live API und einer LiveModel-Konfiguration.

---
Sprache (Stimme)
speechConfig

Gibt die Stimme an, die für die gestreamte Audioausgabe verwendet wird, wenn Live API verwendet wird.

Gilt nur bei Verwendung von Live API und einer LiveModel-Konfiguration.

Puck



Imagen-Modelle konfigurieren

In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Imagen-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.

Modellkonfiguration einrichten (Imagen)

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Beschreibung der Parameter (Imagen)

Hier finden Sie eine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.

Parameter Beschreibung Standardwert
Negativ-Prompt
negativePrompt
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten

Dieser Parameter wird von imagen-3.0-generate-002 noch nicht unterstützt.

---
Anzahl der Ergebnisse
numberOfImages
Die Anzahl der generierten Bilder, die pro Anfrage zurückgegeben werden Standard ist ein Bild für Imagen 3-Modelle
Seitenverhältnis
aspectRatio
Das Verhältnis zwischen Breite und Höhe der generierten Bilder Standard ist quadratisch (1:1)
Bildformat
imageFormat
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und die Komprimierungsstufe der generierten Bilder Standard-MIME-Typ ist PNG
Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist)
Wasserzeichen
addWatermark
Ob generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll Standardwert ist true für Imagen 3-Modelle
Personengenerierung
personGeneration
Ob die Generierung von Personen durch das Modell zulässig ist Standardeinstellung hängt vom Modell ab



Weitere Optionen zur Steuerung der Inhaltserstellung

  • Weitere Informationen zum Design von Prompts, damit Sie das Modell beeinflussen können, um eine Ausgabe zu generieren, die Ihren Anforderungen entspricht.
  • Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten, einschließlich Hassrede und sexuell expliziter Inhalte.
  • Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine „Präambel“, die Sie hinzufügen, bevor das Modell weiteren Anweisungen des Endnutzers ausgesetzt wird.
  • Geben Sie ein Antwortschema zusammen mit dem Prompt an, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten beim Generieren von JSON-Ausgabe verwendet, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.