Antworten mithilfe der Modellkonfiguration steuern

Bei jedem Aufruf eines Modells können Sie eine Modellkonfiguration senden, um zu steuern, wie das Modell eine Antwort generiert. Jedes Modell bietet unterschiedliche Konfigurationsoptionen.

Sie können auch mit Prompts und Modellkonfigurationen experimentieren, indem Sie Google AI Studio verwenden.

 Zu den Gemini-Konfigurationsoptionen springen  Zu den Imagen-Konfigurationsoptionen springen



Gemini-Modelle konfigurieren

Klicken Sie auf Ihren Gemini API-Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen.

In diesem Abschnitt wird beschrieben, wie Sie eine Konfiguration für die Verwendung mit Gemini-Modellen einrichten. Außerdem finden Sie eine Beschreibung der einzelnen Parameter.

Modellkonfiguration einrichten (Gemini)

Konfiguration für allgemeine Anwendungsfälle

Die Konfiguration bleibt für die gesamte Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue GenerativeModel-Instanz mit dieser Konfiguration.

Swift

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


import FirebaseAI

// Set parameter values in a `GenerationConfig` (example values shown here)
let config = GenerationConfig(
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
  maxOutputTokens: 200,
  stopSequences: ["red"]
)

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
  modelName: "GEMINI_MODEL_NAME",
  generationConfig: config
)

// ...

Kotlin

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
val config = generationConfig {
    maxOutputTokens = 200
    stopSequences = listOf("red")
    temperature = 0.9f
    topK = 16
    topP = 0.1f
}

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
    modelName = "GEMINI_MODEL_NAME",
    generationConfig = config
)

// ...

Java

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;

GenerationConfig config = configBuilder.build();

// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
        FirebaseAI.getInstance(GenerativeBackend.googleAI())
                .generativeModel(
                    "GEMINI_MODEL_NAME",
                    config
                );
);

// ...

Web

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Set parameter values in a `GenerationConfig` (example values shown here)
const generationConfig = {
  max_output_tokens: 200,
  stop_sequences: ["red"],
  temperature: 0.9,
  top_p: 0.1,
  top_k: 16,
};

// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME",  generationConfig });

// ...

Dart

Legen Sie die Werte der Parameter in einem GenerationConfig beim Erstellen einer GenerativeModel-Instanz fest.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
final generationConfig = GenerationConfig(
  maxOutputTokens: 200,
  stopSequences: ["red"],
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
);

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
  model: 'GEMINI_MODEL_NAME',
  config: generationConfig,
);

// ...

Einheit

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
var generationConfig = new GenerationConfig(
  maxOutputTokens: 200,
  stopSequences: new string[] { "red" },
  temperature: 0.9f,
  topK: 16,
  topP: 0.1f
);

// Specify the config as part of creating the `GenerativeModel` instance
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
var model = ai.GetGenerativeModel(
  modelName: "GEMINI_MODEL_NAME",
  generationConfig: generationConfig
);

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Konfiguration für Gemini Live API

Beschreibung der Parameter (Gemini)

Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter, sofern zutreffend. Eine vollständige Liste der Parameter und ihrer Werte finden Sie in der Gemini Developer API-Dokumentation.

Parameter Beschreibung Standardwert
Audio-Zeitstempel
audioTimestamp

Ein boolescher Wert, der das Erkennen von Zeitstempeln für reine Audioeingabedateien ermöglicht.

Gilt nur, wenn generateContent- oder generateContentStream-Anrufe verwendet werden und der Eingabetyp eine reine Audiodatei ist.

false
Häufigkeitsabschlag
frequencyPenalty
Steuert die Wahrscheinlichkeit, mit der Tokens, die wiederholt in der generierten Antwort erscheinen, einbezogen werden.
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Inhalt angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird.
---
Max. Ausgabetokens
maxOutputTokens
Gibt die maximale Anzahl von Tokens an, die in der Antwort generiert werden können. ---
Strafe für Präsenz
presencePenalty
Steuert die Wahrscheinlichkeit, Tokens einzubeziehen, die bereits in der generierten Antwort enthalten sind.
Positive Werte nehmen Abzüge bei Tokens vor, die bereits im generierten Inhalt angezeigt werden, wodurch die Wahrscheinlichkeit vielfältigerer Inhalte erhöht wird.
---
Stoppsequenzen
stopSequences

Gibt eine Liste an Strings an, die das Modell anweist, keine Inhalte mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird.

Gilt nur, wenn eine GenerativeModel-Konfiguration verwendet wird.

---
Temperatur
temperature
Steuert den Grad der Zufälligkeit in der Antwort.
Niedrigere Temperaturen führen zu deterministischeren Antworten, während höhere Temperaturen zu vielfältigeren oder kreativeren Antworten führen.
Je nach Modell
Top-K
topK
Begrenzt die Anzahl der Wörter mit der höchsten Wahrscheinlichkeit, die im generierten Inhalt verwendet werden.
Ein Top-K-Wert von 1 bedeutet, dass das nächste ausgewählte Token unter allen Tokens im Vokabular des Modells am wahrscheinlichsten sein sollte. Ein Top-K-Wert von n bedeutet, dass das nächste Token aus den n wahrscheinlichsten Tokens ausgewählt werden sollte (basierend auf der festgelegten Temperatur).
Je nach Modell
Top-P
topP
Steuert die Vielfalt der generierten Inhalte.
Tokens werden vom wahrscheinlichsten (siehe „Top-K“ oben) bis zum am wenigsten wahrscheinlichen Token ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem Wert von „Top-P“ entspricht.
Je nach Modell
Antwortmodalität
responseModality

Gibt den Typ der gestreamten Ausgabe an, wenn die Live API- oder die native multimodale Ausgabe eines Gemini-Modells verwendet wird, z. B. Text, Audio oder Bilder.

Gilt nur, wenn Sie die Live API und eine LiveModel-Konfiguration verwenden oder wenn Sie ein Gemini-Modell verwenden, das multimodale Ausgaben unterstützt.

---
Sprache (Stimme)
speechConfig

Gibt die Stimme an, die für die gestreamte Audioausgabe verwendet wird, wenn Live API verwendet wird.

Gilt nur, wenn Sie die Live API und eine LiveModel-Konfiguration verwenden.

Puck



Imagen-Modelle konfigurieren

Klicken Sie auf Ihren Imagen API-Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen.

In diesem Abschnitt wird beschrieben, wie Sie eine Konfiguration für die Verwendung mit Imagen-Modellen einrichten. Außerdem finden Sie eine Beschreibung der einzelnen Parameter.

Modellkonfiguration einrichten (Imagen)

Die Konfiguration bleibt für die gesamte Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue ImagenModel-Instanz mit dieser Konfiguration.

Swift

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig beim Erstellen einer ImagenModel-Instanz fest.


import FirebaseAI

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
let config = ImagenGenerationConfig(
  negativePrompt: "frogs",
  numberOfImages: 2,
  aspectRatio: .landscape16x9,
  imageFormat: .jpeg(compressionQuality: 100),
  addWatermark: false
)

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).imagenModel(
  modelName: "IMAGEN_MODEL_NAME",
  generationConfig: config
)

// ...

Kotlin

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig beim Erstellen einer ImagenModel-Instanz fest.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
val config = ImagenGenerationConfig {
    negativePrompt = "frogs",
    numberOfImages = 2,
    aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
    imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
    addWatermark = false
}

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()).imagenModel(
    modelName = "IMAGEN_MODEL_NAME",
    generationConfig = config
)

// ...

Java

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig beim Erstellen einer ImagenModel-Instanz fest.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
    .setNegativePrompt("frogs")
    .setNumberOfImages(2)
    .setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
    .setImageFormat(ImagenImageFormat.jpeg(100))
    .setAddWatermark(false)
    .build();

// Specify the config as part of creating the `ImagenModel` instance
ImagenModelFutures model = ImagenModelFutures.from(
        FirebaseAI.getInstance(GenerativeBackend.googleAI())
                .imagenModel(
                    "IMAGEN_MODEL_NAME",
                    config
                );
);

// ...

Web

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig beim Erstellen einer ImagenModel-Instanz fest.


// ...

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
const generationConfig = {
  negativePrompt: "frogs",
  numberOfImages: 2,
  aspectRatio: ImagenAspectRatio.LANDSCAPE_16x9,
  imageFormat: ImagenImageFormat.jpeg(100),
  addWatermark: false
};

// Specify the config as part of creating the `ImagenModel` instance
const model = getImagenModel(ai, { model: "IMAGEN_MODEL_NAME", generationConfig });

// ...

Dart

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig beim Erstellen einer ImagenModel-Instanz fest.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
final generationConfig = ImagenGenerationConfig(
  negativePrompt: 'frogs',
  numberOfImages: 2,
  aspectRatio: ImagenAspectRatio.landscape16x9,
  imageFormat: ImagenImageFormat.jpeg(compressionQuality: 100)
  addWatermark: false
);

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
final model = FirebaseAI.googleAI().imagenModel(
  model: 'IMAGEN_MODEL_NAME',
  config: generationConfig,
);

// ...

Einheit

Die Verwendung von Imagen wird für Unity noch nicht unterstützt. Schauen Sie bald wieder vorbei.

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Beschreibung der Parameter (Imagen)

Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter, sofern zutreffend. Eine vollständige Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.

Parameter Beschreibung Standardwert
Negativ-Prompt
negativePrompt
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten

Dieser Parameter wird von imagen-3.0-generate-002 noch nicht unterstützt.

---
Anzahl der Ergebnisse
numberOfImages
Die Anzahl der generierten Bilder, die für jede Anfrage zurückgegeben werden Standardmäßig wird ein Bild für Imagen 3-Modelle verwendet.
Seitenverhältnis
aspectRatio
Das Verhältnis zwischen Breite und Höhe der generierten Bilder Standardmäßig wird das quadratische Format (1:1) verwendet.
Bildformat
imageFormat
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und der Grad der Komprimierung generierter Bilder Der Standard-MIME-Typ ist PNG.
Die Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist).
Wasserzeichen
addWatermark
Ob den generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll Der Standardwert ist true für Imagen 3-Modelle.
Personengenerierung
personGeneration
Ob das Modell Bilder von Personen generieren darf Der Standardwert hängt vom Modell ab.



Weitere Optionen zum Steuern der Inhaltserstellung

  • Weitere Informationen zum Erstellen von Prompts, mit denen Sie das Modell so beeinflussen können, dass es Ausgaben generiert, die Ihren Anforderungen entsprechen.
  • Mit Sicherheitseinstellungen können Sie anpassen, wie wahrscheinlich es ist, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten, z. B. Hassrede und sexuell explizite Inhalte.
  • Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine Präambel, die Sie hinzufügen, bevor das Modell für weitere Anweisungen des Endnutzers freigegeben wird.
  • Übergeben Sie ein Antwortschema zusammen mit dem Prompt, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten verwendet, wenn JSON-Ausgabe generiert wird, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.