Antworten mithilfe der Modellkonfiguration steuern

Bei jedem Aufruf eines Modells können Sie eine Modellkonfiguration senden, um zu steuern, wie das Modell eine Antwort generiert. Jedes Modell bietet unterschiedliche Konfigurationsoptionen.

Mit Google AI Studio können Sie auch mit Prompts und Modellkonfigurationen experimentieren.

 Zu den Konfigurationsoptionen für Gemini  Zu den Konfigurationsoptionen für Imagen



Gemini-Modelle konfigurieren

Klicke auf deinen Gemini API-Anbieter, um dir anbieterspezifische Inhalte und Code auf dieser Seite anzusehen.

In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Gemini-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.

Modellkonfiguration einrichten (Gemini)

Konfiguration für allgemeine Anwendungsfälle

Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue GenerativeModel-Instanz mit dieser Konfiguration.

Swift

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


import FirebaseAI

// Set parameter values in a `GenerationConfig` (example values shown here)
let config = GenerationConfig(
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
  maxOutputTokens: 200,
  stopSequences: ["red"]
)

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).generativeModel(
  modelName: "GEMINI_MODEL_NAME",
  generationConfig: config
)

// ...

Kotlin

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
val config = generationConfig {
    maxOutputTokens = 200
    stopSequences = listOf("red")
    temperature = 0.9f
    topK = 16
    topP = 0.1f
}

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
    modelName = "GEMINI_MODEL_NAME",
    generationConfig = config
)

// ...

Java

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
GenerationConfig.Builder configBuilder = new GenerationConfig.Builder();
configBuilder.maxOutputTokens = 200;
configBuilder.stopSequences = List.of("red");
configBuilder.temperature = 0.9f;
configBuilder.topK = 16;
configBuilder.topP = 0.1f;

GenerationConfig config = configBuilder.build();

// Specify the config as part of creating the `GenerativeModel` instance
GenerativeModelFutures model = GenerativeModelFutures.from(
        FirebaseAI.getInstance(GenerativeBackend.googleAI())
                .generativeModel(
                    "GEMINI_MODEL_NAME",
                    config
                );
);

// ...

Web

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Set parameter values in a `GenerationConfig` (example values shown here)
const generationConfig = {
  max_output_tokens: 200,
  stop_sequences: ["red"],
  temperature: 0.9,
  top_p: 0.1,
  top_k: 16,
};

// Specify the config as part of creating the `GenerativeModel` instance
const model = getGenerativeModel(ai, { model: "GEMINI_MODEL_NAME",  generationConfig });

// ...

Dart

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
final generationConfig = GenerationConfig(
  maxOutputTokens: 200,
  stopSequences: ["red"],
  temperature: 0.9,
  topP: 0.1,
  topK: 16,
);

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
final model = FirebaseAI.googleAI().generativeModel(
  model: 'GEMINI_MODEL_NAME',
  config: generationConfig,
);

// ...

Einheit

Legen Sie die Werte der Parameter in einem GenerationConfig fest, wenn Sie eine GenerativeModel-Instanz erstellen.


// ...

// Set parameter values in a `GenerationConfig` (example values shown here)
var generationConfig = new GenerationConfig(
  maxOutputTokens: 200,
  stopSequences: new string[] { "red" },
  temperature: 0.9f,
  topK: 16,
  topP: 0.1f
);

// Specify the config as part of creating the `GenerativeModel` instance
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
var model = ai.GetGenerativeModel(
  modelName: "GEMINI_MODEL_NAME",
  generationConfig: generationConfig
);

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Konfiguration für Gemini Live API

Beschreibung der Parameter (Gemini)

Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Gemini Developer API-Dokumentation.

Parameter Beschreibung Standardwert
Audio-Zeitstempel
audioTimestamp

Ein boolescher Wert, der das Verstehen von Zeitstempeln für Eingabedateien mit reiner Audiowiedergabe ermöglicht.

Gilt nur, wenn generateContent- oder generateContentStream-Aufrufe verwendet werden und der Eingabetyp eine reine Audiodatei ist.

false
Häufigkeitsstrafe
frequencyPenalty
Bestimmt die Wahrscheinlichkeit, dass Tokens eingeschlossen werden, die wiederholt in der generierten Antwort vorkommen.
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird.
---
Max. Ausgabetokens
maxOutputTokens
Gibt die maximale Anzahl von Tokens an, die in der Antwort generiert werden können. ---
Präsenzminderung
presencePenalty
Damit wird die Wahrscheinlichkeit gesteuert, dass Tokens eingeschlossen werden, die bereits in der generierten Antwort vorkommen.
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird.
---
Stoppsequenzen
stopSequences

Gibt eine Liste an Strings an, die das Modell anweist, Inhalte nicht mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird.

Gilt nur bei Verwendung einer GenerativeModel-Konfiguration.

---
Temperatur
temperature
Steuert den Grad der Zufälligkeit der Antwort.
Niedrigere Temperaturen führen zu deterministischeren Antworten und höhere Temperaturen zu vielfältigeren oder kreativeren Antworten.
Je nach Modell
Top-K
topK
Begrenzt die Anzahl der Wörter mit der höchsten Wahrscheinlichkeit, die in den generierten Inhalten verwendet werden.
Ein „Top-K“-Wert von 1 bedeutet, dass das nächste ausgewählte Token das wahrscheinlichste unter allen Tokens im Vokabular des Modells sein sollte. Ein „Top-K“-Wert von n bedeutet, dass das nächste Token aus den n wahrscheinlichsten Tokens ausgewählt werden sollte (je nach festgelegter Temperatur).
Je nach Modell
Top-P
topP
Steuert die Vielfalt der generierten Inhalte.
Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“ oben) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht.
Je nach Modell
Antwortmodalität
responseModality

Gibt den Typ der gestreamten Ausgabe an, wenn Live API verwendet wird, z. B. Text oder Audio.

Gilt nur bei Verwendung von Live API und einer LiveModel-Konfiguration.

---
Sprache (Stimme)
speechConfig

Gibt die Stimme an, die für die gestreamte Audioausgabe verwendet wird, wenn Live API verwendet wird.

Gilt nur bei Verwendung von Live API und einer LiveModel-Konfiguration.

Puck



Imagen-Modelle konfigurieren

Klicke auf deinen Imagen API-Anbieter, um dir anbieterspezifische Inhalte und Code auf dieser Seite anzusehen.

In diesem Abschnitt erfahren Sie, wie Sie eine Konfiguration für die Verwendung mit Imagen-Modellen einrichten. Außerdem wird jeder Parameter beschrieben.

Modellkonfiguration einrichten (Imagen)

Die Konfiguration bleibt während der gesamten Lebensdauer der Instanz erhalten. Wenn Sie eine andere Konfiguration verwenden möchten, erstellen Sie eine neue ImagenModel-Instanz mit dieser Konfiguration.

Swift

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig fest, wenn Sie eine ImagenModel-Instanz erstellen.


import FirebaseAI

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
let config = ImagenGenerationConfig(
  negativePrompt: "frogs",
  numberOfImages: 2,
  aspectRatio: .landscape16x9,
  imageFormat: .jpeg(compressionQuality: 100),
  addWatermark: false
)

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
let model = FirebaseAI.firebaseAI(backend: .googleAI()).imagenModel(
  modelName: "IMAGEN_MODEL_NAME",
  generationConfig: config
)

// ...

Kotlin

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig fest, wenn Sie eine ImagenModel-Instanz erstellen.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
val config = ImagenGenerationConfig {
    negativePrompt = "frogs",
    numberOfImages = 2,
    aspectRatio = ImagenAspectRatio.LANDSCAPE_16x9,
    imageFormat = ImagenImageFormat.jpeg(compressionQuality = 100),
    addWatermark = false
}

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `GenerativeModel` instance
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()).imagenModel(
    modelName = "IMAGEN_MODEL_NAME",
    generationConfig = config
)

// ...

Java

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig fest, wenn Sie eine ImagenModel-Instanz erstellen.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
ImagenGenerationConfig config = new ImagenGenerationConfig.Builder()
    .setNegativePrompt("frogs")
    .setNumberOfImages(2)
    .setAspectRatio(ImagenAspectRatio.LANDSCAPE_16x9)
    .setImageFormat(ImagenImageFormat.jpeg(100))
    .setAddWatermark(false)
    .build();

// Specify the config as part of creating the `ImagenModel` instance
ImagenModelFutures model = ImagenModelFutures.from(
        FirebaseAI.getInstance(GenerativeBackend.googleAI())
                .imagenModel(
                    "IMAGEN_MODEL_NAME",
                    config
                );
);

// ...

Web

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig fest, wenn Sie eine ImagenModel-Instanz erstellen.


// ...

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
const generationConfig = {
  negativePrompt: "frogs",
  numberOfImages: 2,
  aspectRatio: ImagenAspectRatio.LANDSCAPE_16x9,
  imageFormat: ImagenImageFormat.jpeg(100),
  addWatermark: false
};

// Specify the config as part of creating the `ImagenModel` instance
const model = getImagenModel(ai, { model: "IMAGEN_MODEL_NAME", generationConfig });

// ...

Dart

Legen Sie die Werte der Parameter in einem ImagenGenerationConfig fest, wenn Sie eine ImagenModel-Instanz erstellen.


// ...

// Set parameter values in a `ImagenGenerationConfig` (example values shown here)
final generationConfig = ImagenGenerationConfig(
  negativePrompt: 'frogs',
  numberOfImages: 2,
  aspectRatio: ImagenAspectRatio.landscape16x9,
  imageFormat: ImagenImageFormat.jpeg(compressionQuality: 100)
  addWatermark: false
);

// Initialize the Gemini Developer API backend service
// Specify the config as part of creating the `ImagenModel` instance
final model = FirebaseAI.googleAI().imagenModel(
  model: 'IMAGEN_MODEL_NAME',
  config: generationConfig,
);

// ...

Einheit

Die Verwendung von Imagen wird für Unity noch nicht unterstützt. Schau aber bald noch einmal vorbei.

Eine Beschreibung der einzelnen Parameter finden Sie im nächsten Abschnitt dieser Seite.

Beschreibung der Parameter (Imagen)

Hier finden Sie eine allgemeine Übersicht über die verfügbaren Parameter. Eine umfassende Liste der Parameter und ihrer Werte finden Sie in der Google Cloud-Dokumentation.

Parameter Beschreibung Standardwert
Negativ-Prompt
negativePrompt
Eine Beschreibung dessen, was Sie in generierten Bildern auslassen möchten

Dieser Parameter wird von imagen-3.0-generate-002 noch nicht unterstützt.

---
Anzahl der Ergebnisse
numberOfImages
Die Anzahl der generierten Bilder, die pro Anfrage zurückgegeben werden Standard ist ein Bild für Imagen 3-Modelle
Seitenverhältnis
aspectRatio
Das Verhältnis zwischen Breite und Höhe der generierten Bilder Standard ist quadratisch (1:1).
Bildformat
imageFormat
Die Ausgabeoptionen, z. B. das Bildformat (MIME-Typ) und die Komprimierungsstufe der generierten Bilder Standard-MIME-Typ ist PNG
Standardkomprimierung ist 75 (wenn der MIME-Typ auf JPEG festgelegt ist)
Wasserzeichen
addWatermark
Ob generierten Bildern ein unsichtbares digitales Wasserzeichen (SynthID) hinzugefügt werden soll Standardwert ist true für Imagen 3-Modelle
Personengenerierung
personGeneration
Ob die Generierung von Personen durch das Modell zulässig ist Standardeinstellung hängt vom Modell ab



Weitere Optionen zur Steuerung der Inhaltsgenerierung

  • Weitere Informationen zum Design von Prompts, damit Sie das Modell beeinflussen können, um eine Ausgabe zu generieren, die Ihren Anforderungen entspricht.
  • Mit den Sicherheitseinstellungen können Sie die Wahrscheinlichkeit anpassen, dass Sie Antworten erhalten, die als schädlich eingestuft werden könnten, einschließlich Hassrede und sexuell expliziter Inhalte.
  • Legen Sie Systemanweisungen fest, um das Verhalten des Modells zu steuern. Diese Funktion ist wie eine Präambel, die Sie hinzufügen, bevor das Modell für weitere Anweisungen des Endnutzers freigegeben wird.
  • Geben Sie ein Antwortschema zusammen mit dem Prompt an, um ein bestimmtes Ausgabeschema anzugeben. Diese Funktion wird am häufigsten beim Generieren von JSON-Ausgabe verwendet, kann aber auch für Klassifizierungsaufgaben verwendet werden, z. B. wenn das Modell bestimmte Labels oder Tags verwenden soll.