Vous pouvez demander à un modèle Gemini d'analyser les fichiers vidéo que vous fournissez en ligne (encodés en base64) ou via une URL. Lorsque vous utilisez Firebase AI Logic, vous pouvez effectuer cette requête directement depuis votre application.
Grâce à cette fonctionnalité, vous pouvez par exemple:
- Créer des sous-titres et répondre à des questions sur des vidéos
- Analyser des segments spécifiques d'une vidéo à l'aide de codes temporels
- Transcrire le contenu vidéo en traitant à la fois la piste audio et les images
- Décrire, segmenter et extraire des informations à partir de vidéos, y compris de la piste audio et des images
Accéder aux exemples de code Accéder au code pour les réponses en flux
Consultez d'autres guides pour découvrir d'autres options de travail avec la vidéo Générer une sortie structurée Chat multi-tours |
Avant de commencer
Cliquez sur votre fournisseur Gemini API pour afficher le contenu et le code spécifiques à ce fournisseur sur cette page. |
Si ce n'est pas déjà fait, consultez le guide de démarrage, qui explique comment configurer votre projet Firebase, connecter votre application à Firebase, ajouter le SDK, initialiser le service backend pour le fournisseur Gemini API de votre choix et créer une instance GenerativeModel
.
Pour tester et itérer vos requêtes, et même obtenir un extrait de code généré, nous vous recommandons d'utiliser Google AI Studio.
Générer du texte à partir de fichiers vidéo (encodés en base64)
Avant d'essayer cet exemple, consultez la section Avant de commencer de ce guide pour configurer votre projet et votre application. Dans cette section, vous devrez également cliquer sur un bouton pour le fournisseurGemini API de votre choix afin d'afficher le contenu spécifique à ce fournisseur sur cette page. |
Vous pouvez demander à un modèle Gemini de générer du texte à l'aide de requêtes contenant du texte et de la vidéo, en fournissant le mimeType
de chaque fichier d'entrée et le fichier lui-même. Vous trouverez plus loin sur cette page les exigences et recommandations concernant les fichiers d'entrée.
Swift
Vous pouvez appeler generateContent()
pour générer du texte à partir d'une entrée multimodale de fichiers texte et vidéo.
import FirebaseAI
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-2.0-flash")
// Provide the video as `Data` with the appropriate MIME type.
let video = InlineDataPart(data: try Data(contentsOf: videoURL), mimeType: "video/mp4")
// Provide a text prompt to include with the video
let prompt = "What is in the video?"
// To generate text output, call generateContent with the text and video
let response = try await model.generateContent(video, prompt)
print(response.text ?? "No text in response.")
Kotlin
Vous pouvez appeler generateContent()
pour générer du texte à partir d'une entrée multimodale de fichiers texte et vidéo.
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val contentResolver = applicationContext.contentResolver
contentResolver.openInputStream(videoUri).use { stream ->
stream?.let {
val bytes = stream.readBytes()
// Provide a prompt that includes the video specified above and text
val prompt = content {
inlineData(bytes, "video/mp4")
text("What is in the video?")
}
// To generate text output, call generateContent with the prompt
val response = generativeModel.generateContent(prompt)
Log.d(TAG, response.text ?: "")
}
}
Java
Vous pouvez appeler generateContent()
pour générer du texte à partir d'une entrée multimodale de fichiers texte et vidéo.
ListenableFuture
.
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
ContentResolver resolver = getApplicationContext().getContentResolver();
try (InputStream stream = resolver.openInputStream(videoUri)) {
File videoFile = new File(new URI(videoUri.toString()));
int videoSize = (int) videoFile.length();
byte[] videoBytes = new byte[videoSize];
if (stream != null) {
stream.read(videoBytes, 0, videoBytes.length);
stream.close();
// Provide a prompt that includes the video specified above and text
Content prompt = new Content.Builder()
.addInlineData(videoBytes, "video/mp4")
.addText("What is in the video?")
.build();
// To generate text output, call generateContent with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
}
} catch (IOException e) {
e.printStackTrace();
} catch (URISyntaxException e) {
e.printStackTrace();
}
Web
Vous pouvez appeler generateContent()
pour générer du texte à partir d'une entrée multimodale de fichiers texte et vidéo.
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-2.0-flash" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the video
const prompt = "What do you see?";
const fileInputEl = document.querySelector("input[type=file]");
const videoPart = await fileToGenerativePart(fileInputEl.files[0]);
// To generate text output, call generateContent with the text and video
const result = await model.generateContent([prompt, videoPart]);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Dart
Vous pouvez appeler generateContent()
pour générer du texte à partir d'une entrée multimodale de fichiers texte et vidéo.
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-2.0-flash');
// Provide a text prompt to include with the video
final prompt = TextPart("What's in the video?");
// Prepare video for input
final video = await File('video0.mp4').readAsBytes();
// Provide the video as `Data` with the appropriate mimetype
final videoPart = InlineDataPart('video/mp4', video);
// To generate text output, call generateContent with the text and images
final response = await model.generateContent([
Content.multi([prompt, ...videoPart])
]);
print(response.text);
Unity
Vous pouvez appeler GenerateContentAsync()
pour générer du texte à partir d'une entrée multimodale de fichiers texte et vidéo.
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-2.0-flash");
// Provide the video as `data` with the appropriate MIME type.
var video = ModelContent.InlineData("video/mp4",
System.IO.File.ReadAllBytes(System.IO.Path.Combine(
UnityEngine.Application.streamingAssetsPath, "yourVideo.mp4")));
// Provide a text prompt to include with the video
var prompt = ModelContent.Text("What is in the video?");
// To generate text output, call GenerateContentAsync with the text and video
var response = await model.GenerateContentAsync(new [] { video, prompt });
UnityEngine.Debug.Log(response.Text ?? "No text in response.");
Découvrez comment choisir un modèle adapté à votre cas d'utilisation et à votre application.
Afficher la réponse de manière progressive
Avant d'essayer cet exemple, consultez la section Avant de commencer de ce guide pour configurer votre projet et votre application. Dans cette section, vous devrez également cliquer sur un bouton pour le fournisseurGemini API de votre choix afin d'afficher le contenu spécifique à ce fournisseur sur cette page. |
Vous pouvez accélérer les interactions en n'attendant pas le résultat complet de la génération du modèle, et en utilisant plutôt le streaming pour gérer les résultats partiels.
Pour diffuser la réponse, appelez generateContentStream
.
Exigences et recommandations concernant les fichiers vidéo d'entrée
Notez qu'un fichier fourni en tant que données intégrées est encodé en base64 en transit, ce qui augmente la taille de la requête. Vous recevez une erreur HTTP 413 si une requête est trop volumineuse.
Consultez la section "Fichiers d'entrée compatibles et exigences pour Vertex AI Gemini API" pour en savoir plus sur les éléments suivants:
- Différentes options pour fournir un fichier dans une requête (en ligne ou à l'aide de l'URL ou de l'URI du fichier)
- Exigences et bonnes pratiques concernant les fichiers vidéo
Types MIME vidéo compatibles
Les modèles multimodaux Gemini sont compatibles avec les types vidéo MIME suivants:
Type vidéo MIME | Gemini 2.0 Flash | Gemini 2.0 Flash‑Lite |
---|---|---|
FLV - video/x-flv |
||
MOV - video/quicktime |
||
MPEG - video/mpeg |
||
MPEGPS - video/mpegps |
||
MPG - video/mpg |
||
MP4 - video/mp4 |
||
WEBM - video/webm |
||
WMV - video/wmv |
||
3GPP - video/3gpp |
Limites par requête
Voici le nombre maximal de fichiers vidéo autorisé dans une requête :
- Gemini 2.0 Flash et Gemini 2.0 Flash‑Lite: 10 fichiers vidéo
Qu'est-ce que tu sais faire d'autre ?
- Découvrez comment compter les jetons avant d'envoyer des requêtes longues au modèle.
- Configurez Cloud Storage for Firebase pour pouvoir inclure de gros fichiers dans vos requêtes multimodales et disposer d'une solution plus gérée pour fournir des fichiers dans les requêtes. Il peut s'agir d'images, de PDF, de vidéos et de fichiers audio.
-
Commencez à penser à la préparation de la production (voir la checklist de production), y compris :
- Configurer Firebase App Check pour protéger Gemini API contre toute utilisation abusive par des clients non autorisés.
- Intégration de Firebase Remote Config pour mettre à jour les valeurs de votre application (comme le nom du modèle) sans publier de nouvelle version de l'application.
Essayer d'autres fonctionnalités
- Créez des conversations multitours (chat).
- Générez du texte à partir de requêtes textuelles uniquement.
- Générez une sortie structurée (comme JSON) à partir d'invites textuelles et multimodales.
- Générez des images à partir de requêtes textuelles.
- Utilisez l'appel de fonction pour connecter des modèles génératifs à des systèmes et des informations externes.
Découvrez comment contrôler la génération de contenu.
- Comprendre la conception des requêtes, y compris les bonnes pratiques, les stratégies et les exemples de requêtes.
- Configurez les paramètres du modèle, comme la température et le nombre maximal de jetons de sortie (pour Gemini) ou le format et la génération de personnes (pour Imagen).
- Utilisez les paramètres de sécurité pour ajuster la probabilité d'obtenir des réponses pouvant être considérées comme nuisibles.
En savoir plus sur les modèles compatibles
Découvrez les modèles disponibles pour différents cas d'utilisation, ainsi que leurs quotas et leurs tarifs.Envoyer des commentaires sur votre expérience avec Firebase AI Logic