يمكنك أن تطلب من نموذج Gemini تحليل ملفات الفيديو التي تقدّمها، سواء كانت مضمّنة (بترميز base64) أو من خلال عنوان URL. عند استخدام Firebase AI Logic، يمكنك تقديم هذا الطلب مباشرةً من تطبيقك.
باستخدام هذه الميزة، يمكنك تنفيذ إجراءات، مثل:
- إضافة ترجمة وشرح للفيديوهات والإجابة عن أسئلة بشأنها
- تحليل مقاطع معيّنة من الفيديو باستخدام الطوابع الزمنية
- تحويل محتوى الفيديو إلى نص من خلال معالجة كلّ من المقطع الصوتي والإطارات المرئية
- وصف الفيديوهات وتقسيمها واستخراج المعلومات منها، بما في ذلك المقطع الصوتي والصور
الانتقال إلى عيّنات الرموز البرمجية الانتقال إلى الرمز البرمجي للردود التي يتم بثّها
الاطّلاع على أدلة أخرى للحصول على خيارات إضافية للعمل مع الفيديو إنشاء إخراج منظَّم محادثة متعددة المقاطع |
قبل البدء
انقر على مزوّد Gemini API لعرض المحتوى الخاص بالمزوّد والرمز البرمجي في هذه الصفحة. |
أكمِل قراءة
دليل البدء، الذي يوضّح كيفية
إعداد مشروعك على Firebase وربط تطبيقك بـ Firebase وإضافة حزمة تطوير البرامج (SDK)
وبدء خدمة الخلفية لمزوّد Gemini API الذي اخترته،
وإنشاء مثيل GenerativeModel
، إذا لم يسبق لك إجراء ذلك.
لاختبار طلباتك وتكرارها وحتى الحصول على مقتطف رمز تم إنشاؤه، ننصحك باستخدام Google AI Studio.
إنشاء نص من ملفات الفيديو (مشفَّرة بترميز base64)
قبل تجربة هذا العيّنة، عليك إكمال القسم
قبل البدء من هذا الدليل
لإعداد مشروعك وتطبيقك. في هذا القسم، عليك أيضًا النقر على زر Gemini API مقدّم الخدمة الذي اخترته حتى يظهر لك المحتوى الخاص بالمقدّم في هذه الصفحة. |
يمكنك أن تطلب من نموذج Gemini
إنشاء نص من خلال تقديم نص وفيديو، مع توفيرmimeType
لكل ملف إدخال والملف نفسه. يمكنك الاطّلاع على
المتطلبات والاقتراحات المتعلّقة بملفات الإدخال
لاحقًا في هذه الصفحة.
Swift
يمكنك الاتصال بـ
generateContent()
لإنشاء نص من إدخال متعدد الوسائط لملفات النصوص وملفات الفيديو.
import FirebaseAI
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-2.0-flash")
// Provide the video as `Data` with the appropriate MIME type.
let video = InlineDataPart(data: try Data(contentsOf: videoURL), mimeType: "video/mp4")
// Provide a text prompt to include with the video
let prompt = "What is in the video?"
// To generate text output, call generateContent with the text and video
let response = try await model.generateContent(video, prompt)
print(response.text ?? "No text in response.")
Kotlin
يمكنك الاتصال بـ
generateContent()
لإنشاء نص من إدخال متعدد الوسائط لملفات النصوص وملفات الفيديو.
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val contentResolver = applicationContext.contentResolver
contentResolver.openInputStream(videoUri).use { stream ->
stream?.let {
val bytes = stream.readBytes()
// Provide a prompt that includes the video specified above and text
val prompt = content {
inlineData(bytes, "video/mp4")
text("What is in the video?")
}
// To generate text output, call generateContent with the prompt
val response = generativeModel.generateContent(prompt)
Log.d(TAG, response.text ?: "")
}
}
Java
يمكنك الاتصال بـ
generateContent()
لإنشاء نص من إدخال متعدد الوسائط لملفات النصوص وملفات الفيديو.
ListenableFuture
.
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
ContentResolver resolver = getApplicationContext().getContentResolver();
try (InputStream stream = resolver.openInputStream(videoUri)) {
File videoFile = new File(new URI(videoUri.toString()));
int videoSize = (int) videoFile.length();
byte[] videoBytes = new byte[videoSize];
if (stream != null) {
stream.read(videoBytes, 0, videoBytes.length);
stream.close();
// Provide a prompt that includes the video specified above and text
Content prompt = new Content.Builder()
.addInlineData(videoBytes, "video/mp4")
.addText("What is in the video?")
.build();
// To generate text output, call generateContent with the prompt
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
}
} catch (IOException e) {
e.printStackTrace();
} catch (URISyntaxException e) {
e.printStackTrace();
}
Web
يمكنك الاتصال بـ
generateContent()
لإنشاء نص من إدخال متعدد الوسائط لملفات النصوص وملفات الفيديو.
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-2.0-flash" });
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the video
const prompt = "What do you see?";
const fileInputEl = document.querySelector("input[type=file]");
const videoPart = await fileToGenerativePart(fileInputEl.files[0]);
// To generate text output, call generateContent with the text and video
const result = await model.generateContent([prompt, videoPart]);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Dart
يمكنك الاتصال بـ
generateContent()
لإنشاء نص من إدخال متعدد الوسائط لملفات النصوص وملفات الفيديو.
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-2.0-flash');
// Provide a text prompt to include with the video
final prompt = TextPart("What's in the video?");
// Prepare video for input
final video = await File('video0.mp4').readAsBytes();
// Provide the video as `Data` with the appropriate mimetype
final videoPart = InlineDataPart('video/mp4', video);
// To generate text output, call generateContent with the text and images
final response = await model.generateContent([
Content.multi([prompt, ...videoPart])
]);
print(response.text);
Unity
يمكنك الاتصال بـ
generateContent()
لإنشاء نص من إدخال متعدد الوسائط لملفات النصوص وملفات الفيديو.
using Firebase;
using Firebase.AI;
// Initialize the Gemini Developer API backend service
var ai = FirebaseAI.GetInstance(FirebaseAI.Backend.GoogleAI());
// Create a `GenerativeModel` instance with a model that supports your use case
var model = ai.GetGenerativeModel(modelName: "gemini-2.0-flash");
// Provide the video as `data` with the appropriate MIME type.
var video = ModelContent.InlineData("video/mp4",
System.IO.File.ReadAllBytes(System.IO.Path.Combine(
UnityEngine.Application.streamingAssetsPath, "yourVideo.mp4")));
// Provide a text prompt to include with the video
var prompt = ModelContent.Text("What is in the video?");
// To generate text output, call GenerateContentAsync with the text and video
var response = await model.GenerateContentAsync(new [] { video, prompt });
UnityEngine.Debug.Log(response.Text ?? "No text in response.");
تعرَّف على كيفية اختيار نموذج مناسب لحالة الاستخدام والتطبيق.
عرض الردّ تدريجيًا
قبل تجربة هذا العيّنة، عليك إكمال القسم
قبل البدء من هذا الدليل
لإعداد مشروعك وتطبيقك. في هذا القسم، عليك أيضًا النقر على زر Gemini API مقدّم الخدمة الذي اخترته حتى يظهر لك المحتوى الخاص بالمقدّم في هذه الصفحة. |
يمكنك تحقيق تفاعلات أسرع من خلال عدم انتظار النتيجة الكاملة من
إنشاء النموذج، واستخدام البث بدلاً من ذلك للتعامل مع النتائج الجزئية.
لبث الردّ، اتصل على generateContentStream
.
المتطلبات والاقتراحات المتعلّقة بملفات الفيديوهات التي يتم إدخالها
يُرجى العِلم أنّه يتم ترميز الملف المقدَّم كبيانات مضمّنة بترميز base64 أثناء نقله، ما يؤدي إلى زيادة حجم الطلب. يظهر لك خطأ HTTP 413 إذا كان الطلب كبيرًا جدًا.
اطّلِع على "ملفات الإدخال المتوافقة ومتطلبات Vertex AI Gemini API" للحصول على معلومات تفصيلية عن ما يلي:
- خيارات مختلفة لتقديم ملف في طلب (إما مضمّنًا أو باستخدام عنوان URL أو معرّف الموارد المتّصل للملف)
- المتطلبات وأفضل الممارسات المتعلقة بملفات الفيديو
أنواع MIME المتوافقة للفيديوهات
Gemini تتيح النماذج المتعدّدة الوسائط أنواع MIME التالية للفيديو:
نوع MIME للفيديو | Gemini 2.0 Flash | Gemini 2.0 Flash‑Lite |
---|---|---|
FLV - video/x-flv |
||
MOV - video/quicktime |
||
MPEG - video/mpeg |
||
MPEGPS - video/mpegps |
||
الأميال لكل غالون: video/mpg |
||
MP4 - video/mp4 |
||
WEBM - video/webm |
||
WMV - video/wmv |
||
3GPP - video/3gpp |
الحدود القصوى المسموح بها لكل طلب
في ما يلي الحد الأقصى لعدد ملفات الفيديو المسموح به في طلب فوري:
- Gemini 2.0 Flash وGemini 2.0 Flash‑Lite: 10 ملفات فيديو
ما هي الإجراءات الأخرى التي يمكنك اتّخاذها؟
- تعرَّف على كيفية احتساب الرموز المميّزة قبل إرسال طلبات طويلة إلى النموذج.
- إعداد Cloud Storage for Firebase لكي تتمكّن من تضمين ملفات كبيرة في طلباتك المتعدّدة الوسائط والحصول على حلّ أكثر تنظيمًا لتقديم الملفات في طلباتك يمكن أن تتضمّن الملفات صورًا وملفات PDF وفيديوهات وملفات صوتية.
-
ابدأ التفكير في الاستعداد للإنتاج (اطّلِع على
قائمة التحقّق من الإنتاج)،
بما في ذلك:
- إعداد Firebase App Check بهدف حماية Gemini API من إساءة استخدام العملاء غير المصرّح لهم
- دمج Firebase Remote Config لتعديل القيم في تطبيقك (مثل اسم الطراز) بدون طرح إصدار جديد من التطبيق
تجربة إمكانات أخرى
- إنشاء محادثات متعددة المقاطع (محادثة)
- إنشاء نص من الطلبات النصية فقط
- إنشاء إخراج منظَّم (مثل تنسيق JSON) من كلّ من الطلبات النصية والطلبات باستخدام وسائط متعدّدة
- إنشاء صور من طلبات نصية
- استخدِم استدعاء الدوال لربط النماذج التوليدية بالأنظمة والمعلومات الخارجية.
التعرّف على كيفية التحكّم في إنشاء المحتوى
- التعرّف على تصميم الطلبات، بما في ذلك أفضل الممارسات والاستراتيجيات وأمثلة الطلبات
- ضبط مَعلمات النموذج، مثل درجة الحرارة والحد الأقصى لرموز الإخراج (لميزة Gemini) أو نسبة العرض إلى الارتفاع وإنشاء الأشخاص (لميزة Imagen)
- استخدام إعدادات الأمان لضبط احتمالية تلقّي ردود قد تُعتبر ضارة
مزيد من المعلومات عن الطُرز المتوافقة
اطّلِع على مزيد من المعلومات عن النماذج المتاحة لحالات الاستخدام المختلفة واطلاعك على الحصص و الأسعار.تقديم ملاحظات حول تجربتك مع Firebase AI Logic