Firebase AI Logic का इस्तेमाल करके, एआई की मदद से काम करने वाले वेब ऐप्लिकेशन और सुविधाएं बनाएं. इसके लिए, हाइब्रिड इन्फ़्रेंस का इस्तेमाल करें. हाइब्रिड इन्फ़्रेंस की मदद से, डिवाइस पर मौजूद मॉडल का इस्तेमाल करके इन्फ़्रेंस चलाया जा सकता है. अगर डिवाइस पर मॉडल उपलब्ध नहीं है, तो क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल किया जा सकता है. इसके उलट भी किया जा सकता है.
इस पेज पर, क्लाइंट एसडीके का इस्तेमाल शुरू करने का तरीका बताया गया है. साथ ही, इसमें कॉन्फ़िगरेशन के अतिरिक्त विकल्प और सुविधाएं भी दिखाई गई हैं. जैसे, स्ट्रक्चर्ड आउटपुट.
ध्यान दें कि डिवाइस पर मौजूद डेटा का इस्तेमाल करके अनुमान लगाने की सुविधा, डेस्कटॉप पर Chrome पर चलने वाले वेब ऐप्लिकेशन के लिए उपलब्ध है.
इस्तेमाल के सुझाए गए उदाहरण और उपलब्ध सुविधाएं
इस्तेमाल के सुझाए गए उदाहरण:
अनुमान लगाने के लिए, डिवाइस पर मौजूद मॉडल का इस्तेमाल करने से ये फ़ायदे मिलते हैं:
- निजता को बेहतर तरीके से सुरक्षित रखने की सुविधा
- लोकल कॉन्टेक्स्ट
- बिना किसी शुल्क के अनुमान लगाना
- ऑफ़लाइन मोड में काम करने की सुविधा
हाइब्रिड फ़ंक्शन की सुविधा देने वाले ऑफ़र का इस्तेमाल करके:
- डिवाइस मॉडल की उपलब्धता या इंटरनेट कनेक्शन की परवाह किए बिना, अपनी 100% ऑडियंस तक पहुंचें
डिवाइस पर मौजूद डेटा का इस्तेमाल करके अनुमान लगाने की सुविधा के लिए, ये सुविधाएँ और क्षमताएँ उपलब्ध हैं:
- एक बार में कॉन्टेंट जनरेट करना, स्ट्रीमिंग और नॉन-स्ट्रीमिंग
- सिर्फ़ टेक्स्ट वाले इनपुट से टेक्स्ट जनरेट करना
- टेक्स्ट और इमेज के इनपुट से टेक्स्ट जनरेट करना. खास तौर पर, JPEG और PNG फ़ॉर्मैट वाली इमेज के इनपुट से टेक्स्ट जनरेट करना
- JSON और enum के साथ-साथ स्ट्रक्चर्ड आउटपुट जनरेट करना
शुरू करने से पहले
इन बातों का ध्यान रखें:
डिवाइस पर मौजूद मॉडल का इस्तेमाल करके अनुमान लगाने के लिए, Chrome के प्रॉम्प्ट एपीआई का इस्तेमाल किया जाता है. वहीं, क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल करके अनुमान लगाने के लिए, आपकी चुनी गई Gemini API सेवा देने वाली कंपनी (Gemini Developer API या Vertex AI Gemini API) का इस्तेमाल किया जाता है.
इस पेज पर, लोकल होस्ट का इस्तेमाल करके डेवलपमेंट शुरू करने का तरीका बताया गया है. Chrome के दस्तावेज़ में, लोकल होस्ट पर एपीआई इस्तेमाल करने के बारे में ज़्यादा जानें. इसके अलावा, इस पेज पर नीचे दिए गए कॉन्फ़िगरेशन के अन्य विकल्प और सुविधाएं (जैसे, स्ट्रक्चर्ड आउटपुट) देखें.
सुविधा लागू करने के बाद, अपने ऐप्लिकेशन में एंड-यूज़र को सुविधा आज़माने की अनुमति दें.
लोकलहोस्ट पर इस्तेमाल करना
'शुरू करें' सेक्शन में दिए गए इन चरणों में, किसी भी ऐसे प्रॉम्प्ट अनुरोध के लिए ज़रूरी सामान्य सेटअप के बारे में बताया गया है जिसे आपको भेजना है.
पहला चरण: डिवाइस पर मौजूद एआई की मदद से अनुमान लगाने के लिए, Chrome और Prompt API सेट अप करना
पक्का करें कि Chrome के नए वर्शन का इस्तेमाल किया जा रहा हो. chrome://settings/help पर जाकर अपडेट करें.
डिवाइस पर मौजूद डेटा का इस्तेमाल करके अनुमान लगाने की सुविधा, Chrome के v139 और इसके बाद के वर्शन में उपलब्ध है.डिवाइस पर मल्टीमॉडल मॉडल को चालू करने के लिए, इस फ़्लैग को चालू है पर सेट करें:
chrome://flags/#prompt-api-for-gemini-nano-multimodal-input
Chrome को रीस्टार्ट करें.
(ज़रूरी नहीं) पहले अनुरोध से पहले, डिवाइस पर मौजूद मॉडल को डाउनलोड करें.
Prompt API, Chrome में पहले से मौजूद होता है. हालांकि, डिवाइस पर मौजूद मॉडल डिफ़ॉल्ट रूप से उपलब्ध नहीं होता. अगर आपने डिवाइस पर अनुमान लगाने के लिए पहली बार अनुरोध करने से पहले मॉडल डाउनलोड नहीं किया है, तो अनुरोध करने पर मॉडल अपने-आप बैकग्राउंड में डाउनलोड होना शुरू हो जाएगा.
दूसरा चरण: Firebase प्रोजेक्ट सेट अप करना और अपने ऐप्लिकेशन को Firebase से कनेक्ट करना
Firebase कंसोल में साइन इन करें. इसके बाद, अपना Firebase प्रोजेक्ट चुनें.
Firebase कंसोल में, Firebase AI Logic पेज पर जाएं.
शुरू करें पर क्लिक करके, निर्देशों के साथ वर्कफ़्लो लॉन्च करें. इससे आपको अपने प्रोजेक्ट के लिए ज़रूरी एपीआई और संसाधन सेट अप करने में मदद मिलेगी.
"Gemini API" सेवा देने वाली कंपनी का इस्तेमाल करने के लिए, अपना प्रोजेक्ट सेट अप करें.
हमारा सुझाव है कि आप Gemini Developer API का इस्तेमाल शुरू करें. आपके पास किसी भी समय Vertex AI Gemini API सेट अप करने का विकल्प होता है. साथ ही, बिलिंग से जुड़ी ज़रूरी शर्तें भी पूरी की जा सकती हैं.
Gemini Developer API के लिए, कंसोल ज़रूरी एपीआई चालू करेगा और आपके प्रोजेक्ट में Gemini एपीआई पासकोड बनाएगा.
इस Gemini एपीआई कुंजी को अपने ऐप्लिकेशन के कोडबेस में न जोड़ें. ज़्यादा जानें.अगर कंसोल के वर्कफ़्लो में आपसे कहा जाता है, तो स्क्रीन पर दिए गए निर्देशों का पालन करके, अपने ऐप्लिकेशन को रजिस्टर करें और उसे Firebase से कनेक्ट करें.
अपने ऐप्लिकेशन में एसडीके टूल जोड़ने के लिए, इस गाइड में दिए गए अगले चरण पर जाएं.
तीसरा चरण: एसडीके जोड़ना
Firebase लाइब्रेरी, जनरेटिव मॉडल के साथ इंटरैक्ट करने के लिए एपीआई का ऐक्सेस देती है. यह लाइब्रेरी, वेब के लिए Firebase JavaScript SDK का हिस्सा है.
npm का इस्तेमाल करके, वेब के लिए Firebase JS SDK टूल इंस्टॉल करें:
npm install firebaseअपने ऐप्लिकेशन में Firebase को शुरू करें:
import { initializeApp } from "firebase/app"; // TODO(developer) Replace the following with your app's Firebase configuration // See: https://firebase.google.com/docs/web/learn-more#config-object const firebaseConfig = { // ... }; // Initialize FirebaseApp const firebaseApp = initializeApp(firebaseConfig);
चौथा चरण: सेवा को शुरू करना और मॉडल इंस्टेंस बनाना
|
इस पेज पर, Gemini API उपलब्ध कराने वाली कंपनी के हिसाब से कॉन्टेंट और कोड देखने के लिए, उस कंपनी पर क्लिक करें. |
मॉडल को प्रॉम्प्ट का अनुरोध भेजने से पहले, इन्हें सेट अप करें.
एपीआई की सेवा देने वाली कंपनी के लिए, सेवा शुरू करें.
GenerativeModelइंस्टेंस बनाएं. पक्का करें कि आपने ये काम किए हों:getGenerativeModelएंड-यूज़र के इंटरैक्शन के बाद या उस दौरान कॉल करें. जैसे, बटन पर क्लिक करना.inferenceModeके लिए यह ज़रूरी है.modeएट्रिब्यूट की वैल्यू इनमें से किसी एक पर सेट करें:PREFER_ON_DEVICE: अगर डिवाइस पर मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो क्लाउड पर होस्ट किए गए मॉडल पर वापस जाएं.ONLY_ON_DEVICE: अगर डिवाइस पर मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो अपवाद दिखाएं.PREFER_IN_CLOUD: अगर क्लाउड पर होस्ट किया गया मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो डिवाइस पर मौजूद मॉडल का इस्तेमाल करें.ONLY_IN_CLOUD: अगर क्लाउड पर होस्ट किया गया मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो अपवाद दिखाएं.
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend, InferenceMode } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance
// Call `getGenerativeModel` after or on an end-user interaction
// Set the mode (for example, use the on-device model if it's available)
const model = getGenerativeModel(ai, { mode: InferenceMode.PREFER_ON_DEVICE });
पांचवां चरण: किसी मॉडल को प्रॉम्प्ट का अनुरोध भेजना
इस सेक्शन में बताया गया है कि अलग-अलग तरह के आउटपुट जनरेट करने के लिए, अलग-अलग तरह के इनपुट कैसे भेजे जा सकते हैं. इनमें ये शामिल हैं:
- सिर्फ़ टेक्स्ट वाले इनपुट से टेक्स्ट जनरेट करना
- टेक्स्ट और इमेज (टेक्स्ट, इमेज, और वीडियो वगैरह का इस्तेमाल करके) वाले इनपुट से टेक्स्ट जनरेट करना
अगर आपको स्ट्रक्चर्ड आउटपुट (जैसे कि JSON या enum) जनरेट करना है, तो "टेक्स्ट जनरेट करें" के इन उदाहरणों में से किसी एक का इस्तेमाल करें. इसके अलावा, मॉडल को दिए गए स्कीमा के हिसाब से जवाब देने के लिए कॉन्फ़िगर करें.
सिर्फ़ टेक्स्ट वाले इनपुट से टेक्स्ट जनरेट करना
| इस सैंपल को आज़माने से पहले, पक्का करें कि आपने इस गाइड का शुरू करें सेक्शन पूरा कर लिया हो. |
टेक्स्ट वाले प्रॉम्प्ट से टेक्स्ट जनरेट करने के लिए, generateContent() का इस्तेमाल किया जा सकता है:
// Imports + initialization of FirebaseApp and backend service + creation of model instance
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call `generateContent` with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
ध्यान दें कि Firebase AI Logic, generateContentStream का इस्तेमाल करके टेक्स्ट वाले जवाबों की स्ट्रीमिंग को भी सपोर्ट करता है. इसके लिए, generateContent के बजाय generateContentStream का इस्तेमाल किया जाता है.
टेक्स्ट और इमेज (टेक्स्ट, इमेज, और वीडियो वगैरह का इस्तेमाल करके) वाले इनपुट से टेक्स्ट जनरेट करना
| इस सैंपल को आज़माने से पहले, पक्का करें कि आपने इस गाइड का शुरू करें सेक्शन पूरा कर लिया हो. |
generateContent() का इस्तेमाल करके, टेक्स्ट और इमेज फ़ाइलों वाले प्रॉम्प्ट से टेक्स्ट जनरेट किया जा सकता है. इसके लिए, हर इनपुट फ़ाइल का mimeType और फ़ाइल खुद दें.
डिवाइस पर मौजूद एआई की मदद से अनुमान लगाने की सुविधा के लिए, इनपुट इमेज के तौर पर PNG और JPEG फ़ाइल टाइप का इस्तेमाल किया जा सकता है.
// Imports + initialization of FirebaseApp and backend service + creation of model instance
// Converts a File object to a Part object.
async function fileToGenerativePart(file) {
const base64EncodedDataPromise = new Promise((resolve) => {
const reader = new FileReader();
reader.onloadend = () => resolve(reader.result.split(',')[1]);
reader.readAsDataURL(file);
});
return {
inlineData: { data: await base64EncodedDataPromise, mimeType: file.type },
};
}
async function run() {
// Provide a text prompt to include with the image
const prompt = "Write a poem about this picture:";
const fileInputEl = document.querySelector("input[type=file]");
const imagePart = await fileToGenerativePart(fileInputEl.files[0]);
// To generate text output, call `generateContent` with the text and image
const result = await model.generateContent([prompt, imagePart]);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
ध्यान दें कि Firebase AI Logic, generateContentStream का इस्तेमाल करके टेक्स्ट वाले जवाबों की स्ट्रीमिंग को भी सपोर्ट करता है. इसके लिए, generateContent के बजाय generateContentStream का इस्तेमाल किया जाता है.
असली उपयोगकर्ताओं को आपकी सुविधा आज़माने की अनुमति देना
अगर आपको अपने ऐप्लिकेशन में, उपयोगकर्ताओं को यह सुविधा आज़माने का मौका देना है, तो आपको Chrome के ऑरिजिन ट्रायल में रजिस्टर करना होगा. ध्यान दें कि इन सुविधाओं को मुफ़्त में आज़माने की सुविधा, सीमित समय के लिए उपलब्ध होती है. साथ ही, इनका इस्तेमाल भी सीमित मामलों में किया जा सकता है.
Prompt API Chrome के ऑरिजिन ट्रायल के लिए रजिस्टर करें. आपको एक टोकन दिया जाएगा.
हर उस वेब पेज पर टोकन दें जिसके लिए आपको बिना किसी शुल्क के आज़माने की सुविधा चालू करनी है. इनमें से किसी एक विकल्प का इस्तेमाल करें:
<head>टैग में मेटा टैग के तौर पर टोकन दें:<meta http-equiv="origin-trial" content="TOKEN">टोकन को एचटीटीपी हेडर के तौर पर उपलब्ध कराएं:
Origin-Trial: TOKENटोकन को प्रोग्राम के हिसाब से उपलब्ध कराएं.
तुम और क्या कर सकती हो?
इस सेक्शन में, यह जानें कि इन्फ़रेंस मोड कैसे सेट करें, क्लाउड पर होस्ट किए गए फ़ॉलबैक मॉडल को कैसे बदलें, और जवाबों को कंट्रोल करने के लिए मॉडल कॉन्फ़िगरेशन का इस्तेमाल कैसे करें. जैसे, स्ट्रक्चर्ड आउटपुट जनरेट करना.
अनुमान लगाने का मोड सेट करना
सामान्य सेटअप के उदाहरणों में PREFER_ON_DEVICE मोड का इस्तेमाल किया गया है. हालांकि, यह उपलब्ध चार इन्फ़रेंस मोड में से सिर्फ़ एक है.
PREFER_ON_DEVICE: अगर डिवाइस पर मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो क्लाउड पर होस्ट किए गए मॉडल पर वापस जाएं.const model = getGenerativeModel(ai, { mode: InferenceMode.PREFER_ON_DEVICE });ONLY_ON_DEVICE: अगर डिवाइस पर मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो अपवाद दिखाएं.const model = getGenerativeModel(ai, { mode: InferenceMode.ONLY_ON_DEVICE });PREFER_IN_CLOUD: अगर क्लाउड पर होस्ट किया गया मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो डिवाइस पर मौजूद मॉडल का इस्तेमाल करें.const model = getGenerativeModel(ai, { mode: InferenceMode.PREFER_IN_CLOUD });ONLY_IN_CLOUD: अगर क्लाउड पर होस्ट किया गया मॉडल उपलब्ध है, तो उसका इस्तेमाल करें. अगर ऐसा नहीं है, तो अपवाद दिखाएं.const model = getGenerativeModel(ai, { mode: InferenceMode.ONLY_IN_CLOUD });
यह पता लगाना कि डिवाइस पर या क्लाउड में अनुमान लगाने की सुविधा का इस्तेमाल किया गया था या नहीं
अगर आपने PREFER_ON_DEVICE या PREFER_IN_CLOUD इन्फ़रेंस मोड का इस्तेमाल किया है, तो यह जानना आपके लिए मददगार हो सकता है कि दिए गए अनुरोधों के लिए किस मोड का इस्तेमाल किया गया था. यह जानकारी, हर रिस्पॉन्स की inferenceSource प्रॉपर्टी से मिलती है. यह JS SDK v12.5.0 और उसके बाद के वर्शन में उपलब्ध है.
इस प्रॉपर्टी को ऐक्सेस करने पर, दिखाई गई वैल्यू ON_DEVICE या IN_CLOUD होगी.
// ...
console.log('You used: ' + result.response.inferenceSource);
console.log(result.response.text());
डिफ़ॉल्ट फ़ॉलबैक मॉडल को बदलना
क्लाउड पर होस्ट किया गया डिफ़ॉल्ट मॉडल, gemini-2.5-flash-lite
PREFER_ON_DEVICE मोड का इस्तेमाल करने पर, यह मॉडल फ़ॉलबैक क्लाउड-होस्ट किया गया मॉडल होता है. ONLY_IN_CLOUD मोड या PREFER_IN_CLOUD मोड का इस्तेमाल करने पर, यह डिफ़ॉल्ट मॉडल भी होता है.
डिफ़ॉल्ट रूप से क्लाउड पर होस्ट किए गए किसी दूसरे मॉडल को सेट करने के लिए, inCloudParams कॉन्फ़िगरेशन विकल्प का इस्तेमाल किया जा सकता है.
const model = getGenerativeModel(ai, {
mode: InferenceMode.INFERENCE_MODE,
inCloudParams: {
model: "GEMINI_MODEL_NAME"
}
});
Gemini के साथ काम करने वाले सभी मॉडल के नाम देखें.
जवाबों को कंट्रोल करने के लिए, मॉडल कॉन्फ़िगरेशन का इस्तेमाल करना
मॉडल को किए गए हर अनुरोध में, मॉडल कॉन्फ़िगरेशन भेजा जा सकता है. इससे यह कंट्रोल किया जा सकता है कि मॉडल जवाब कैसे जनरेट करे. क्लाउड पर होस्ट किए गए मॉडल और डिवाइस पर मौजूद मॉडल में, कॉन्फ़िगरेशन के अलग-अलग विकल्प मिलते हैं.
कॉन्फ़िगरेशन को इंस्टेंस के पूरे जीवनकाल के लिए बनाए रखा जाता है. अगर आपको किसी दूसरे कॉन्फ़िगरेशन का इस्तेमाल करना है, तो उस कॉन्फ़िगरेशन के साथ एक नया GenerativeModel इंस्टेंस बनाएं.
क्लाउड पर होस्ट किए गए मॉडल के लिए कॉन्फ़िगरेशन सेट करना
क्लाउड पर होस्ट किए गए Gemini मॉडल को कॉन्फ़िगर करने के लिए, inCloudParams विकल्प का इस्तेमाल करें. उपलब्ध पैरामीटर के बारे में जानें.
const model = getGenerativeModel(ai, {
mode: InferenceMode.INFERENCE_MODE,
inCloudParams: {
model: "GEMINI_MODEL_NAME"
temperature: 0.8,
topK: 10
}
});
डिवाइस पर मौजूद मॉडल के लिए कॉन्फ़िगरेशन सेट करना
ध्यान दें कि डिवाइस पर मौजूद मॉडल का इस्तेमाल करके अनुमान लगाने के लिए, Chrome के Prompt API का इस्तेमाल किया जाता है.
डिवाइस पर मौजूद मॉडल को कॉन्फ़िगर करने के लिए, onDeviceParams विकल्प का इस्तेमाल करें. उपलब्ध पैरामीटर के बारे में जानें.
const model = getGenerativeModel(ai, {
mode: InferenceMode.INFERENCE_MODE,
onDeviceParams: {
createOptions: {
temperature: 0.8,
topK: 8
}
}
});
स्ट्रक्चर्ड आउटपुट (जैसे, JSON) के लिए कॉन्फ़िगरेशन सेट करना
स्ट्रक्चर्ड आउटपुट (जैसे, JSON और enum) जनरेट करने की सुविधा, क्लाउड पर होस्ट किए गए और डिवाइस पर मौजूद, दोनों तरह के मॉडल के साथ काम करती है.
हाइब्रिड इन्फ़्रेंस के लिए, inCloudParams और onDeviceParams, दोनों का इस्तेमाल करें. इससे मॉडल को स्ट्रक्चर्ड आउटपुट के साथ जवाब देने के लिए कॉन्फ़िगर किया जा सकेगा. अन्य मोड के लिए, सिर्फ़ लागू होने वाले कॉन्फ़िगरेशन का इस्तेमाल करें.
inCloudParamsके लिए: सहीresponseMimeType(इस उदाहरण में,application/json) के साथ-साथ वहresponseSchemaभी बताएं जिसका इस्तेमाल मॉडल को करना है.onDeviceParamsके लिए: वहresponseConstraintतय करें जिसका इस्तेमाल मॉडल को करना है.
JSON आउटपुट
हाइब्रिड इन्फ़रेंस के लिए, यहां दिए गए उदाहरण में सामान्य JSON आउटपुट के उदाहरण को अडैप्ट किया गया है:
import {
getAI,
getGenerativeModel,
Schema
} from "firebase/ai";
const jsonSchema = Schema.object({
properties: {
characters: Schema.array({
items: Schema.object({
properties: {
name: Schema.string(),
accessory: Schema.string(),
age: Schema.number(),
species: Schema.string(),
},
optionalProperties: ["accessory"],
}),
}),
}
});
const model = getGenerativeModel(ai, {
mode: InferenceMode.INFERENCE_MODE,
inCloudParams: {
model: "gemini-2.5-flash"
generationConfig: {
responseMimeType: "application/json",
responseSchema: jsonSchema
},
}
onDeviceParams: {
promptOptions: {
responseConstraint: jsonSchema
}
}
});
Enum आउटपुट
ऊपर दिए गए उदाहरण की तरह ही, लेकिन हाइब्रिड इन्फ़रेंस के लिए एनम आउटपुट के बारे में दस्तावेज़ को अडैप्ट करके:
// ...
const enumSchema = Schema.enumString({
enum: ["drama", "comedy", "documentary"],
});
const model = getGenerativeModel(ai, {
// ...
generationConfig: {
responseMimeType: "text/x.enum",
responseSchema: enumSchema
},
// ...
});
// ...
डिवाइस पर मौजूद डेटा के आधार पर अनुमान लगाने की सुविधा के लिए, फ़िलहाल ये सुविधाएं उपलब्ध नहीं हैं
Web SDK को एक्सपेरिमेंट के तौर पर रिलीज़ किया गया है. इसलिए, डिवाइस पर मौजूद डेटा से अनुमान लगाने के लिए, Web SDK की सभी सुविधाएं उपलब्ध नहीं हैं. फ़िलहाल, डिवाइस पर मौजूद डेटा के आधार पर अनुमान लगाने की सुविधा के लिए, ये सुविधाएं उपलब्ध नहीं हैं. हालांकि, ये सुविधाएं आम तौर पर क्लाउड पर मौजूद डेटा के आधार पर अनुमान लगाने की सुविधा के लिए उपलब्ध होती हैं.
JPEG और PNG के अलावा, इमेज फ़ाइल के अन्य इनपुट टाइप से टेक्स्ट जनरेट करना
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
ONLY_ON_DEVICEमोड में गड़बड़ी होगी.
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
ऑडियो, वीडियो, और दस्तावेज़ों (जैसे कि PDF) से टेक्स्ट जनरेट करना
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
ONLY_ON_DEVICEमोड में गड़बड़ी होगी.
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
Gemini या Imagen मॉडल का इस्तेमाल करके इमेज जनरेट करना
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
ONLY_ON_DEVICEमोड में गड़बड़ी होगी.
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
मल्टीमॉडल अनुरोधों में यूआरएल का इस्तेमाल करके फ़ाइलें उपलब्ध कराना. आपको डिवाइस पर मौजूद मॉडल को फ़ाइलें, इनलाइन डेटा के तौर पर देनी होंगी.
एक से ज़्यादा बार की गई बातचीत
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
ONLY_ON_DEVICEमोड में गड़बड़ी होगी.
- क्लाउड पर होस्ट किए गए मॉडल पर फ़ॉलबैक किया जा सकता है;
हालांकि,
Gemini Live API के साथ दोनों तरफ़ से स्ट्रीमिंग की सुविधा
मॉडल को टूल उपलब्ध कराना, ताकि वह जवाब जनरेट कर सके. जैसे, फ़ंक्शन कॉल करना, कोड एक्ज़ीक्यूट करना, यूआरएल का कॉन्टेक्स्ट, और Google Search से जानकारी लेना
टोकन गिनें
- इससे हमेशा गड़बड़ी होती है. क्लाउड पर होस्ट किए गए मॉडल और डिवाइस पर मौजूद मॉडल के बीच गिनती अलग-अलग होगी. इसलिए, कोई भी फ़ॉलबैक उपलब्ध नहीं है.
डिवाइस पर एआई की निगरानी करने के लिए, Firebase कंसोल.
- ध्यान दें कि क्लाउड पर होस्ट किए गए मॉडल का इस्तेमाल करके किए गए किसी भी अनुमान को मॉनिटर किया जा सकता है. ठीक उसी तरह जैसे Firebase AI Logic client SDK for Web का इस्तेमाल करके किए गए अन्य अनुमानों को मॉनिटर किया जाता है.
Firebase AI Logic के साथ अपने अनुभव के बारे में सुझाव/राय दें या शिकायत करें