एआई की सुविधाओं के इस्तेमाल, शुल्क, और अन्य मेट्रिक पर नज़र रखना, प्रोडक्शन ऐप्लिकेशन चलाने का एक अहम हिस्सा है. आपको यह जानना होगा कि आपके ऐप्लिकेशन के लिए, इस्तेमाल के सामान्य पैटर्न कैसे दिखते हैं. साथ ही, यह पक्का करना होगा कि आपने शुल्क के लिए तय की गई सीमा को पार न किया हो.
इस पेज पर, Firebase कंसोल और Google Cloud कंसोल, दोनों में अपनी लागत, इस्तेमाल, और अन्य मेट्रिक पर नज़र रखने के लिए, सुझाए गए कुछ विकल्पों के बारे में बताया गया है.
लागतों पर नज़र रखना
Firebase कंसोल के इस्तेमाल और बिलिंग डैशबोर्ड में, Vertex AI Gemini API और Gemini Developer API को कॉल करने के लिए अपने प्रोजेक्ट की लागत देखी जा सकती है. ऐसा तब किया जा सकता है, जब आपके पास Blaze की सदस्यता हो.
डैशबोर्ड पर दिखाई गई लागतें, Firebase AI Logic क्लाइंट एसडीके का इस्तेमाल करने वाले कॉल के लिए नहीं ज़रूर होती हैं. दिखाई गई कीमतें, "Gemini API" के किसी भी कॉल से जुड़ी होती हैं. भले ही, वे Firebase AI Logic क्लाइंट SDK टूल, Google GenAI सर्वर SDK टूल, Genkit, Gemini API के लिए Firebase Extensions, REST कॉल, किसी एक AI Studio या अन्य एपीआई क्लाइंट का इस्तेमाल कर रहे हों.
Firebase AI Logic का इस्तेमाल करके दिखाए जाने वाले प्रॉडक्ट की कीमत के बारे में ज़्यादा जानें.
सूचनाएं पाने की सुविधा सेट अप करना
अचानक आने वाले बिल से बचने के लिए, पक्का करें कि आपने ब्लेज़ प्लान का इस्तेमाल करते समय, बजट की सूचनाएं सेट अप की हों.
ध्यान दें कि बजट की चेतावनियां, बजट कैप नहीं हैं. कॉन्फ़िगर किए गए थ्रेशोल्ड के करीब पहुंचने या उससे ज़्यादा ट्रैफ़िक मिलने पर, आपको सूचना भेजी जाएगी, ताकि आप अपने ऐप्लिकेशन या प्रोजेक्ट में कार्रवाई कर सकें.
Firebase console में, एआई की सुविधाओं के इस्तेमाल की जानकारी देखना
यह सिर्फ़ तब उपलब्ध होता है, जब एपीआई प्रोवाइडर के तौर पर Vertex AI Gemini API का इस्तेमाल किया जा रहा हो. |
Firebase कंसोल के Firebase AI Logic पेज में जाकर, एआई मॉनिटरिंग की सुविधा चालू की जा सकती है. इससे, ऐप्लिकेशन-लेवल की अलग-अलग मेट्रिक और इस्तेमाल की जानकारी देखी जा सकती है. इससे, Firebase AI Logic क्लाइंट SDK टूल से किए गए अनुरोधों के बारे में पूरी जानकारी मिलती है. ये डैशबोर्ड, Count Tokens API को कॉल करने पर मिलने वाले बुनियादी टोकन की संख्या से ज़्यादा जानकारी देते हैं.
Firebase console में एआई मॉनिटरिंग की मुख्य सुविधाओं में ये शामिल हैं:
अपने हर ऐप्लिकेशन के लिए, अनुरोध की संख्या, इंतज़ार का समय, गड़बड़ियां, और हर मोडैलिटी टोकन के इस्तेमाल जैसी संख्या वाली मेट्रिक देखना.
अपने अनुरोधों के एट्रिब्यूट, इनपुट, और आउटपुट देखने के लिए, ट्रेस की जांच करना. इससे, डीबग करने और क्वालिटी को बेहतर बनाने में मदद मिल सकती है.
अनुरोध की स्थिति, कम से कम इंतज़ार का समय, मॉडल का नाम वगैरह जैसे डाइमेंशन के हिसाब से डेटा को स्लाइस करना.
इन सभी सुविधाओं को Google Cloud Observability Suite का इस्तेमाल करके बनाया गया है. ज़्यादा जानकारी के लिए, यहां प्रॉडक्ट की पूरी जानकारी देखें.
एआई की मदद से निगरानी करने की सुविधा चालू करना
Firebaseकंसोल में एआई मॉनिटरिंग की सुविधा चालू करने के ये तरीके हैं:
Firebase AI Logic पेज पर जाकर, सेटअप के लिए दिए गए निर्देशों वाले शुरुआती वर्कफ़्लो को पूरा करने पर
Firebase AI Logic सेटिंग टैब में जाकर, कभी भी
एआई से निगरानी करने की सुविधा चालू करने और उसका इस्तेमाल करने के लिए ज़रूरी शर्तें:
आपके पास प्रोजेक्ट का मालिकाना हक, एडिटर की भूमिका या Firebase Vertex AI एडमिन की भूमिका होनी चाहिए.
आपका Firebase प्रोजेक्ट, 'इस्तेमाल के हिसाब से पैसे चुकाएं' वाले Blaze कीमत प्लान पर होना चाहिए. ज़्यादा जानकारी के लिए, नीचे प्रॉडक्ट की पूरी जानकारी देखें.
आपको एपीआई प्रोवाइडर के तौर पर Vertex AI Gemini API का इस्तेमाल करना होगा (Gemini Developer API के लिए सहायता जल्द ही उपलब्ध होगी!).
आपके ऐप्लिकेशन में Firebase लाइब्रेरी के इन वर्शन का इस्तेमाल कम से कम किया जाना चाहिए:
iOS+: v11.13.0+ | Android: v16.0.0+ (BoM: v33.14.0+) | Web: v11.8.0+ | Flutter: v2.0.0+ (BoM: v3.11.0+) | Unity: v12.9.0+आपके ऐप्लिकेशन में, डेटा इकट्ठा करने के लिए ऑप्ट-इन करने की सुविधा चालू होनी चाहिए. यह सुविधा डिफ़ॉल्ट रूप से चालू होती है.
जब आपका ऐप्लिकेशन इन ज़रूरी शर्तों को पूरा कर लेता है और आपने Console में एआई मॉनिटरिंग की सुविधा चालू कर दी है, तो आपको अपने ऐप्लिकेशन या Console में कुछ और करने की ज़रूरत नहीं है. इसके बाद, Firebase AI Logic एआई मॉनिटरिंग टैब में, डैशबोर्ड में अपने-आप भरने वाला डेटा दिखने लगेगा. किसी अनुरोध से जुड़ा टेलीमेट्री डेटा, Firebase कंसोल में उपलब्ध होने में थोड़ा समय लग सकता है. कभी-कभी इसमें पांच मिनट तक लग सकते हैं.
बेहतर इस्तेमाल के लिए
इस सेक्शन में, सैंपलिंग रेट कॉन्फ़िगरेशन के साथ-साथ, डेटा को देखने और उस पर काम करने के अलग-अलग विकल्पों के बारे में बताया गया है.
सैंपलिंग रेट
अगर बड़ी संख्या में अनुरोध किए जा रहे हैं, तो हमारा सुझाव है कि आप सैंपलिंग रेट कॉन्फ़िगरेशन का फ़ायदा लें. सैंपलिंग रेट से उन अनुरोधों का अनुपात पता चलता है जिनके लिए असल में डेटा इकट्ठा किया जाता है.
Firebase कंसोल के Firebase AI Logic सेटिंग टैब में, अपने प्रोजेक्ट के लिए सैंपलिंग रेट को 1 से 100% तक कॉन्फ़िगर किया जा सकता है. 100% का मतलब है कि आपका पूरा ट्रैफ़िक, एआई मॉनिटरिंग के ज़रिए भेजा जाएगा. यह डिफ़ॉल्ट रूप से 100% होती है. ज़्यादा ट्रैफ़िक भेजने से, आपकी मेट्रिक ज़्यादा सटीक होंगी. हालांकि, इससे मॉनिटरिंग की लागत भी बढ़ेगी. ध्यान रखें कि मॉनिटरिंग डैशबोर्ड में दिखाए गए ग्राफ़, आपके सैंपलिंग रेट पर आधारित होते हैं. इसलिए, अगर आपका सैंपलिंग रेट 50% है, तो असल वॉल्यूम का अनुमान लगाने के लिए, अनुरोधों, टोकन के इस्तेमाल वगैरह की संख्या को दोगुना करें.
Firebase कंसोल के अलावा अन्य विकल्प
Firebase कंसोल में एआई मॉनिटरिंग की सुविधा के अलावा, इन विकल्पों का भी इस्तेमाल करें:
Vertex AI Model Garden को एक्सप्लोर करें.
ये डैशबोर्ड, मैनेज किए जा रहे मॉडल के लिए, इंतज़ार का समय और थ्रूपुट के रुझान के बारे में ज़्यादा अहम जानकारी देते हैं. इससे, Firebase कंसोल में एआई मॉनिटरिंग से मिली अहम जानकारी को बेहतर बनाया जा सकता है.Google Cloud Observability Suite
की मदद से अपने डेटा को एक्सप्लोर और इस्तेमाल करें इसकी वजह यह है कि एआई मॉनिटरिंग के लिए टेलीमेट्री डेटा, आपके प्रोजेक्ट से जुड़े Google Cloud Observability Suite में सेव होता है. इसलिए, Trace Explorer और Logs Explorer जैसे डैशबोर्ड में अपना डेटा एक्सप्लोर किया जा सकता है. ये डैशबोर्ड, Firebase कंसोल में अलग-अलग ट्रेस की जांच करने पर लिंक होते हैं. अपने डेटा का इस्तेमाल, कस्टम डैशबोर्ड बनाने, सूचनाएं सेट अप करने वगैरह के लिए भी किया जा सकता है.
एआई मॉनिटरिंग के लिए इस्तेमाल किए जाने वाले प्रॉडक्ट के बारे में ज़्यादा जानकारी
एआई मॉनिटरिंग की सुविधा, Google Cloud Observability Suite में उपलब्ध अलग-अलग प्रॉडक्ट में आपका टेलीमेट्री डेटा सेव करती है. इनमें Cloud Monitoring, Cloud Trace, और Cloud Logging भी शामिल हैं.
Cloud Monitoring: इसमें मेट्रिक सेव की जाती हैं. इनमें अनुरोधों की संख्या, रिस्पॉन्स मिलने की दर, और अनुरोध के इंतज़ार का समय शामिल है.
Cloud Trace: आपके हर अनुरोध के लिए ट्रेस सेव करता है, ताकि आप एक साथ के बजाय, अलग-अलग जानकारी देख सकें. आम तौर पर, ट्रैकिंग डेटा लॉग से जुड़ा होता है, ताकि आप हर इंटरैक्शन के कॉन्टेंट और समय की जांच कर सकें.
Cloud Logging: एआई से जुड़े अनुरोध के हर हिस्से के बारे में ज़्यादा जानकारी देने के लिए, इनपुट, आउटपुट, और कॉन्फ़िगरेशन मेटाडेटा कैप्चर करता है.
आपका टेलीमेट्री डेटा इन प्रॉडक्ट में सेव होता है. इसलिए, आपके पास हर प्रॉडक्ट में, डेटा को सेव रखने और ऐक्सेस करने की सेटिंग तय करने का विकल्प होता है. ज़्यादा जानकारी के लिए, Cloud Monitoring, Cloud Trace, और Cloud Logging के दस्तावेज़ देखें. ध्यान दें कि सैंपल किए गए हर अनुरोध के असल प्रॉम्प्ट और जनरेट किए गए आउटपुट को मेट्रिक के साथ सेव किया जाता है.
कीमत
Google Cloud Observability Suite एक पैसे चुकाकर ली जाने वाली सेवा है. इसलिए, आपका Firebase प्रोजेक्ट, 'इस्तेमाल के हिसाब से पैसे चुकाएं' वाले Blaze प्लान पर होना चाहिए. हालांकि, हर प्रॉडक्ट के लिए बिना किसी शुल्क के इस्तेमाल किए जा सकने वाले कई टीयर उपलब्ध हैं. ज़्यादा जानने के लिए, Google Cloud Observability Suite कीमत से जुड़े दस्तावेज़ देखें.
Google Cloud कंसोल में प्रोजेक्ट-लेवल की एपीआई मेट्रिक देखना
हर एपीआई के लिए, Google Cloud कंसोल में प्रोजेक्ट-लेवल की मेट्रिक देखी जा सकती हैं. जैसे, इस्तेमाल.
ध्यान दें कि इस सेक्शन में बताए गए Google Cloud कंसोल पेजों में, अनुरोध और रिस्पॉन्स कॉन्टेंट और टोकन की संख्या जैसी जानकारी शामिल नहीं होती. इस तरह की जानकारी को मॉनिटर करने के लिए, Firebase कंसोल में एआई मॉनिटरिंग का इस्तेमाल करें (पिछला सेक्शन देखें).
Google Cloud कंसोल में, उस एपीआई के मेट्रिक पेज पर जाएं जिसे आपको देखना है:
Vertex AI एपीआई: Vertex AI Gemini API को किए गए किसी भी अनुरोध से जुड़ा इस्तेमाल देखें.
- इसमें Firebase AI Logic क्लाइंट SDK टूल, Google GenAI सर्वर SDK टूल, Genkit, Gemini API के लिए Firebase Extensions, REST API, Vertex AI Studio वगैरह का इस्तेमाल करने वाले अनुरोध शामिल हैं.
Gemini Developer API: Gemini Developer API के लिए किए गए किसी भी अनुरोध से जुड़ा इस्तेमाल देखें.
- इसमें Firebase AI Logic क्लाइंट SDK टूल, Google GenAI सर्वर SDK टूल, Genkit, Gemini API के लिए Firebase Extensions, REST API, Google AI Studio वगैरह का इस्तेमाल करने वाले अनुरोध शामिल हैं.
- Google Cloud कंसोल में इस एपीआई का डिसप्ले नेम "जनरेटिव लैंग्वेज एपीआई" है.
अगर आप एपीआई के "खास जानकारी वाले पेज" पर हैं, तो मैनेज करें पर क्लिक करें. इसके बाद, मेट्रिक टैब पर क्लिक करें.
से मिले अनुरोध सिर्फ़ दिखेंगे.अपनी पसंद की मेट्रिक देखने के लिए, ड्रॉप-डाउन मेन्यू का इस्तेमाल करें. जैसे, रिस्पॉन्स कोड के हिसाब से ट्रैफ़िक, एपीआई के तरीके के हिसाब से गड़बड़ियां, कुल इंतज़ार का समय, और एपीआई के तरीके के हिसाब से इंतज़ार का समय.