מעקב אחרי העלויות, השימוש ומדדים אחרים של תכונות ה-AI הוא חלק חשוב בהפעלת אפליקציה בייצור. אתם צריכים לדעת מהם דפוסי השימוש הרגילים באפליקציה שלכם ולוודא שאתם לא חורגים מספי השימוש שחשובים לכם.
בדף הזה מפורטות כמה אפשרויות מומלצות למעקב אחרי העלויות, השימוש ומדדים אחרים במסוף Firebase ובמסוף Google Cloud.
מעקב אחרי העלויות
בלוח הבקרה Usage and Billing במסוף Firebase, אפשר לראות את העלויות של הפרויקט על קריאה ל-Vertex AI Gemini API ול-Gemini Developer API (אם אתם משתמשים בתוכנית התמחור Blaze).
העלויות שמוצגות בלוח הבקרה לא בהכרח ספציפיות לשיחות באמצעות ערכות ה-SDK של לקוח Firebase AI Logic. העלויות שמוצגות משויכות לכל הקריאות ל-Gemini APIs, בין אם הן מתבצעות באמצעות ה-SDK של לקוח Firebase AI Logic, ה-SDK של שרת Google GenAI, Genkit, Firebase Extensions ל-Gemini API, קריאות REST, אחד מ-AI Studios או לקוחות API אחרים.
מידע נוסף על התמחור של המוצרים שמשויכים לשימוש שלכם ב-Firebase AI Logic
הגדרת התראות
כדי להימנע מחשבונות לא צפויים, חשוב להגדיר התראות לגבי התקציב כשמשתמשים בתוכנית התמחור Blaze.
חשוב לציין שהתראות על תקציב לא מגבילות את התקציב. התראה תשלח לכם הודעות כשאתם מתקרבים לסף שהגדרתם או עוברים אותו, כדי שתוכלו לבצע פעולה באפליקציה או בפרויקט.
מעקב אחרי השימוש בתכונות מבוססות-AI במסוף Firebase
אפשר להשתמש בה רק כשמשתמשים ב-Vertex AI Gemini API כספק ה-API. |
אתם יכולים להפעיל מעקב מבוסס-AI בדף Firebase AI Logic במסוף Firebase כדי לעקוב אחרי מדדים שונים ברמת האפליקציה ונתוני שימוש, ולקבל תמונה מקיפה של הבקשות מ-SDK של לקוח Firebase AI Logic. לוחות הבקרה האלה מציגים נתונים מפורטים יותר מספירת האסימונים הבסיסית שמתקבלת מקריאה ל-Count Tokens API.
היכולות העיקריות של מעקב מבוסס-AI במסוף Firebase כוללות:
הצגת מדדים כמותיים כמו נפח הבקשות, זמן האחזור, השגיאות ושימוש באסימונים לכל מצב של כל אחת מהאפליקציות.
בדיקת עקבות כדי לראות את המאפיינים, הקלט והפלט של הבקשות, שיכולה לעזור בניפוי באגים ובשיפור האיכות.
פילוח הנתונים לפי מאפיינים כמו סטטוס הבקשה, זמן האחזור המינימלי, שם המודל ועוד.
כל התכונות האלה מבוססות על Google Cloud Observability Suite (מידע מפורט על המוצר מופיע בהמשך).
הפעלת מעקב מבוסס-AI
אלה הדרכים להפעלת מעקב מבוסס-AI במסוף Firebase:
כשמבצעים את תהליך ההגדרה הראשונית המודרכת מתוך הדף Firebase AI Logic
בכל שלב דרך Firebase AI Logic הכרטיסייה הגדרות
הדרישות להפעלה ולשימוש בניטור באמצעות AI:
צריך להיות לכם תפקיד בעלים או עורך בפרויקט, או תפקיד אדמין ב-Firebase Vertex AI.
פרויקט Firebase שלכם צריך להיות בתוכנית התמחור Blaze עם תשלום לפי שימוש (ראו מידע מפורט על המוצר בהמשך).
אתם צריכים להשתמש ב-Vertex AI Gemini API כספק ה-API שלכם (תמיכה ב-Gemini Developer API תהיה זמינה בקרוב!).
האפליקציה שלכם צריכה להשתמש לפחות בגרסאות הבאות של ספריות Firebase:
iOS+: גרסה 11.13.0 ואילך | Android: גרסה 16.0.0 ואילך (BoM: גרסה 33.14.0 ואילך) | Web: גרסה 11.8.0 ואילך | Flutter: גרסה 2.0.0 ואילך (BoM: גרסה 3.11.0 ואילך) | Unity: גרסה 12.9.0 ואילךבאפליקציה שלכם צריך להפעיל את איסוף הנתונים בהסכמה (האפשרות הזו מופעלת כברירת מחדל).
אחרי שהאפליקציה עומדת בדרישות האלה ומפעילים את התכונה 'מעקב מבוסס-AI' במסוף, לא צריך לעשות שום דבר נוסף באפליקציה או במסוף כדי שהנתונים יתחילו להתעדכן בלוחות הבקרה בFirebase AI Logic כרטיסייה 'מעקב מבוסס-AI'. יכול להיות שיהיה עיכוב קל (לפעמים עד 5 דקות) עד שהטלמטריה מבקשה תהיה זמינה במסוף Firebase.
שימוש מתקדם
בקטע הזה מתואר איך מגדירים את קצב הדגימה, ומוסבר על אפשרויות שונות לצפייה בנתונים ולעבודה איתם.
תדירות הדגימה
אם אתם שולחים מספר גדול של בקשות, מומלץ להשתמש בהגדרה של קצב הדגימה. תדירות הדגימה מציינת את שיעור הבקשות שעבורן נאספים בפועל פרטי מעקב.
בכרטיסייה Firebase AI Logic Settings (הגדרות) במסוף Firebase, אפשר להגדיר את קצב הדגימה של הפרויקט לערך שבין 1 ל-100%. ערך של 100% אומר שהתכונה 'מעקב מבוסס-AI' תאסוף נתונים מכל התנועה. ערך ברירת המחדל הוא 100%. איסוף של פחות עקבות יפחית את העלויות, אבל גם יקטין את מספר העקבות שתוכלו לעקוב אחריהם. הערה: ללא קשר לשיעור הדגימה, הגרפים שמוצגים בלוח הבקרה של המעקב תמיד ישקפו את נפח התנועה האמיתי.
אפשרויות נוספות מחוץ למסוף Firebase
בנוסף למעקב אחר השימוש ב-AI שזמין במסוף Firebase, כדאי לשקול את האפשרויות הבאות:
כדאי לעיין ב-Vertex AI Model Garden.
לוחות הבקרה האלה מספקים תובנות נוספות לגבי מגמות של זמן האחזור וקצב העברת הנתונים של המודלים המנוהלים, בנוסף לתובנות שמתקבלות ממעקב אחר ה-AI במסוף Firebase.אפשר לעיין בנתונים ולהשתמש בהם באמצעות Google Cloud Observability Suite
. נתוני הטלמטריה של מעקב אחרי AI מאוחסנים ב-Google Cloud Observability Suite שמשויך לפרויקט שלכם, ולכן אתם יכולים לעיין בנתונים בלוחות הבקרה שלו, כולל Trace Explorer ו-Logs Explorer, שמקושרים לזמן שבו אתם בודקים את העקבות האישיים שלכם במסוף Firebase. אפשר גם להשתמש בנתונים כדי ליצור מרכזי בקרה בהתאמה אישית, להגדיר התראות ועוד.
מידע מפורט על מוצרים שמשמשים למעקב אחרי AI
הנתונים שלכם מניטור ה-AI נשמרים במוצרים שונים שזמינים ב-Google Cloud Observability Suite, כולל Cloud Monitoring, Cloud Trace ו-Cloud Logging.
Cloud Monitoring: אחסון מדדים, כולל מספר הבקשות, שיעור ההצלחה וזמן האחזור של הבקשות.
Cloud Trace: שומר עקבות של כל בקשה כדי שתוכלו לראות את הפרטים בנפרד ולא במצטבר. בדרך כלל, מעקב משויך ליומנים כדי שתוכלו לבדוק את התוכן ואת התזמון של כל אינטראקציה.
Cloud Logging: מתעד מטא-נתונים של קלט, פלט והגדרות כדי לספק פרטים עשירים על כל חלק בבקשת ה-AI.
נתוני הטלמטריה מאוחסנים במוצרים האלה, ולכן אפשר לציין את הגדרות השמירה והגישה ישירות בכל מוצר (מידע נוסף זמין במסמכי התיעוד של Cloud Monitoring, Cloud Trace ו-Cloud Logging). שימו לב שההנחיות בפועל והפלט שנוצר מכל בקשה לדגימה מאוחסנים יחד עם המדדים.
תמחור
Google Cloud Observability Suite הוא שירות בתשלום, ולכן פרויקט Firebase שלכם צריך להיות בתוכנית התמחור Blaze בשיטת תשלום לפי שימוש. עם זאת, לכל מוצר יש רמות נדיבות ללא עלות. מידע נוסף זמין במסמכי התמחור של Google Cloud Observability Suite.
הצגת מדדי API ברמת הפרויקט במסוף Google Cloud
במסוף Google Cloud אפשר לראות מדדים ברמת הפרויקט לכל API, כמו שימוש.
שימו לב שדפי המסוף Google Cloud שמתוארים בקטע הזה לא כוללים מידע כמו תוכן הבקשה והתגובה ומספר האסימונים. כדי לעקוב אחרי סוג המידע הזה, כדאי להשתמש במעקב אחרי AI ב-Firebase Console (ראו את הקטע הקודם).
במסוף Google Cloud, עוברים לדף Metrics של ה-API שרוצים להציג:
Vertex AI API: צפייה בשימוש שמשויך לכל בקשה אל Vertex AI Gemini API.
- כולל בקשות באמצעות ערכות SDK של לקוח Firebase AI Logic, ערכות SDK של שרת Google GenAI, Genkit, Firebase Extensions, Gemini API, REST API, Vertex AI Studio וכו'.
Gemini Developer API: הצגת השימוש שמשויך לכל בקשה אל Gemini Developer API.
- כולל בקשות באמצעות Firebase AI Logic ערכות SDK של לקוח, ערכות SDK של שרת GenAI של Google, Genkit, Firebase Extensions Gemini API, REST API, Google AI Studio וכו'.
- שם התצוגה של ה-API הזה במסוף Google Cloud הוא Generative Language API.
אם אתם נמצאים בדף סקירה כללית של ה-API, לוחצים על ניהול ואז על הכרטיסייה מדדים.
משתמשים בתפריטים הנפתחים כדי לראות את המדדים הרלוונטיים, כמו תנועת גולשים לפי קוד תגובה, שגיאות לפי method של API, חביון כולל וחביון לפי method של API.