מעקב אחרי עלויות, שימוש ומדדים אחרים

מעקב אחרי העלויות, השימוש ומדדים אחרים של תכונות ה-AI הוא חלק חשוב מהפעלת אפליקציה בסביבת הייצור. אתם צריכים לדעת איך נראים דפוסי השימוש הרגילים באפליקציה שלכם ולוודא שאתם לא חורגים מהסף שחשוב לכם.

בדף הזה מתוארות כמה אפשרויות מומלצות למעקב אחרי העלויות, השימוש ומדדים אחרים, גם במסוף Firebase וגם במסוף Google Cloud.

מעקב אחרי העלויות

בלוח הבקרה Usage and Billing במסוף Firebase, אפשר לראות את העלויות של הקריאות ל-Vertex AI Gemini API ול-Gemini Developer API בפרויקט (כשמשתמשים בתוכנית התמחור Blaze).

העלויות שמוצגות במרכז הבקרה לא בהכרח ספציפיות לשיחות באמצעות ערכות ה-SDK של הלקוח של Firebase AI Logic. העלויות המוצגות משויכות לכל הקריאות ל-'Gemini APIs' האלה, בין שהן מתבצעות באמצעות ערכות ה-SDK של הלקוח Firebase AI Logic, ערכות ה-SDK של השרת של Google GenAI, Genkit, ה-Firebase Extensions ל-Gemini API, קריאות ל-REST, אחד מ-AI Studios או לקוחות API אחרים.

מידע נוסף על התמחור של המוצרים שמשויכים לשימוש ב-Firebase AI Logic

הגדרת התראות

כדי להימנע מחיובים מפתיעים, חשוב להגדיר התראות לגבי התקציב כשמשתמשים בתוכנית התמחור Blaze.

חשוב לזכור שהתראות תקציב הן לא תקרות תקציב. תקבלו התראות כשאתם מתקרבים לסף שהגדרתם או חורגים ממנו, כדי שתוכלו לבצע פעולות באפליקציה או בפרויקט.

מעקב אחר השימוש בתכונות ה-AI במסוף Firebase

האפשרות הזו זמינה רק כשמשתמשים ב-Vertex AI Gemini API בתור ספק ה-API.

אפשר להפעיל מעקב AI בדף Firebase AI Logic במסוף Firebase כדי לעקוב אחרי מדדים שונים של שימוש ברמת האפליקציה, וכך לקבל תמונה מקיפה של הבקשות מ-SDK של לקוחות Firebase AI Logic. מרכזי הבקרה האלה מפורטים יותר ממספרי האסימונים הבסיסיים שמתקבלים מקריאה ל-Count Tokens API.

היכולות העיקריות של מעקב AI במסוף Firebase כוללות:

  • הצגת מדדים כמותיים כמו נפח הבקשות, זמן האחזור, השגיאות והשימוש באסימונים לפי מודל בכל אחת מהאפליקציות.

  • בדיקת עקבות כדי לראות את המאפיינים, הקלטות והפלט של הבקשות, שיכולים לעזור בניפוי באגים ובשיפור האיכות.

  • חיתוך הנתונים לפי מאפיינים כמו סטטוס הבקשה, זמן האחזור המינימלי, שם המודל ועוד.

כל התכונות האלה נוצרו באמצעות Google Cloud Observability Suite (פרטי המוצר המפורטים מופיעים בהמשך).

הפעלת מעקב מבוסס-AI

אלה הדרכים שבהן אפשר להפעיל מעקב AI במסוף Firebase:

הדרישות להפעלה של מעקב AI ולהשתמש בו:

  • צריכה להיות לכם הרשאת 'בעלים', 'עריכה' או 'אדמין ב-Firebase Vertex AI' בפרויקט.

  • פרויקט Firebase צריך להיות בתוכנית התמחור של Blaze בתשלום לפי שימוש (ראו פרטי המוצר המפורטים בהמשך).

  • עליכם להשתמש ב-Vertex AI Gemini API כספק ה-API (התמיכה ב-Gemini Developer API תגיע בקרוב).

  • באפליקציה צריך להשתמש לפחות בגרסאות הספרייה הבאות של Firebase:
    iOS+: v11.13.0 ואילך | Android: v16.0.0 ואילך (BoM: v33.14.0 ואילך) | אינטרנט: v11.8.0 ואילך | Flutter: v2.0.0 ואילך (BoM: v3.11.0 ואילך) | Unity: v12.9.0 ואילך

  • צריך להפעיל את איסוף הנתונים שמבוסס על הסכמה באפליקציה (האפשרות הזו מופעלת כברירת מחדל).

אחרי שהאפליקציה עומדת בדרישות האלה ומפעילים את המעקב אחרי AI במסוף, לא צריך לעשות שום דבר נוסף באפליקציה או במסוף כדי להתחיל לראות נתונים שמאכלסים את לוחות הבקרה בכרטיסייה Firebase AI Logic AI monitoring. יכול להיות עיכוב קל (לפעמים עד 5 דקות) עד שהנתונים הטלמטרים של בקשה יהיו זמינים במסוף Firebase.

שימוש מתקדם

בקטע הזה מוסבר איך מגדירים את קצב הדגימה, וגם אפשרויות שונות להצגת הנתונים ולעבודה איתם.

תדירות הדגימה

אם אתם שולחים מספר רב של בקשות, מומלץ להשתמש בהגדרה של קצב הדגימה. תדירות הדגימה מציינת את היחס בין הבקשות שבהן הנתונים נאספים בפועל.

בכרטיסייה Firebase AI Logic Settings במסוף Firebase, אפשר להגדיר את קצב הדגימה של הפרויקט לערך של 1% עד 100%. הערך 100% ישלח את כל התנועה למעקב AI. כברירת מחדל, הערך הוא 100%. שליחת יותר תנועה תגדיל את הדיוק של המדדים, אבל גם את עלות המעקב. חשוב לזכור שהתרשימים שמוצגים בלוח הבקרה למעקב מבוססים על שיעור הדגימה. לכן, אם שיעור הדגימה הוא 50%, צריך להכפיל את מספר הבקשות, את השימוש באסימונים וכו' כדי להעריך את הנפח בפועל.

אפשרויות נוספות מחוץ למסוף Firebase

בנוסף למעקב AI שזמין במסוף Firebase, כדאי לשקול את האפשרויות הבאות:

  • כדאי לעיין בVertex AI Model Garden.
    לוחות הבקרה האלה מספקים תובנות נוספות לגבי מגמות בזמן האחזור ובתפוקת הנתונים של המודלים המנוהלים, כתוספת לתובנות שמתקבלות ממעקב ה-AI במסוף Firebase.

  • ניתוח הנתונים והשימוש בהם באמצעות Google Cloud Observability Suite
    מאחר שנתוני הטלמטריה למעקב אחר AI מאוחסנים ב-Google Cloud Observability Suite שמשויכים לפרויקט, אפשר לבחון את הנתונים בלוחות הבקרה שלו, כולל Trace Explorer ו-Logs Explorer, שמקושרים אליהם כשבודקים את הטרייסים הנפרדים במסוף Firebase. אפשר גם להשתמש בנתונים כדי ליצור מרכזי בקרה בהתאמה אישית, להגדיר התראות ועוד.

מידע מפורט על מוצרים המשמשים למעקב אחרי AI

נתוני הטלמטריה נשמרים במוצרים שונים של AI monitoring שזמינים ב-Google Cloud Observability Suite, כולל Cloud Monitoring,‏ Cloud Trace ו-Cloud Logging.

  • Cloud Monitoring: אחסון מדדים, כולל מספר הבקשות, שיעור ההצלחה וזמן האחזור של הבקשה.

  • Cloud Trace: שמירת עקבות לכל אחת מהבקשות, כדי שתוכלו להציג את הפרטים בנפרד במקום באופן מצטבר. בדרך כלל, מעקב משויך ליומנים כדי שתוכלו לבדוק את התוכן והתזמון של כל אינטראקציה.

  • Cloud Logging: מתעד מטא-נתונים של קלט, פלט והגדרות כדי לספק פרטים עשירים על כל חלק בבקשת ה-AI.

מאחר שנתוני הטלמטריה מאוחסנים במוצרים האלה, תוכלו לציין את הגדרות השמירה והגישה ישירות בכל מוצר (מידע נוסף זמין במסמכי העזרה של Cloud Monitoring, Cloud Trace ו-Cloud Logging). חשוב לזכור שההנחיות בפועל והפלט שנוצר מכל בקשה שנבחרה לבדיקה מאוחסנים יחד עם המדדים.

תמחור

Google Cloud Observability Suite הוא שירות בתשלום, ולכן פרויקט Firebase שלכם צריך להיות בתוכנית התמחור Blaze לפי שימוש. עם זאת, לכל מוצר יש רמות נדיבות ללא עלות. מידע נוסף זמין במסמכי התיעוד של תמחור Google Cloud Observability Suite.

הצגת מדדי API ברמת הפרויקט במסוף Google Cloud

לכל ממשק API אפשר לראות מדדים ברמת הפרויקט, כמו שימוש, במסוף Google Cloud.

שימו לב שדפי המסוף Google Cloud שמתוארים בקטע הזה לא כוללים מידע כמו תוכן הבקשה והתגובה ומספר האסימונים. כדי לעקוב אחרי מידע מהסוג הזה, מומלץ להשתמש במעקב AI במסוף Firebase (ראו הקטע הקודם).

  1. במסוף Google Cloud, עוברים לדף Metrics של ה-API שרוצים להציג:

    • Vertex AI API: אפשר לראות את השימוש שמשויך לכל בקשה ל-Vertex AI Gemini API.

      • כולל בקשות באמצעות ערכות SDK של לקוח Firebase AI Logic, ערכות SDK של שרת Google GenAI, Genkit, Firebase Extensions ל-Gemini API, API ל-REST, Vertex AI Studio וכו'.
    • Gemini Developer API: הצגת השימוש שמשויך לכל בקשה ל-Gemini Developer API.

      • כולל בקשות באמצעות ערכות ה-SDK של הלקוח Firebase AI Logic, ערכות ה-SDK של השרת של Google GenAI, Genkit, ה-Firebase Extensions ל-Gemini API, ה-API ל-REST, Google AI Studio וכו'.
      • שם התצוגה של ה-API הזה במסוף Google Cloud הוא Generative Language API.

    אם אתם נמצאים בדף 'סקירה כללית' של ה-API, לוחצים על ניהול ואז על הכרטיסייה מדדים.

  2. בתפריטים הנפתחים אפשר לראות את המדדים הרלוונטיים, כמו תנועה לפי קוד תגובה, שגיאות לפי שיטת API, זמן אחזור כולל וזמן אחזור לפי שיטת API.