ตรวจสอบต้นทุน การใช้งาน และเมตริกอื่นๆ

การตรวจสอบค่าใช้จ่าย การใช้งาน และเมตริกอื่นๆ ของฟีเจอร์ AI เป็นส่วนสำคัญของการเรียกใช้แอปเวอร์ชันที่ใช้งานจริง คุณต้องทราบว่ารูปแบบการใช้งานปกติของแอปเป็นอย่างไร และตรวจสอบว่าคุณยังคงอยู่ภายในเกณฑ์ที่สำคัญสำหรับคุณ

หน้านี้อธิบายตัวเลือกที่แนะนำบางส่วนในการตรวจสอบค่าใช้จ่าย การใช้งาน และเมตริกอื่นๆ ทั้งในFirebaseคอนโซลและGoogle Cloudคอนโซล

ตรวจสอบค่าใช้จ่าย

ในแดชบอร์ดการใช้งานและการเรียกเก็บเงิน ของคอนโซล Firebase คุณจะดูค่าใช้จ่ายของโปรเจ็กต์สำหรับการเรียกใช้ Vertex AI Gemini API และ Gemini Developer API ได้ (เมื่อคุณใช้แพ็กเกจราคา Blaze)

ค่าใช้จ่ายที่แสดงในแดชบอร์ดไม่จำเป็นต้องเป็นค่าใช้จ่ายเฉพาะสำหรับการเรียก ที่ใช้ Firebase AI LogicSDK ของไคลเอ็นต์ ค่าใช้จ่ายที่แสดง เชื่อมโยงกับการเรียกใช้ "Gemini API" ใดๆ ไม่ว่าจะใช้ Firebase AI Logic Client SDK, Google GenAI Server SDK, Genkit, Firebase Extensions สำหรับ Gemini API, การเรียกใช้ REST, AI Studio อย่างใดอย่างหนึ่ง หรือไคลเอ็นต์ API อื่นๆ

ดูข้อมูลเพิ่มเติมเกี่ยวกับการกำหนดราคาสำหรับผลิตภัณฑ์ที่เชื่อมโยง กับการใช้ Firebase AI Logic

ตั้งค่าการแจ้งเตือน

หากไม่ต้องการให้มีการเรียกเก็บเงินที่ไม่คาดคิด โปรดตั้งค่าการแจ้งเตือนงบประมาณ เมื่อใช้แพ็กเกจราคา Blaze

โปรดทราบว่าการแจ้งเตือนงบประมาณไม่ใช่ขีดจํากัดงบประมาณ การแจ้งเตือนจะส่งการสื่อสารให้คุณเมื่อใกล้ถึงหรือเกินขีดจำกัดที่กำหนดค่าไว้ เพื่อให้คุณดำเนินการในแอปหรือโปรเจ็กต์ได้

สังเกตการใช้งานฟีเจอร์ AI ในFirebaseคอนโซล

ใช้ได้เมื่อใช้ Vertex AI Gemini API เป็นผู้ให้บริการ API เท่านั้น

คุณเปิดใช้การตรวจสอบ AI ได้ในหน้า Firebase AI Logic ของ Firebase คอนโซล เพื่อให้คุณสังเกตเมตริกและการใช้งานระดับแอปต่างๆ เพื่อรับข้อมูลเชิงลึกที่ครอบคลุมเกี่ยวกับคำขอจาก Firebase AI Logic SDK ของไคลเอ็นต์ แดชบอร์ดเหล่านี้มีข้อมูลเชิงลึกมากกว่าจำนวนโทเค็นพื้นฐานที่คุณได้รับจากการเรียกใช้ Count Tokens API

ความสามารถหลักของการตรวจสอบ AI ในคอนโซล Firebase มีดังนี้

  • การดูเมตริกเชิงปริมาณ เช่น ปริมาณคำขอ เวลาในการตอบสนอง ข้อผิดพลาด และ การใช้โทเค็นต่อรูปแบบสำหรับแอปแต่ละแอป

  • การตรวจสอบการติดตามเพื่อดูแอตทริบิวต์ อินพุต และเอาต์พุตของคำขอ ซึ่งจะช่วยในการแก้ไขข้อบกพร่องและการปรับปรุงคุณภาพ

  • แบ่งกลุ่มข้อมูลตามมิติข้อมูล เช่น สถานะคำขอ เวลาในการตอบสนองขั้นต่ำ ชื่อโมเดล และอื่นๆ

ฟีเจอร์ทั้งหมดนี้สร้างขึ้นโดยใช้ Google Cloud Observability Suite (ดูข้อมูลผลิตภัณฑ์โดยละเอียดด้านล่าง)

เปิดใช้การตรวจสอบ AI

วิธีเปิดใช้การตรวจสอบ AI ใน Firebaseคอนโซลมีดังนี้

  • เมื่อคุณทำตามเวิร์กโฟลว์การตั้งค่าเบื้องต้นแบบมีคำแนะนำจากหน้าFirebase AI Logic

  • คุณสามารถดำเนินการดังนี้ได้ทุกเมื่อในแท็บFirebase AI Logic การตั้งค่า

ข้อกำหนดในการเปิดใช้และใช้การตรวจสอบโดย AI มีดังนี้

  • คุณต้องเป็นเจ้าของโปรเจ็กต์ ผู้แก้ไข หรือ ผู้ดูแลระบบ Firebase Vertex AI

  • โปรเจ็กต์ Firebase ต้องใช้แพ็กเกจราคา Blaze แบบจ่ายเมื่อใช้ (ดูข้อมูลผลิตภัณฑ์โดยละเอียดด้านล่าง)

  • คุณต้องใช้ Vertex AI Gemini API เป็นผู้ให้บริการ API (การรองรับ Gemini Developer API จะพร้อมให้บริการในเร็วๆ นี้)

  • แอปต้องใช้ไลบรารี Firebase เวอร์ชันต่อไปนี้
    iOS+: v11.13.0+ | Android: v16.0.0+ (BoM: v33.14.0+) | เว็บ: v11.8.0+ | Flutter: v2.0.0+ (BoM: v3.11.0+) | Unity: v12.9.0+ เป็นอย่างน้อย

  • แอปของคุณต้องเปิดใช้การเก็บรวบรวมข้อมูลที่ต้องเลือกใช้ (ระบบจะเปิดใช้โดย ค่าเริ่มต้น)

หลังจากที่แอปเป็นไปตามข้อกำหนดเหล่านี้และคุณเปิดใช้การตรวจสอบ AI ในคอนโซลแล้ว คุณไม่จำเป็นต้องดำเนินการใดๆ เพิ่มเติมในแอปหรือคอนโซลเพื่อเริ่มดูข้อมูลที่แสดงในแดชบอร์ดในแท็บFirebase AI Logic การตรวจสอบ AI อาจมีความล่าช้าเล็กน้อย (บางครั้งอาจนานถึง 5 นาที) ก่อนที่ข้อมูลการวัดและส่งจากคำขอจะพร้อมใช้งานในFirebaseคอนโซล

การใช้งานขั้นสูง

ส่วนนี้จะอธิบายการกำหนดค่าอัตราการสุ่มตัวอย่าง รวมถึงตัวเลือกต่างๆ สำหรับการดูและการทำงานกับข้อมูล

อัตราการสุ่มตัวอย่าง

หากคุณส่งคำขอจำนวนมาก เราขอแนะนำให้ใช้ประโยชน์จาก การกำหนดค่าอัตราการสุ่มตัวอย่าง อัตราการสุ่มตัวอย่างจะระบุสัดส่วนของคำขอที่ระบบเก็บรวบรวมรายละเอียดการติดตามจริง

ในFirebase AI Logicแท็บการตั้งค่า ของคอนโซล Firebase คุณสามารถกำหนดค่าอัตราการสุ่มตัวอย่างสำหรับโปรเจ็กต์เป็น ค่าตั้งแต่ 1 ถึง 100% โดย 100% หมายความว่าการตรวจสอบด้วย AI จะรวบรวมการติดตามจาก การเข้าชมทั้งหมด ค่าเริ่มต้นคือ 100% การรวบรวมการติดตามน้อยลงจะช่วยลดค่าใช้จ่าย แต่ก็จะลดจำนวนการติดตามที่คุณตรวจสอบได้ด้วย โปรดทราบ ว่าไม่ว่าอัตราการสุ่มตัวอย่างจะเป็นเท่าใด กราฟที่แสดงในแดชบอร์ดการตรวจสอบ จะแสดงปริมาณการเข้าชมที่แท้จริงเสมอ

ตัวเลือกเพิ่มเติมนอกคอนโซล Firebase

นอกเหนือจากการตรวจสอบ AI ที่มีอยู่ในคอนโซล Firebase แล้ว ให้พิจารณาตัวเลือกต่อไปนี้

  • สำรวจModel Garden ของ Vertex AI
    แดชบอร์ดเหล่านี้จะให้ข้อมูลเชิงลึกเกี่ยวกับแนวโน้มเพิ่มเติมเกี่ยวกับเวลาในการตอบสนองและปริมาณงาน สำหรับโมเดลที่มีการจัดการ ซึ่งจะช่วยเสริมข้อมูลเชิงลึกจากการตรวจสอบ AI ในคอนโซล Firebase

  • สํารวจและใช้ข้อมูลของคุณด้วย Google Cloud Observability Suite
    เนื่องจากระบบจะจัดเก็บข้อมูลการวัดและส่งข้อมูลสำหรับการตรวจสอบ AI ไว้ใน Google Cloud Observability Suite ที่เชื่อมโยงกับโปรเจ็กต์ของคุณ คุณจึงสํารวจข้อมูลในแดชบอร์ดได้ รวมถึง Trace Explorer และ Logs Explorer ซึ่งเชื่อมโยงกับเวลาที่คุณ ตรวจสอบการติดตามแต่ละรายการในคอนโซล Firebase นอกจากนี้ คุณยัง ใช้ข้อมูลเพื่อสร้างแดชบอร์ดที่กำหนดเอง ตั้งค่าการแจ้งเตือน และอื่นๆ ได้ด้วย

ข้อมูลโดยละเอียดเกี่ยวกับผลิตภัณฑ์ที่ใช้สำหรับการตรวจสอบ AI

การตรวจสอบ AI จะจัดเก็บข้อมูลการวัดและส่งข้อมูลของคุณในผลิตภัณฑ์ต่างๆ ที่มีให้บริการใน Google Cloud Observability Suite ซึ่งรวมถึง Cloud Monitoring, Cloud Trace และ Cloud Logging

  • Cloud Monitoring: จัดเก็บเมตริก รวมถึงจำนวนคำขอ อัตราความสำเร็จ และเวลาในการตอบสนองของคำขอ

  • Cloud Trace: จัดเก็บการติดตามสำหรับคำขอแต่ละรายการเพื่อให้คุณดูรายละเอียดทีละรายการได้แทนที่จะดูแบบรวม โดยปกติแล้ว การติดตามจะ เชื่อมโยงกับบันทึกเพื่อให้คุณตรวจสอบเนื้อหาและเวลาของการโต้ตอบแต่ละครั้งได้

  • Cloud Logging: บันทึกข้อมูลเมตาของอินพุต เอาต์พุต และการกำหนดค่าเพื่อ ให้รายละเอียดที่ครบถ้วนเกี่ยวกับแต่ละส่วนของคำขอ AI

เนื่องจากระบบจัดเก็บข้อมูลการวัดและส่งข้อมูลของคุณไว้ในผลิตภัณฑ์เหล่านี้ คุณจึงระบุการตั้งค่าการเข้าถึงและการเก็บรักษาได้โดยตรงภายในแต่ละผลิตภัณฑ์ (ดูข้อมูลเพิ่มเติมได้ในเอกสารประกอบสำหรับ Cloud Monitoring Cloud Trace และ Cloud Logging) โปรดทราบว่าระบบจะจัดเก็บพรอมต์จริงและเอาต์พุตที่สร้างขึ้นจากคำขอที่สุ่มตัวอย่างแต่ละรายการไว้พร้อมกับเมตริก

ราคา

Google Cloud Observability Suite เป็นบริการแบบชำระเงิน ดังนั้นโปรเจ็กต์ Firebase ของคุณต้องใช้แพ็กเกจราคา Blaze แบบจ่ายตามการใช้งานจริง อย่างไรก็ตาม ผลิตภัณฑ์แต่ละรายการมีระดับแบบไม่มีค่าใช้จ่ายที่ให้การใช้งานอย่างเต็มที่ ดูข้อมูลเพิ่มเติมได้ในGoogle Cloud Observability Suiteเอกสารประกอบเรื่องราคา

ดูเมตริก API ระดับโปรเจ็กต์ในGoogle Cloudคอนโซล

สำหรับ API แต่ละรายการ คุณจะดูเมตริกระดับโปรเจ็กต์ เช่น การใช้งาน ได้ใน Google Cloud คอนโซล

โปรดทราบว่าGoogle Cloudหน้าคอนโซลที่อธิบายไว้ในส่วนนี้ไม่มี ข้อมูล เช่น เนื้อหาคำขอและการตอบกลับ และจำนวนโทเค็น หากต้องการตรวจสอบข้อมูลประเภทดังกล่าว ให้ลองใช้ การตรวจสอบ AI ในFirebaseคอนโซล (ดูส่วนก่อนหน้า)

  1. ในGoogle Cloudคอนโซล ให้ไปที่หน้าเมตริกของ API ที่คุณต้องการดู

    • Vertex AI API: ดูการใช้งานที่เชื่อมโยงกับคำขอใดก็ได้ไปยัง Vertex AI Gemini API

      • รวมถึงคำขอที่ใช้ Firebase AI Logic SDK ของไคลเอ็นต์ SDK ของเซิร์ฟเวอร์ Google GenAI Genkit, Firebase Extensions สำหรับ Gemini API, REST API Vertex AI Studio ฯลฯ
    • Gemini Developer API: ดูการใช้งานที่เชื่อมโยงกับคำขอใดก็ตามไปยัง Gemini Developer API

      • รวมถึงคำขอที่ใช้ Firebase AI Logic SDK ของไคลเอ็นต์ SDK ของเซิร์ฟเวอร์ GenAI ของ Google Genkit Firebase Extensions สำหรับ Gemini API, REST API Google AI Studio ฯลฯ
      • ชื่อที่แสดงของ API นี้ในGoogle Cloudคอนโซล คือ "Generative Language API"

    หากคุณอยู่ใน "หน้าภาพรวม" ของ API ให้คลิกจัดการ แล้วคลิกแท็บเมตริก

  2. ใช้เมนูแบบเลื่อนลงเพื่อดูเมตริกที่สนใจ เช่น การเข้าชม ตามรหัสการตอบกลับ ข้อผิดพลาดตามเมธอด API เวลาในการตอบสนองโดยรวม และเวลาในการตอบสนองตามเมธอด API