ตรวจสอบต้นทุน การใช้งาน และเมตริกอื่นๆ

การตรวจสอบต้นทุน การใช้งาน และเมตริกอื่นๆ ของฟีเจอร์ AI เป็นส่วนสําคัญของการใช้งานแอปเวอร์ชันที่ใช้งานจริง คุณต้องทราบรูปแบบการใช้งานปกติของแอปและตรวจสอบว่าคุณอยู่ในเกณฑ์ที่มีความสำคัญกับคุณ

หน้านี้จะอธิบายตัวเลือกที่แนะนําสําหรับตรวจสอบต้นทุน การใช้งาน และเมตริกอื่นๆ ทั้งในคอนโซล Firebase และคอนโซล Google Cloud

ตรวจสอบต้นทุน

ในหน้าแดชบอร์ดการใช้งานและการเรียกเก็บเงินของคอนโซล Firebase คุณสามารถดูต้นทุนของโปรเจ็กต์สำหรับการเรียกใช้ Vertex AI Gemini API และ Gemini Developer API (เมื่อใช้แพ็กเกจราคา Blaze)

ค่าใช้จ่ายที่แสดงในหน้าแดชบอร์ดไม่ได้จําเป็นต้องเจาะจงการเรียกใช้โดยใช้ Firebase AI LogicSDK ของไคลเอ็นต์ ค่าใช้จ่ายที่แสดงจะเชื่อมโยงกับการเรียกใช้ "Gemini API" ทั้งหมด ไม่ว่าจะใช้ SDK ไคลเอ็นต์ Firebase AI Logic, SDK เซิร์ฟเวอร์ Google GenAI, Genkit, Firebase Extensions สำหรับ Gemini API, การเรียก REST, AI Studio หรือไคลเอ็นต์ API อื่นๆ

ดูข้อมูลเพิ่มเติมเกี่ยวกับการกำหนดราคาสำหรับผลิตภัณฑ์ที่เชื่อมโยงกับการใช้ Firebase AI Logic

ตั้งค่าการแจ้งเตือน

โปรดตั้งค่าการแจ้งเตือนงบประมาณเมื่อใช้แพ็กเกจราคา Blaze เพื่อหลีกเลี่ยงการเรียกเก็บเงินที่ไม่คาดคิด

โปรดทราบว่าการแจ้งเตือนงบประมาณไม่ใช่ขีดจํากัดงบประมาณ การแจ้งเตือนจะส่งการสื่อสารถึงคุณเมื่อคุณใกล้ถึงหรือเกินเกณฑ์ที่กําหนดค่าไว้เพื่อให้คุณดําเนินการในแอปหรือโปรเจ็กต์ได้

ดูการใช้งานฟีเจอร์ AI ในคอนโซล Firebase

ใช้ได้เฉพาะเมื่อใช้ Vertex AI Gemini API เป็นผู้ให้บริการ API

คุณสามารถเปิดใช้การตรวจสอบ AI ในหน้า Firebase AI Logic ของคอนโซล Firebase เพื่อให้สามารถดูเมตริกและการใช้งานระดับแอปต่างๆ เพื่อให้เห็นภาพรวมคำขอจาก SDK ของไคลเอ็นต์ Firebase AI Logic แดชบอร์ดเหล่านี้จะแสดงข้อมูลโดยละเอียดมากกว่าจำนวนโทเค็นพื้นฐานที่คุณได้รับจากการเรียกใช้ Count Tokens API

ความสามารถหลักๆ ของการตรวจสอบ AI ในคอนโซล Firebase มีดังนี้

  • การดูเมตริกเชิงปริมาณ เช่น ปริมาณคําขอ เวลาในการตอบสนอง ข้อผิดพลาด และการใช้โทเค็นตามรูปแบบสําหรับแต่ละแอป

  • การตรวจสอบร่องรอยเพื่อดูแอตทริบิวต์ อินพุต และเอาต์พุตของคําขอ ซึ่งช่วยแก้ไขข้อบกพร่องและปรับปรุงคุณภาพได้

  • การแบ่งข้อมูลตามมิติข้อมูล เช่น สถานะคําขอ เวลาในการตอบสนองขั้นต่ำ ชื่อรุ่น และอื่นๆ

ฟีเจอร์ทั้งหมดเหล่านี้สร้างขึ้นโดยใช้ Google Cloud Observability Suite (ดูข้อมูลผลิตภัณฑ์โดยละเอียดด้านล่าง)

เปิดใช้การตรวจสอบ AI

วิธีเปิดใช้การตรวจสอบ AI ในคอนโซลมีดังนี้ Firebase

ข้อกำหนดในการเปิดใช้และใช้การตรวจสอบด้วย AI

  • คุณต้องเป็นเจ้าของโปรเจ็กต์ ผู้แก้ไข หรือผู้ดูแลระบบ Firebase Vertex AI

  • โปรเจ็กต์ Firebase ของคุณต้องใช้แพ็กเกจราคาแบบจ่ายเมื่อใช้ของ Blaze (ดูข้อมูลผลิตภัณฑ์โดยละเอียดด้านล่าง)

  • คุณต้องใช้ Vertex AI Gemini API เป็นผู้ให้บริการ API (การรองรับ Gemini Developer API จะพร้อมให้บริการในเร็วๆ นี้)

  • แอปของคุณต้องใช้ไลบรารี Firebase เวอร์ชันเป็นอย่างน้อย
    iOS+: v11.13.0+ | Android: v16.0.0+ (BoM: v33.14.0+) | เว็บ: v11.8.0+ | Flutter: v2.0.0+ (BoM: v3.11.0+) | Unity: v12.9.0+

  • แอปของคุณต้องเปิดใช้การเก็บรวบรวมข้อมูลที่เลือกรับ (ซึ่งเปิดใช้โดยค่าเริ่มต้น)

หลังจากแอปของคุณเป็นไปตามข้อกำหนดเหล่านี้และคุณเปิดใช้การตรวจสอบ AI ในคอนโซลแล้ว คุณไม่จําเป็นต้องดําเนินการใดๆ ในแอปหรือคอนโซลเพื่อเริ่มเห็นข้อมูลปรากฏในหน้าแดชบอร์ดในFirebase AI Logicแท็บการตรวจสอบ AI ระบบอาจมีความล่าช้าเล็กน้อย (บางครั้งอาจนานถึง 5 นาที) ก่อนที่ข้อมูลการวัดผลจากคำขอจะพร้อมใช้งานในคอนโซล Firebase

การใช้งานขั้นสูง

ส่วนนี้จะอธิบายการกำหนดค่าอัตราตัวอย่าง รวมถึงตัวเลือกต่างๆ ในการดูและทำงานกับข้อมูล

อัตราการสุ่มตัวอย่าง

หากคุณส่งคำขอจํานวนมาก เราขอแนะนําให้ใช้ประโยชน์จากการกําหนดค่าอัตราการสุ่มตัวอย่าง อัตราการสุ่มตัวอย่างระบุสัดส่วนคำขอที่ระบบรวบรวมข้อมูลจริง

ในFirebase AI Logic แท็บการตั้งค่า ของคอนโซล Firebase คุณสามารถกําหนดค่าอัตราการสุ่มตัวอย่างสําหรับโปรเจ็กต์เป็นค่าตั้งแต่ 1 ถึง 100% โดยที่ 100% จะส่งการเข้าชมทั้งหมดไปยังการตรวจสอบ AI ซึ่งค่าเริ่มต้นคือ 100% การส่งการเข้าชมมากขึ้นจะเพิ่มความแม่นยำของเมตริก แต่ก็จะเพิ่มค่าใช้จ่ายในการตรวจสอบด้วย โปรดทราบว่ากราฟที่แสดงในแดชบอร์ดการตรวจสอบจะอิงตามอัตราการสุ่มตัวอย่าง ดังนั้นหากอัตราการสุ่มตัวอย่างคือ 50% คุณควรเพิ่มจำนวนคำขอ การใช้โทเค็น ฯลฯ เป็น 2 เท่าเพื่อประมาณปริมาณจริง

ตัวเลือกเพิ่มเติมนอกคอนโซล Firebase

นอกจากการตรวจสอบ AI ที่มีให้ในคอนโซล Firebase แล้ว คุณยังพิจารณาใช้ตัวเลือกต่อไปนี้ได้ด้วย

  • สํารวจสวนโมเดล Vertex AI
    แดชบอร์ดเหล่านี้ให้ข้อมูลเชิงลึกเพิ่มเติมเกี่ยวกับแนวโน้มของเวลาในการตอบสนองและอัตราข้อมูลผ่านสำหรับโมเดลที่มีการจัดการ ซึ่งช่วยเสริมข้อมูลเชิงลึกจากการตรวจสอบ AI ในคอนโซล Firebase

  • สํารวจและใช้ข้อมูลของคุณด้วย Google Cloud Observability Suite
    เนื่องจากระบบจะจัดเก็บข้อมูลการวัดผลระยะไกลสําหรับการตรวจสอบ AI ใน Google Cloud Observability Suite ที่เชื่อมโยงกับโปรเจ็กต์ของคุณ คุณจึงสํารวจข้อมูลในหน้าแดชบอร์ดของ Google Cloud Observability Suite ได้ ซึ่งรวมถึง Trace Explorer และ Logs Explorer ที่ลิงก์ไว้เมื่อคุณตรวจสอบร่องรอยแต่ละรายการในคอนโซล Firebase นอกจากนี้ คุณยังใช้ข้อมูลเพื่อสร้างแดชบอร์ดที่กำหนดเอง ตั้งค่าการแจ้งเตือน และอื่นๆ ได้ด้วย

ข้อมูลโดยละเอียดเกี่ยวกับผลิตภัณฑ์ที่ใช้สำหรับการตรวจสอบ AI

การตรวจสอบด้วยระบบ AI จะจัดเก็บข้อมูลการวัดระยะทางในผลิตภัณฑ์ต่างๆ ที่มีให้บริการใน Google Cloud Observability Suite ซึ่งรวมถึง Cloud Monitoring, Cloud Trace และ Cloud Logging

  • Cloud Monitoring: จัดเก็บเมตริกต่างๆ ซึ่งรวมถึงจํานวนคําขอ อัตราความสําเร็จ และเวลาในการตอบสนองของคําขอ

  • Cloud Trace: จัดเก็บร่องรอยสําหรับคําขอแต่ละรายการเพื่อให้คุณดูรายละเอียดแต่ละรายการได้ แทนที่จะดูแบบรวม โดยปกติแล้ว การติดตามจะเชื่อมโยงกับบันทึกเพื่อให้คุณตรวจสอบเนื้อหาและช่วงเวลาของการโต้ตอบแต่ละครั้งได้

  • Cloud Logging: บันทึกข้อมูลเมตาของอินพุต เอาต์พุต และการกำหนดค่าเพื่อแสดงรายละเอียดที่สมบูรณ์เกี่ยวกับแต่ละส่วนของคำขอ AI

เนื่องจากระบบจัดเก็บข้อมูลการวัดผลในผลิตภัณฑ์เหล่านี้ คุณจึงระบุการตั้งค่าการเก็บรักษาและการเข้าถึงได้โดยตรงภายในผลิตภัณฑ์แต่ละรายการ (ดูข้อมูลเพิ่มเติมในเอกสารประกอบสำหรับ Cloud Monitoring, Cloud Trace และ Cloud Logging) โปรดทราบว่าระบบจะจัดเก็บพรอมต์จริงและเอาต์พุตที่สร้างขึ้นจากคำขอที่สุ่มตัวอย่างแต่ละรายการไว้พร้อมกับเมตริก

ราคา

Google Cloud Observability Suite เป็นบริการแบบชำระเงิน ดังนั้นโปรเจ็กต์ Firebase ของคุณจึงต้องอยู่ในแพ็กเกจราคาแบบจ่ายตามการใช้งานจริงของ Blaze อย่างไรก็ตาม ผลิตภัณฑ์แต่ละรายการมีระดับที่ไม่มีค่าใช้จ่ายมากมาย ดูข้อมูลเพิ่มเติมในเอกสารประกอบเกี่ยวกับราคาของ Google Cloud Observability Suite

ดูเมตริก API ระดับโปรเจ็กต์ในคอนโซล Google Cloud

สําหรับ API แต่ละรายการ คุณสามารถดูเมตริกระดับโปรเจ็กต์ เช่น การใช้งาน ในคอนโซล Google Cloud

โปรดทราบว่าGoogle Cloudหน้าคอนโซลที่อธิบายในส่วนนี้ไม่มีข้อมูล เช่น เนื้อหาคำขอและการตอบกลับ รวมถึงจำนวนโทเค็น หากต้องการตรวจสอบข้อมูลประเภทดังกล่าว ให้ลองใช้การตรวจสอบ AI ในคอนโซล Firebase (ดูส่วนก่อนหน้า)

  1. ในคอนโซล Google Cloud ให้ไปที่หน้าเมตริกของ API ที่ต้องการดู

    • Vertex AI API: ดูการใช้งานที่เชื่อมโยงกับคําขอทั้งหมดที่ส่งไปยัง Vertex AI Gemini API

      • รวมถึงคำขอที่ใช้ Firebase AI LogicSDK ของไคลเอ็นต์, SDK ของเซิร์ฟเวอร์ GenAI ของ Google, Genkit, Firebase Extensions ของ Gemini API, REST API, Vertex AI Studio ฯลฯ
    • Gemini Developer API: ดูการใช้งานที่เชื่อมโยงกับคำขอทั้งหมดใน Gemini Developer API

      • รวมถึงคําขอที่ใช้ Firebase AI LogicSDK ของไคลเอ็นต์, SDK ของเซิร์ฟเวอร์ GenAI ของ Google, Genkit, Firebase Extensions ของ Gemini API, REST API, Google AI Studio ฯลฯ
      • ชื่อที่แสดงของ API นี้ในGoogle Cloudคอนโซลคือ "Generative Language API"

    หากพบว่าตัวเองอยู่ใน "หน้าภาพรวม" ของ API ให้คลิกจัดการ แล้วคลิกแท็บเมตริก

  2. ใช้เมนูแบบเลื่อนลงเพื่อดูเมตริกที่น่าสนใจ เช่น การเข้าชมตามรหัสการตอบกลับ ข้อผิดพลาดตามเมธอด API เวลาในการตอบสนองโดยรวม และเวลาในการตอบสนองตามเมธอด API