מעקב אחרי עלויות, שימוש ומדדים אחרים

מעקב אחרי העלויות, השימוש ומדדים אחרים של תכונות ה-AI הוא חלק חשוב בהפעלת אפליקציה בייצור. אתם צריכים לדעת מהם דפוסי השימוש הרגילים באפליקציה שלכם ולוודא שאתם לא חורגים מספי השימוש שחשובים לכם.

בדף הזה מפורטות כמה אפשרויות מומלצות למעקב אחרי העלויות, השימוש ומדדים אחרים במסוף Firebase ובמסוף Google Cloud.

מעקב אחרי העלויות

בלוח הבקרה Usage and Billing במסוף Firebase אפשר לראות את העלויות של הפרויקט על קריאה ל-Vertex AI Gemini API ול-Gemini Developer API (אם אתם משתמשים בתוכנית Blaze בתשלום לפי שימוש).

העלויות שמוצגות בלוח הבקרה לא בהכרח ספציפיות לשיחות באמצעות ערכות ה-SDK של לקוח Firebase AI Logic. העלויות שמוצגות משויכות לכל הקריאות ל-Gemini APIs, בין אם נעשה שימוש ב-SDK של לקוח Firebase AI Logic, ב-SDK של שרת Google GenAI, ב-Genkit, ב-Firebase Extensions ל-Gemini API, בקריאות REST, באחד מ-AI Studios או בלקוחות API אחרים.

מידע נוסף על תמחור של מוצרים שמשויכים לשימוש שלכם ב-Firebase AI Logic

הגדרת התראות

כדי להימנע מחשבונות מפתיעים, חשוב להגדיר התראות לגבי התקציב כשמשתמשים בתוכנית Blaze בתשלום לפי שימוש.

חשוב לציין שהתראות על תקציב אינן תקרה לתקציב. התראה תשלח לכם הודעות כשאתם מתקרבים לסף שהגדרתם או עוברים אותו, כדי שתוכלו לפעול באפליקציה או בפרויקט.

מעקב אחרי השימוש בתכונות ה-AI במסוף Firebase

אתם יכולים להפעיל את התכונה 'מעקב אחרי שימוש בתכונות AI' בדף Firebase AI Logic במסוף Firebase כדי לעקוב אחרי מדדים שונים ברמת האפליקציה ונתוני שימוש, ולקבל תמונה מקיפה של הבקשות מ-SDKs של לקוחות Firebase AI Logic. לוחות הבקרה האלה מפורטים יותר מספירת האסימונים הבסיסית שמתקבלת מקריאה ל-Count Tokens API.

.

היכולות העיקריות של מעקב אחרי שימוש בתכונות AI במסוף Firebase כוללות:

  • צפייה במדדים כמותיים כמו נפח הבקשות, זמן האחזור, השגיאות ושימוש באסימונים לכל מצב של כל אחת מהאפליקציות.

  • בדיקת עקבות כדי לראות את המאפיינים, הקלט והפלט של הבקשות שלכם, מה שיכול לעזור בניפוי באגים ובשיפור האיכות.

  • פילוח הנתונים לפי מאפיינים כמו סטטוס הבקשה, זמן האחזור המינימלי, שם המודל ועוד.

כל התכונות האלה מבוססות על Google Cloud Observability Suite (מידע מפורט על המוצר מופיע בהמשך).

הפעלת מעקב אחרי שימוש בתכונות AI

אלה הדרכים להפעלת מעקב אחרי שימוש בתכונות AI במסוף Firebase:

הדרישות להפעלה ולשימוש במעקב מבוסס-AI:

  • צריך להיות לכם תפקיד 'בעלים' או 'עריכה' בפרויקט, או תפקיד אדמין ב-Firebase Vertex AI.

  • באפליקציה צריך להשתמש לפחות בגרסאות הבאות של ספריות Firebase:‏
    iOS+‎: גרסה 11.13.0 ואילך | ‫Android: גרסה 16.0.0 ואילך (BoM: גרסה 33.14.0 ואילך) | ‫Web: גרסה 11.8.0 ואילך | ‫Flutter: גרסה 2.0.0 ואילך (BoM: גרסה 3.11.0 ואילך) | ‫Unity: גרסה 12.9.0 ואילך

  • באפליקציה שלכם צריך להפעיל את איסוף הנתונים בהסכמה (האפשרות הזו מופעלת כברירת מחדל).

אחרי שהאפליקציה שלכם תעמוד בדרישות האלה ותפעילו את התכונה 'מעקב אחרי שימוש בתכונות AI' במסוף, לא תצטרכו לעשות שום דבר נוסף באפליקציה או במסוף כדי שהנתונים יתחילו להתעדכן בלוחות הבקרה שבכרטיסייה Firebase AI Logic מעקב אחרי שימוש בתכונות AI. יכול להיות שיהיה עיכוב קל (לפעמים עד 5 דקות) עד שהטלמטריה מבקשה תהיה זמינה במסוף Firebase.

שימוש מתקדם

בקטע הזה מתואר ההגדרה של קצב הדגימה, וגם אפשרויות שונות לצפייה בנתונים ולעבודה איתם.

תדירות הדגימה

אם אתם שולחים מספר גדול של בקשות, מומלץ להשתמש בהגדרה של קצב הדגימה. שיעור הדגימה מציין את שיעור הבקשות שעבורן נאספים בפועל פרטי מעקב.

בכרטיסייה Firebase AI Logic Settings במסוף Firebase, אפשר להגדיר את תדירות הדגימה של הפרויקט לערך שבין 1 ל-100%. ערך של 100% אומר שהתכונה 'מעקב אחרי שימוש בתכונות AI' תאסוף יומני מעקב מכל תעבורת הנתונים. ערך ברירת המחדל הוא 100%. איסוף של פחות עקבות יפחית את העלויות, אבל גם יקטין את מספר העקבות שתוכלו לעקוב אחריהם. הערה: ללא קשר לשיעור הדגימה, הגרפים שמוצגים בלוח הבקרה של המעקב תמיד ישקפו את נפח התנועה האמיתי.

אפשרויות נוספות מחוץ למסוף Firebase

בנוסף למעקב אחרי שימוש בתכונות AI שזמין במסוף Firebase, כדאי לשקול את האפשרויות הבאות:

  • כדאי לעיין ב-Vertex AI Model Garden.
    לוחות הבקרה האלה מספקים תובנות נוספות לגבי מגמות של זמן האחזור ותפוקה של המודלים המנוהלים, בנוסף לתובנות שמתקבלות ממעקב אחרי שימוש בתכונות AI במסוף Firebase.

  • אפשר לעיין בנתונים ולהשתמש בהם באמצעות Google Cloud Observability Suite
    . נתוני הטלמטריה למעקב אחרי שימוש בתכונות AI מאוחסנים ב-Google Cloud Observability Suite שמשויך לפרויקט שלכם. לכן, אתם יכולים לעיין בנתונים בלוחות הבקרה שלו, כולל Trace Explorer ו-Logs Explorer, שמקושרים לזמן שבו אתם בודקים את העקבות האישיים שלכם במסוף Firebase. אפשר גם להשתמש בנתונים כדי ליצור מרכזי בקרה בהתאמה אישית, להגדיר התראות ועוד.

מידע מפורט על מוצרים שמשמשים למעקב אחרי שימוש בתכונות AI

הנתונים הטלמטריים שלכם ממעקב אחרי שימוש בתכונות AI נשמרים במוצרים שונים שזמינים ב-Google Cloud Observability Suite, כולל Cloud Monitoring,‏ Cloud Trace ו-Cloud Logging.

  • Cloud Monitoring: אחסון מדדים, כולל מספר הבקשות, שיעור ההצלחה והשהיית הבקשה.

  • Cloud Trace: מאחסן עקבות של כל בקשה, כדי שתוכלו לראות את הפרטים בנפרד ולא במצטבר. בדרך כלל, מעקב משויך ליומנים כדי שתוכלו לבדוק את התוכן ואת התזמון של כל אינטראקציה.

  • Cloud Logging: תיעוד של מטא-נתונים של קלט, פלט והגדרות כדי לספק פרטים עשירים על כל חלק בבקשת ה-AI.

מכיוון שנתוני הטלמטריה שלכם מאוחסנים במוצרים האלה, אתם יכולים לציין את הגדרות השמירה והגישה ישירות בכל מוצר (מידע נוסף זמין במסמכי התיעוד של Cloud Monitoring, Cloud Trace ו-Cloud Logging).

שימו לב: המערכת למעקב אחרי שימוש בתכונות AI מאחסנת את ההנחיות הממשיות ואת הפלט שנוצר מכל בקשה שנדגמה ב-Cloud Logging, כך שהנתונים האלה יהיו זמינים במסוף Firebase. אפשר גם להשבית את האפשרות לשמור את ההנחיות והתשובות.

תמחור

  • פרויקטים בתוכנית התמחור Spark ללא עלות (זמינה רק כשמשתמשים ב-Gemini Developer API): השימוש בשירותים הבסיסיים לצורך מעקב אחרי שימוש בתכונות AI הוא ללא עלות.

  • פרויקטים בתוכנית Blaze בתשלום לפי שימוש: תחויבו על השימוש במוצרי Google Cloud Observability Suite הבסיס שבהם נעשה שימוש במעקב אחרי שימוש בתכונות AI (ללא קשר לספק Gemini API שבחרתם). עם זאת, לכל מוצר Google Cloud Observability Suite יש רמות שימוש נדיבות ללא עלות. מידע נוסף זמין בGoogle Cloud Observability Suiteמאמרי העזרה בנושא תמחור.

(אופציונלי) השבתת השמירה של ההנחיות והתשובות

כברירת מחדל, מעקב אחרי שימוש בתכונות AI מתעד את ההנחיות האמיתיות שנשלחות למודל ואת התשובות שהמודל יוצר, כולל מידע רגיש (כמו פרטים אישיים מזהים (PII)) בהנחיות ובתשובות האלה. כל הנתונים האלה מאוחסנים ב-Cloud Logging כדי שאפשר יהיה לגשת אליהם במסוף Firebase.

כדי להשבית את האחסון של ההנחיות והתשובות, מוסיפים את מסנן ההחרגה הבא לCloud Logging sink (בדרך כלל _Default sink): resource.type="firebasevertexai.googleapis.com/Model".

הצגת מדדי API ברמת הפרויקט במסוף Google Cloud

במסוף Google Cloud אפשר לראות מדדים ברמת הפרויקט, כמו שימוש, לכל API.

שימו לב שדפי המסוף Google Cloud שמתוארים בקטע הזה לא כוללים מידע כמו תוכן הבקשה והתגובה ומספר האסימונים. כדי לעקוב אחרי סוג המידע הזה, כדאי להשתמש במעקב אחרי שימוש בתכונות AI במסוף Firebase (ראו את הקטע הקודם).

  1. במסוף Google Cloud, עוברים לדף Metrics של ה-API שרוצים לראות:

    • Vertex AI API: צפייה בשימוש שמשויך לכל בקשה אל Vertex AI Gemini API.

      • כולל בקשות באמצעות SDKs של לקוחות,‏ Firebase AI Logic, ‏ Genkit, ‏ Firebase Extensions, ‏ Gemini API, ‏ API בארכיטקטורת REST, ‏ Vertex AI Studio וכו'.
    • Gemini Developer API: צפייה בנתוני השימוש שמשויכים לכל בקשה אל Gemini Developer API.

      • כולל בקשות באמצעות Firebase AI Logic client SDKs, the Google GenAI server SDKs, Genkit, the Firebase Extensions for Gemini API, API בארכיטקטורת REST, Google AI Studio, etc.
      • השם המוצג של ה-API הזה במסוף Google Cloud הוא Generative Language API.

    אם מגיעים ל'דף סקירה כללית' של ה-API, לוחצים על ניהול ואז על הכרטיסייה מדדים.

  2. משתמשים בתפריטים הנפתחים כדי לראות את המדדים שמעניינים אתכם, כמו תעבורת נתונים לפי קוד תגובה, שגיאות לפי method של API, זמן טעינה כולל וזמן טעינה לפי method של API.