מעקב אחרי העלויות, השימוש ומדדים אחרים של תכונות ה-AI הוא חלק חשוב בהפעלת אפליקציה בייצור. אתם צריכים לדעת מהם דפוסי השימוש הרגילים באפליקציה שלכם ולוודא שאתם לא חורגים מספי השימוש שחשובים לכם.
בדף הזה מפורטות כמה אפשרויות מומלצות למעקב אחרי העלויות, השימוש ומדדים אחרים במסוף Firebase ובמסוף Google Cloud.
מעקב אחרי העלויות
בלוח הבקרה Usage and Billing במסוף Firebase, אפשר לראות את העלויות של הפרויקט על קריאה ל-Vertex AI Gemini API ול-Gemini Developer API (אם אתם משתמשים בתוכנית התמחור Blaze).
העלויות שמוצגות בלוח הבקרה לא בהכרח ספציפיות לשיחות באמצעות ערכות ה-SDK של לקוח Firebase AI Logic. העלויות שמוצגות משויכות לכל הקריאות ל-Gemini APIs, בין אם נעשה שימוש ב-SDK של לקוח Firebase AI Logic, ב-SDK של שרת Google GenAI, ב-Genkit, ב-Firebase Extensions ל-Gemini API, בקריאות REST, באחד מ-AI Studios או בלקוחות API אחרים.
מידע נוסף על התמחור של המוצרים שמשויכים לשימוש שלכם ב-Firebase AI Logic
הגדרת התראות
כדי להימנע מחשבונות לא צפויים, חשוב להגדיר התראות לגבי התקציב כשמשתמשים בתוכנית התמחור Blaze.
חשוב לציין שהתראות על תקציב לא מגבילות את התקציב. התראה תשלח לכם הודעות כשאתם מתקרבים לסף שהגדרתם או עוברים אותו, כדי שתוכלו לבצע פעולה באפליקציה או בפרויקט.
מעקב אחרי השימוש בתכונות מבוססות-AI במסוף Firebase
אפשרות זמינה רק כשמשתמשים ב-Vertex AI Gemini API כספק ה-API. |
אתם יכולים להפעיל מעקב מבוסס-AI בדף Firebase AI Logic במסוף Firebase כדי לעקוב אחרי מדדים שונים ברמת האפליקציה ונתוני שימוש, ולקבל תמונה מקיפה של הבקשות מ-SDKs של לקוחות Firebase AI Logic. לוחות הבקרה האלה מציגים נתונים מפורטים יותר מספירת האסימונים הבסיסית שמתקבלת מקריאה ל-Count Tokens API.
היכולות העיקריות של מעקב מבוסס-AI במסוף Firebase כוללות:
הצגת מדדים כמותיים כמו נפח הבקשות, זמן האחזור, השגיאות ושימוש באסימונים לכל מצב של כל אחת מהאפליקציות שלכם.
בדיקת עקבות כדי לראות את המאפיינים, הקלט והפלט של הבקשות, שיכולה לעזור בניפוי באגים ובשיפור האיכות.
פילוח הנתונים לפי מאפיינים כמו סטטוס הבקשה, זמן האחזור המינימלי, שם המודל ועוד.
כל התכונות האלה מבוססות על Google Cloud Observability Suite (מידע מפורט על המוצר מופיע בהמשך).
הפעלת מעקב מבוסס-AI
אלה הדרכים להפעלת מעקב מבוסס-AI במסוף Firebase:
כשמבצעים את תהליך ההגדרה הראשונית המודרכת מתוך הדף Firebase AI Logic
בכל שלב דרך Firebase AI Logic הכרטיסייה הגדרות
הדרישות להפעלה ולשימוש בניטור באמצעות AI:
צריך להיות לכם תפקיד בעלים או עורך בפרויקט, או תפקיד אדמין ב-Firebase Vertex AI.
פרויקט Firebase שלכם צריך להיות בתוכנית התמחור Blaze עם תשלום לפי שימוש (ראו מידע מפורט על המוצר בהמשך).
אתם צריכים להשתמש ב-Vertex AI Gemini API כספק ה-API שלכם (תמיכה ב-Gemini Developer API תהיה זמינה בקרוב!).
באפליקציה צריך להשתמש לפחות בגרסאות הבאות של ספריות Firebase:
iOS+: גרסה 11.13.0 ומעלה | Android: גרסה 16.0.0 ומעלה (BoM: גרסה 33.14.0 ומעלה) | Web: גרסה 11.8.0 ומעלה | Flutter: גרסה 2.0.0 ומעלה (BoM: גרסה 3.11.0 ומעלה) | Unity: גרסה 12.9.0 ומעלהבאפליקציה שלכם צריך להפעיל את איסוף הנתונים בהסכמה (האפשרות הזו מופעלת כברירת מחדל).
אחרי שהאפליקציה שלכם תעמוד בדרישות האלה ותפעילו את התכונה 'מעקב מבוסס-AI' במסוף, לא תצטרכו לעשות שום דבר נוסף באפליקציה או במסוף כדי שהנתונים יתחילו להתעדכן בלוחות הבקרה שבכרטיסייה Firebase AI Logic מעקב מבוסס-AI. יכול להיות שיהיה עיכוב קל (לפעמים עד 5 דקות) עד שהטלמטריה מבקשה תהיה זמינה במסוף Firebase.
שימוש מתקדם
בסעיף הזה מתואר ההגדרה של קצב הדגימה, וגם אפשרויות שונות לצפייה בנתונים ולעבודה איתם.
תדירות הדגימה
אם אתם שולחים מספר גדול של בקשות, מומלץ להשתמש בהגדרה של קצב הדגימה. תדירות הדגימה מציינת את שיעור הבקשות שעבורן נאספים בפועל פרטי מעקב.
בכרטיסייה Firebase AI Logic Settings במסוף Firebase, אפשר להגדיר את קצב הדגימה של הפרויקט לערך שבין 1 ל-100%. ערך של 100% אומר שהתכונה 'מעקב מבוסס-AI' תאסוף נתונים מכל התנועה. ערך ברירת המחדל הוא 100%. איסוף של פחות עקבות יפחית את העלויות, אבל גם יפחית את מספר העקבות שתוכלו לעקוב אחריהם. הערה: ללא קשר לשיעור הדגימה, הגרפים שמוצגים בלוח הבקרה של המעקב תמיד ישקפו את נפח התנועה האמיתי.
אפשרויות נוספות מחוץ למסוף Firebase
בנוסף למעקב אחר השימוש ב-AI שזמין במסוף Firebase, כדאי לשקול את האפשרויות הבאות:
כדאי לעיין ב-Vertex AI Model Garden.
לוחות הבקרה האלה מספקים תובנות נוספות לגבי מגמות של זמן האחזור וקצב העברת הנתונים של המודלים המנוהלים, בנוסף לתובנות שמתקבלות ממעקב אחר ה-AI במסוף Firebase.אפשר לעיין בנתונים ולהשתמש בהם באמצעות Google Cloud Observability Suite
. נתוני הטלמטריה למעקב אחרי AI מאוחסנים ב-Google Cloud Observability Suite שמשויך לפרויקט שלכם, כך שתוכלו לעיין בנתונים בלוחות הבקרה שלו, כולל Trace Explorer ו-Logs Explorer, שמקושרים לזמן שבו בודקים את העקבות האישיים במסוף Firebase. אפשר גם להשתמש בנתונים כדי ליצור מרכזי בקרה בהתאמה אישית, להגדיר התראות ועוד.
מידע מפורט על מוצרים שמשמשים למעקב אחרי AI
הנתונים שלכם מניטור ה-AI נשמרים במוצרים שונים שזמינים ב-Google Cloud Observability Suite, כולל Cloud Monitoring, Cloud Trace ו-Cloud Logging.
Cloud Monitoring: אחסון מדדים, כולל מספר הבקשות, שיעור ההצלחה וזמן האחזור של הבקשות.
Cloud Trace: שומר עקבות של כל בקשה כדי שתוכלו לראות את הפרטים בנפרד ולא בצורה מצטברת. בדרך כלל, מעקב משויך ליומנים כדי שתוכלו לבדוק את התוכן והתזמון של כל אינטראקציה.
Cloud Logging: תיעוד של מטא-נתונים של קלט, פלט והגדרות כדי לספק פרטים רבים על כל חלק בבקשת ה-AI.
נתוני הטלמטריה שלכם מאוחסנים במוצרים האלה, ולכן אתם יכולים לציין את הגדרות השמירה והגישה ישירות בכל מוצר (מידע נוסף זמין במסמכי התיעוד של Cloud Monitoring, Cloud Trace ו-Cloud Logging). שימו לב שההנחיות בפועל והפלט שנוצר מכל בקשה לדגימה מאוחסנים יחד עם המדדים.
תמחור
Google Cloud Observability Suite הוא שירות בתשלום, ולכן פרויקט Firebase שלכם צריך להיות בתוכנית התמחור Blaze בשיטת תשלום לפי שימוש. עם זאת, לכל מוצר יש רמות נדיבות ללא עלות. מידע נוסף זמין במסמכי התיעוד של התמחור ב-Google Cloud Observability Suite.
הצגת מדדי API ברמת הפרויקט במסוף Google Cloud
במסוף Google Cloud אפשר לראות מדדים ברמת הפרויקט לכל API, כמו שימוש.
שימו לב שדפי המסוף Google Cloud שמתוארים בקטע הזה לא כוללים מידע כמו תוכן הבקשה והתגובה ומספר האסימונים. כדי לעקוב אחרי סוג המידע הזה, כדאי להשתמש במעקב אחרי AI במסוף Firebase (ראו את הקטע הקודם).
במסוף Google Cloud, עוברים לדף Metrics של ה-API שרוצים להציג:
Vertex AI API: צפייה בשימוש שמשויך לכל בקשה אל Vertex AI Gemini API.
- כולל בקשות באמצעות ערכות SDK של לקוח Firebase AI Logic, ערכות SDK של שרת Google GenAI, Genkit, Firebase Extensions, Gemini API, REST API, Vertex AI Studio וכו'.
Gemini Developer API: הצגת השימוש שמשויך לכל בקשה אל Gemini Developer API.
- כולל בקשות באמצעות Firebase AI Logic client SDKs, the Google GenAI server SDKs, Genkit, the Firebase Extensions for Gemini API, REST API, Google AI Studio, etc.
- שם התצוגה של ה-API הזה במסוף Google Cloud הוא Generative Language API.
אם מגיעים ל'דף סקירה כללית' של ה-API, לוחצים על ניהול ואז על הכרטיסייה מדדים.
בתפריטים הנפתחים אפשר לראות את המדדים שמעניינים אתכם, כמו תנועת גולשים לפי קוד תגובה, שגיאות לפי method של API, חביון כולל וחביון לפי method של API.