Die Kosten, die Nutzung und andere Messwerte Ihrer KI-Funktionen zu beobachten, ist ein wichtiger Bestandteil des Betriebs einer Produktions-App. Sie müssen wissen, wie normale Nutzungsmuster für Ihre App aussehen, und darauf achten, dass Sie die für Sie wichtigen Grenzwerte nicht überschreiten.
Auf dieser Seite werden einige empfohlene Optionen zum Beobachten Ihrer Kosten, der Nutzung, und anderer Messwerte in der Firebase Console und der Google Cloud Console beschrieben.
Kosten beobachten
Im Nutzung und Abrechnung Dashboard der Firebase Console können Sie die Kosten für Ihr Projekt für Aufrufe der Vertex AI Gemini API und der Gemini Developer API einsehen (wenn Sie den Blaze-Tarif verwenden).
Die im Dashboard angezeigten Kosten beziehen sich nicht unbedingt auf Aufrufe mit den Firebase AI Logic Client-SDKs. Die angezeigten Kosten sind mit allen Aufrufen dieser "Gemini APIs" verknüpft, unabhängig davon, ob die Firebase AI Logic Client-SDKs, die Google GenAI Server SDKs, Genkit, die Firebase Extensions für die Gemini API, REST-Aufrufe, eines der AI Studios oder andere API-Clients verwendet werden.
Weitere Informationen zu den Preisen für die Produkte, die mit Ihrer Nutzung von Firebase AI Logic verbunden sind.
Benachrichtigung einrichten
Um unerwartete Rechnungen zu vermeiden, sollten Sie Budgetbenachrichtigungen einrichten wenn Sie den Blaze-Tarif verwenden.
Budgetbenachrichtigungen sind keine Budgetobergrenzen. Sie erhalten eine Benachrichtigung, wenn Sie den konfigurierten Grenzwert erreichen oder überschreiten, damit Sie in Ihrer App oder Ihrem Projekt Maßnahmen ergreifen können.
Nutzung Ihrer KI-Funktionen in der Firebase Console beobachten
Sie können das KI-Monitoring auf der Seite Firebase AI Logic der Firebase Console aktivieren, um verschiedene Messwerte und die Nutzung auf App-Ebene zu beobachten und so einen umfassenden Überblick über Ihre Anfragen von den Firebase AI Logic Client-SDKs zu erhalten. Diese Dashboards sind detaillierter als die grundlegenden Token-Anzahlen, die Sie bei einem Aufruf der Count Tokens API erhalten.
Zu den wichtigsten Funktionen des KI-Monitorings in der Firebase Console gehören:
Quantitative Messwerte wie Anfragevolumen, Latenz, Fehler und Token-Nutzung pro Modalität für jede Ihrer Apps ansehen.
Traces prüfen, um die Attribute, Eingaben und Ausgaben Ihrer Anfragen zu sehen. Das kann beim Debugging und bei der Qualitätsverbesserung helfen.
Daten nach Dimensionen wie Anfragestatus, Mindestlatenz, Modellname und mehr aufschlüsseln.
Alle diese Funktionen basieren auf Google Cloud Observability Suite (siehe detaillierte Produktinformationen unten).
KI-Monitoring aktivieren
So können Sie das KI-Monitoring in der Firebase Console aktivieren:
Wenn Sie den geführten Ersteinrichtungs-Workflow auf der Firebase AI Logic Seite durchlaufen
Jederzeit auf dem Firebase AI Logic Tab Einstellungen
Voraussetzungen für die Aktivierung und Nutzung des KI-Monitorings:
Sie müssen Projektinhaber, Bearbeiter oder Firebase Vertex AI-Administrator sein.
Ihre App muss mindestens diese Firebase-Bibliotheksversionen verwenden:
iOS+: v11.13.0 oder höher | Android: v16.0.0 oder höher (BoM: v33.14.0 oder höher) | Web: v11.8.0 oder höher | Flutter: v2.0.0 oder höher (BoM: v3.11.0 oder höher) | Unity: v12.9.0 oder höherFür Ihre App muss die optionale Datenerhebung aktiviert sein (standardmäßig aktiviert).
Wenn Ihre App diese Anforderungen erfüllt und Sie das KI-Monitoring in der Console aktivieren, müssen Sie nichts weiter in Ihrer App oder der Console tun, um Daten in den Dashboards auf dem Firebase AI Logic KI-Monitoring Tab zu sehen. Es kann eine kurze Verzögerung (manchmal bis zu 5 Minuten) geben, bis Telemetriedaten einer Anfrage von in der Firebase Console verfügbar sind.
Fortgeschrittene Nutzung
In diesem Abschnitt werden die Konfiguration der Abtastrate sowie verschiedene Optionen zum Ansehen und Verwenden Ihrer Daten beschrieben.
Abtastrate
Wenn Sie eine große Anzahl von Anfragen stellen, empfehlen wir, die Konfiguration der Abtastrate zu nutzen. Die Abtastrate gibt den Anteil der Anfragen an, für die tatsächlich Trace-Details erhoben werden.
Auf dem Firebase AI Logic Tab Einstellungen der Firebase Console können Sie die Abtastrate für Ihr Projekt auf einen Wert zwischen 1 und 100 % konfigurieren. 100% bedeutet, dass das KI-Monitoring Traces für den gesamten Traffic erfasst. Der Standardwert ist 100%. Wenn Sie weniger Traces erheben, sinken Ihre Kosten, aber auch die Anzahl der Traces, die Sie beobachten können. Unabhängig von der Abtastrate spiegeln die im Monitoring-Dashboard angezeigten Diagramme immer das tatsächliche Trafficvolumen wider.
Zusätzliche Optionen außerhalb der Firebase Konsole
Neben dem KI-Monitoring in der Firebase Console haben Sie folgende Möglichkeiten:
Vertex AI Model Garden erkunden .
Diese Dashboards bieten weitere Trendinformationen zu Latenz und Durchsatz für die verwalteten Modelle und ergänzen so die Informationen aus dem KI-Monitoring in der Firebase Console.Daten mit der Google Cloud Observability Suite erkunden und verwenden Google Cloud Observability Suite
Da Telemetriedaten für das KI-Monitoring in der Google Cloud Observability Suite gespeichert werden, die mit Ihrem Projekt verknüpft ist, können Sie Ihre Daten in den Dashboards erkunden, einschließlich Trace Explorer und Logs Explorer. Diese sind verlinkt, wenn Sie Ihre einzelnen Traces in der Firebase Console prüfen.Google Cloud Observability Suite Sie können Ihre Daten auch verwenden, um benutzerdefinierte Dashboards zu erstellen, Benachrichtigungen einzurichten und vieles mehr.
Detaillierte Informationen zu Produkten, die für das KI-Monitoring verwendet werden
Beim KI-Monitoring werden Ihre Telemetriedaten in verschiedenen Produkten gespeichert, die in Google Cloud Observability Suite verfügbar sind, darunter Cloud Monitoring, Cloud Trace und Cloud Logging.
Cloud Monitoring: Speichert Messwerte wie Anzahl der Anfragen, Erfolgsrate und Anfragelatenz.
Cloud Trace: Speichert Traces für jede Ihrer Anfragen, damit Sie Details einzeln und nicht aggregiert ansehen können. Ein Trace ist in der Regel mit Logs verknüpft, damit Sie den Inhalt und den Zeitpunkt jeder Interaktion prüfen können.
Cloud Logging: Erfasst Eingabe-, Ausgabe- und Konfigurationsmetadaten, um detaillierte Informationen zu jedem Teil Ihrer KI-Anfrage zu liefern.
Da Ihre Telemetriedaten in diesen Produkten gespeichert werden, können Sie die Aufbewahrungs- und Zugriffseinstellungen direkt in jedem Produkt festlegen (weitere Informationen finden Sie in der Dokumentation zu Cloud Monitoring, Cloud Trace und Cloud Logging).
Beim KI-Monitoring werden die tatsächlichen Prompts und die generierte Ausgabe aus jeder Stichprobenanfrage in Cloud Logging gespeichert, damit diese Daten in der Firebase Console verfügbar sind. Optional können Sie das Speichern von Prompts und Antworten deaktivieren.
Preise
Projekte mit dem kostenlosen Spark-Tarif (nur bei Verwendung der Gemini Developer API): Die Nutzung der zugrunde liegenden Dienste für das KI-Monitoring ist kostenlos.
Projekte mit dem Blaze-Tarif mit nutzungsabhängiger Bezahlung: Ihnen werden die Kosten für die Nutzung der zugrunde liegenden Google Cloud Observability Suite Produkte in Rechnung gestellt, die für das KI-Monitoring verwendet werden (unabhängig vom ausgewählten Gemini API Anbieter). Für jedes Google Cloud Observability Suite Produkt gibt es jedoch großzügige kostenlose Stufen. Weitere Informationen finden Sie in der Google Cloud Observability Suite Preisdokumentation.
(Optional) Speichern von Prompts und Antworten deaktivieren
Standardmäßig erfasst das KI-Monitoring die tatsächlichen Prompts, die an das Modell gesendet werden, und die vom Modell generierten Antworten, einschließlich sensibler Informationen (z. B. personenbezogene Daten) in diesen Prompts und Antworten. Alle diese Daten werden in Cloud Logging gespeichert, damit sie in der Firebase Console verfügbar sind.
Wenn Sie das Speichern von Prompts und Antworten deaktivieren möchten, fügen Sie der
Cloud Logging Senke
(in der Regel die _Default Senke) den folgenden
Ausschlussfilter hinzu:
resource.type="firebasevertexai.googleapis.com/Model"
API-Messwerte auf Projektebene in der Google Cloud Console ansehen
Für jede API können Sie in der Google Cloud Konsole Messwerte auf Projektebene wie die Nutzung ansehen.
Beachten Sie, dass die in diesem Abschnitt beschriebenen Google Cloud Konsolenseiten keine Informationen wie Anfragen- und Antwortinhalte und die Anzahl der Token enthalten. Wenn Sie diese Art von Informationen beobachten möchten, sollten Sie das KI-Monitoring in der Firebase Console verwenden (siehe vorheriger Abschnitt).
Rufen Sie in der Google Cloud Konsole die Messwerte Seite der API auf, die Sie ansehen möchten:
Vertex AI API: Hier sehen Sie die Nutzung, die mit jeder Anfrage an die Vertex AI Gemini API verbunden ist.
- Dazu gehören Anfragen mit den Firebase AI Logic Client-SDKs, den Google GenAI Server SDKs, Genkit, den Firebase Extensions für die Gemini API, der REST API, Vertex AI Studio, usw.
Gemini Developer API: Hier sehen Sie die Nutzung, die mit jeder Anfrage an die Gemini Developer API verbunden ist.
- Dazu gehören Anfragen mit den Firebase AI Logic Client-SDKs, den Google GenAI Server SDKs, Genkit, den Firebase Extensions für die Gemini API, der REST API, Google AI Studio, usw.
- Der Anzeigename dieser API in der Google Cloud Konsole ist "Generative Language API".
Wenn Sie sich auf einer "Übersichtsseite" für die API befinden, klicken Sie auf Verwalten und dann auf den Tab Messwerte.
Verwenden Sie die Drop-down-Menüs, um die gewünschten Messwerte aufzurufen, z. B. Traffic nach Antwortcode, Fehler nach API-Methode, Gesamtlatenz und Latenz nach API-Methode.