监控 AI 功能的费用、使用情况和其他指标是运行生产应用的重要环节。您需要了解应用的正常使用模式,并确保其未超出重要阈值。
本页面介绍了一些建议的选项,可用于在 Firebase 控制台和 Google Cloud 控制台中监控费用、用量和其他指标。
监控费用
在 Firebase 控制台的使用量和结算信息中心中,您可以查看项目调用 Vertex AI Gemini API 和 Gemini Developer API(当您采用 Blaze 定价方案时)的费用。
信息中心内显示的费用不一定专指使用 Firebase AI Logic 客户端 SDK 的调用所产生的费用。显示的费用与对这些“Gemini API”的任何调用相关联,无论这些调用是使用 Firebase AI Logic 客户端 SDK、Google GenAI 服务器 SDK、Genkit、Gemini API 的 Firebase Extensions、REST 调用、某个 AI Studio 还是其他 API 客户端。
详细了解与您使用 Firebase AI Logic 相关的产品的价格。
设置提醒
为避免产生意外账单,请务必在采用 Blaze 定价方案时设置预算提醒。
请注意,预算提醒不是预算上限。当您接近或超过配置的阈值时,系统会向您发送提醒信息,以便您在应用或项目中采取行动。
在 Firebase 控制台中查看 AI 功能的使用情况
仅在将 Vertex AI Gemini API 用作 API 提供方时可用。 |
您可以在 Firebase 控制台的 Firebase AI Logic 页面中启用 AI 监控,以便观察各种应用级指标和使用情况,从而全面了解来自 Firebase AI Logic 客户端 SDK 的请求。这些信息中心比通过调用 Count Tokens API 获取的基本令牌数量更深入。
Firebase 控制台中的 AI 监控功能包括:
查看每款应用的请求量、延迟时间、错误等定量指标,以及每种模态的令牌使用情况。
检查轨迹以查看请求的属性、输入和输出,这有助于进行调试和提高质量。
按请求状态、最低延迟时间、模型名称等维度对数据进行切片。
所有这些功能都是使用 Google Cloud Observability Suite 构建的(请参阅下文中的详细产品信息)。
启用 AI 监控
您可以通过以下方式在 Firebase 控制台中启用 AI 监控功能:
当您从 Firebase AI Logic 页面完成初始引导式设置工作流程时
随时在Firebase AI Logic 设置标签页中执行以下操作
启用和使用 AI 监控功能的要求:
您必须是项目所有者、编辑者或 Firebase Vertex AI 管理员。
您的 Firebase 项目必须采用随用随付 Blaze 定价方案(请参阅下方的详细产品信息)。
您必须使用 Vertex AI Gemini API 作为 API 提供方(很快就会支持 Gemini Developer API!)。
您的应用必须至少使用以下 Firebase 库版本:
iOS+:v11.13.0+ | Android:v16.0.0+(BoM:v33.14.0+)| Web:v11.8.0+ | Flutter:v2.0.0+(BoM:v3.11.0+)| Unity:v12.9.0+您的应用必须启用选择性数据收集功能(此功能默认处于启用状态)。
应用满足这些要求并在控制台中启用 AI 监控后,您无需在应用或控制台中执行任何其他操作,即可开始在 Firebase AI Logic AI 监控标签页中看到数据填充信息中心。 请求的遥测数据可能需要过一段时间(有时长达 5 分钟)才能在 Firebase 控制台中显示。
高级用法
本部分介绍了抽样率配置,以及用于查看和处理数据的不同选项。
采样率
如果您要发出大量请求,建议您利用抽样率配置。采样率表示在所有请求中,系统实际收集了跟踪详情的请求所占的比例。
在 Firebase 控制台的Firebase AI Logic “设置”标签页中,您可以将项目的采样率配置为 1% 到 100% 之间的值,其中 100% 表示 AI 监控功能将收集所有流量的轨迹。默认值为 100%。收集的轨迹越少,费用就越低,但可监控的轨迹数量也会减少。请注意,无论采样率是多少,监控信息中心内显示的图表始终会反映真实的流量。
Firebase 控制台之外的其他选项
除了 Firebase 控制台中提供的 AI 监控功能之外,您还可以考虑以下选项:
探索 Vertex AI Model Garden。
这些信息中心可提供有关受管模型的延迟时间和吞吐量的更多趋势分析,从而补充您在 Firebase 控制台中通过 AI 监控获得的分析。使用 Google Cloud Observability Suite
探索和使用数据 由于 AI 监控的遥测数据存储在与项目关联的 Google Cloud Observability Suite 中,因此您可以在其信息中心内探索数据,包括 Trace Explorer 和 Logs Explorer,当您在 Firebase 控制台中检查各个轨迹时,这些信息中心会链接到相应轨迹。您还可以使用这些数据来构建自定义信息中心、设置提醒等。
有关用于 AI 监控的产品的详细信息
AI 监控功能会将遥测数据存储在 Google Cloud Observability Suite 中提供的各种产品中,包括 Cloud Monitoring、Cloud Trace 和 Cloud Logging。
Cloud Monitoring:存储指标,包括请求数、成功率和请求延迟时间。
Cloud Trace:存储每个请求的轨迹,以便您可以单独查看详细信息,而不是汇总查看。轨迹通常与日志相关联,以便您可以检查每次互动的内容和时间。
Cloud Logging:捕获输入、输出和配置元数据,以提供有关 AI 请求各部分的丰富详细信息。
由于您的遥测数据存储在这些产品中,因此您可以直接在每个产品中指定保留和访问设置(如需了解详情,请参阅 Cloud Monitoring、Cloud Trace 和 Cloud Logging 的文档)。请注意,每个抽样请求的实际提示和生成的输出会与指标一起存储。
价格
Google Cloud Observability Suite 是一项付费服务,因此您的 Firebase 项目必须采用随用随付 Blaze 定价方案。不过,每款产品都有慷慨的免费层级。 如需了解详情,请参阅 Google Cloud Observability Suite 价格文档。
在 Google Cloud 控制台中查看项目级 API 指标
对于每个 API,您都可以在 Google Cloud 控制台中查看项目级指标,例如用量。
请注意,本部分中介绍的 Google Cloud 控制台页面不包含请求和响应内容以及令牌数量等信息。如需监控此类信息,请考虑使用 Firebase 控制台中的 AI 监控(请参阅上一部分)。
在 Google Cloud 控制台中,前往要查看的 API 的指标页面:
Vertex AI API:查看与向 Vertex AI Gemini API 发出的任何请求相关联的使用情况。
- 包括使用 Firebase AI Logic 客户端 SDK、Google GenAI 服务器 SDK Genkit、Firebase Extensions(适用于 Gemini API)REST API Vertex AI Studio 等发出的请求。
Gemini Developer API:查看与向 Gemini Developer API 发出的任何请求相关联的用量。
- 包括使用 Firebase AI Logic 客户端 SDK、Google GenAI 服务器 SDK Genkit、Firebase Extensions(适用于 Gemini API)、REST API Google AI Studio 等发出的请求。
- 此 API 在 Google Cloud 控制台中的显示名称为“Generative Language API”。
如果您发现自己位于 API 的“概览”页面上,请点击管理,然后点击指标标签页。
使用下拉菜单查看感兴趣的指标,例如按响应代码划分的流量、按 API 方法划分的错误、总体延迟时间和按 API 方法划分的延迟时间。