|
Clique no seu provedor de Gemini API para conferir o conteúdo e o código específicos do provedor nesta página. |
O preço e a necessidade de o projeto do Firebase estar no plano de preços Blaze de pagamento por uso dependem do provedor de Gemini API escolhido e dos recursos do Firebase AI Logic que você usa.
O uso do Firebase AI Logic não tem custo financeiro.
No entanto, se você estiver no plano de preços Blaze, poderá incorrer em custos ao usar outros produtos em conjunto com o Firebase AI Logic.
Outros produtos do Firebase podem gerar custos. Para detalhes, consulte a página de preços.
- Usando alguns dos provedores de atestado compatíveis com Firebase App Check.
- Usar Cloud Storage for Firebase para enviar arquivos nas suas solicitações multimodais além dos níveis de uso sem custo financeiro.
Usar o Firebase Authentication além dos níveis de uso sem custos.
Usar qualquer um dos produtos de banco de dados do Firebase além dos níveis de uso sem custos financeiros.
O AI Monitoring no console do Firebase pode gerar custos.
Embora o AI Monitoring no console do Firebase seja sem custo financeiro, você pode gerar custos se exceder os níveis de uso sem custos financeiros dos produtos Google Cloud Observability Suite. Saiba mais na documentação de preços do Google Cloud Observability Suite.O provedor Gemini API escolhido pode gerar custos. Para mais detalhes, consulte os preços do Vertex AI Gemini API.
- Os preços são baseados principalmente no modelo e nos recursos que você usa.
Requisitos do plano de preços do Firebase para o provedor de API escolhido
Para usar o Vertex AI Gemini API, seu projeto precisa estar vinculado a uma conta do Cloud Billing. Isso significa que seu projeto do Firebase está no plano de preços Blaze de pagamento por uso.
Saiba mais sobre os preços do Vertex AI Gemini API na documentação.
Recomendações para gerenciar custos
Recomendamos que você faça o seguinte para gerenciar seus custos:
Para evitar cobranças inesperadas, monitore seus custos e uso e configure alertas de orçamento.
Ao usar modelos Gemini (exceto Live API), receba uma estimativa do tamanho do token das suas solicitações usando a API
countTokensantes de enviar as solicitações e acessar o atributousageMetadatanas respostas.Defina o orçamento de pensamento (somente para modelos Gemini 3 e Gemini 2.5) e o
maxOutputTokens(todos os modelos Gemini) na configuração do modelo.Ative o monitoramento de IA para conferir painéis no console do Firebase com informações sobre suas solicitações, incluindo contagens de tokens.