Práticas recomendadas e considerações sobre modelos


Nesta página, descrevemos algumas práticas recomendadas e considerações sobre modelos de solicitação do servidor, incluindo recursos ainda não disponíveis. Muitos desses recursos não estão disponíveis na versão inicial dos modelos de solicitação do servidor. Confira as notas da versão para atualizações.

Práticas recomendadas

Muitas dessas práticas recomendadas também são detalhadas em Gerenciar seus modelos.

Controlar versões dos modelos

Proteja seu modelo

  • Bloqueie o modelo antes de ir para a produção. Evite editar modelos usados na produção.

    • O bloqueio de um modelo serve como proteção contra edições não intencionais, mas não impede totalmente a edição. Um membro do projeto com as permissões adequadas sempre pode desbloquear um modelo para edição.

    • Recomendamos bloquear modelos que estão sendo usados ativamente pelo código, principalmente o de produção.

  • Escreva uma validação de entrada forte para suas variáveis de entrada, o que pode ajudar com o seguinte:

    • Pode ajudar a proteger contra injeção de comandos.
    • Ajuda a garantir que as solicitações sejam bem-sucedidas e que as respostas sejam as esperadas.

Recursos ainda não disponíveis

Muitos desses recursos ainda não estão disponíveis na versão inicial. Confira as notas da versão para atualizações.

Recursos do Firebase AI Logic que ainda não são compatíveis

No momento, os modelos de comandos do servidor não são compatíveis com os seguintes recursos do Firebase AI Logic. Vários desses recursos serão lançados em breve.

  • Chat
  • Usar ferramentas (incluindo chamada de função e embasamento com a Pesquisa Google)
  • Edição iterativa de imagens (chat) com modelos Gemini (requer chat)
  • Editar imagens com modelos Imagen
  • Streaming bidirecional (API Gemini Live)
  • Híbrido no dispositivo
  • Restringir a saída a uma lista de enums
  • Como definir configurações relacionadas ao pensamento
  • Ajuste das configurações de segurança

Além disso, se você usar o monitoramento de IA no console Firebase, o ID do modelo ainda não será preenchido em nenhum registro.

Elementos comuns do Dotprompt ainda não compatíveis

Os modelos de comando do servidor provavelmente em breve vão oferecer suporte aos seguintes elementos comuns do Dotprompt:

  • Usando a especificação de esquema JSON para esquemas de entrada e saída no seu frontmatter.

    • Essa especificação também não é compatível com solicitações de modelos que não são do servidor. No momento, oferecemos suporte apenas à especificação de esquema OpenAPI.
  • Declarar uma definição de campo curinga usando *.

  • Usar @key ou iterar geralmente pelos campos de uma entrada de objeto (que é o caso em que @key é relevante).

  • Usando @root, que permite referenciar o contexto da variável raiz, independente do this atual.

Os modelos de comando do servidor provavelmente não serão compatíveis com os seguintes elementos comuns do Dotprompt:

  • Usando parciais, que são snippets de modelo reutilizáveis que podem ser incluídos em outros modelos.

Outras considerações

  • Por padrão, quando você usa a interface guiada no console do Firebase, provisionamos o modelo em todas as regiões disponíveis para Firebase AI Logic. Se você usa o Vertex AI Gemini API e seu caso de uso exige restrições com base em local, é possível especificar o local do modelo usando a API REST.

  • Se você quiser fornecer um modelo de solicitação do servidor como um arquivo (em vez de usar a interface guiada do console Firebase), use a API REST. Os modelos de comandos do servidor não são compatíveis com o esquema definido no código do app e transmitido ao modelo.

  • Embora o modelo esteja no servidor, ele não pode interagir diretamente com os outros recursos do lado do servidor do projeto do Firebase (como um banco de dados), exceto URLs Cloud Storage for Firebase (que podem ser fornecidos como variáveis de entrada).