Générer du texte à partir de requêtes textuelles à l'aide de l'API Gemini


Lorsque vous appelez Gemini API à partir de votre application à l'aide d'un SDK Vertex AI in Firebase, vous pouvez demander au modèle Gemini de générer du texte à partir d'une entrée textuelle uniquement.

Avant de commencer

Si ce n'est pas déjà fait, consultez le guide de démarrage, qui explique comment configurer votre projet Firebase, connecter votre application à Firebase, ajouter le SDK, initialiser le service Vertex AI et créer une instance GenerativeModel.

Générer du texte à partir d'une entrée textuelle

Vous pouvez appeler Gemini API avec une entrée qui ne comprend que du texte. Pour ces appels, vous devez utiliser un modèle compatible avec les requêtes textuelles uniquement (comme Gemini 2.0 Flash).

Indiquez si vous souhaitez diffuser la réponse (generateContentStream) ou attendre la réponse jusqu'à ce que le résultat complet soit généré (generateContent).

Vous pouvez accélérer les interactions en n'attendant pas le résultat complet de la génération du modèle, et en utilisant plutôt le streaming pour gérer les résultats partiels.

Cet exemple montre comment utiliser generateContentStream pour diffuser du texte généré à partir d'une requête d'invite qui n'inclut que du texte:

import FirebaseVertexAI

// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()

// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")

// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."

// To stream generated text output, call generateContentStream with the text input
let contentStream = try model.generateContentStream(prompt)
for try await chunk in contentStream {
  if let text = chunk.text {
    print(text)
  }
}

Vous pouvez également attendre le résultat complet au lieu de le diffuser en streaming. Le résultat n'est renvoyé qu'une fois que le modèle a terminé l'ensemble du processus de génération.

Cet exemple montre comment utiliser generateContent pour générer du texte à partir d'une requête de requête qui n'inclut que du texte:

import FirebaseVertexAI

// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()

// Create a `GenerativeModel` instance with a model that supports your use case
let model = vertex.generativeModel(modelName: "gemini-2.0-flash")

// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."

// To generate text output, call generateContent with the text input
let response = try await model.generateContent(prompt)
print(response.text ?? "No text in response.")

Découvrez comment choisir un modèle et éventuellement un emplacement adapté à votre cas d'utilisation et à votre application.

Qu'est-ce que tu sais faire d'autre ?

Essayer d'autres fonctionnalités

Découvrez comment contrôler la génération de contenu.

Vous pouvez également tester des requêtes et des configurations de modèle à l'aide de Vertex AI Studio.

En savoir plus sur les modèles compatibles

Découvrez les modèles disponibles pour différents cas d'utilisation, ainsi que leurs quotas et leurs tarifs.


Envoyer des commentaires sur votre expérience avec Vertex AI in Firebase