Fundierung mit der Google Suche

Durch die Fundierung mit der Google Suche wird ein Gemini-Modell mit öffentlich verfügbaren Webinhalten in Echtzeit verbunden. So kann das Modell genauere und aktuellere Antworten geben und verifizierbare Quellen zitieren, die über den Wissensstand hinausgehen.

Die Fundierung mit der Google Suche bietet folgende Vorteile:

  • Faktische Richtigkeit erhöhen: Reduzieren Sie Modellhalluzinationen, indem Sie Antworten auf realen Informationen basieren.
  • Auf Echtzeitinformationen zugreifen: Fragen zu aktuellen Ereignissen und Themen beantworten.
  • Zitierungen angeben: Bauen Sie Vertrauen bei den Nutzern auf oder ermöglichen Sie ihnen, relevante Websites aufzurufen, indem Sie die Quellen für die Behauptungen des Modells angeben.
  • Komplexere Aufgaben erledigen: Artefakte und relevante Bilder, Videos oder andere Medien abrufen, um bei der Entscheidungsfindung zu helfen.
  • Regionen- oder sprachspezifische Antworten verbessern: Regionenspezifische Informationen finden oder bei der genauen Übersetzung von Inhalten helfen.

Hinweis: Die Unterstützung für Grounding für die Google Suche ist für iOS+, Android und das Web verfügbar. Sie wird in den kommenden Versionen von Flutter und Unity verfügbar sein.

Unterstützte Modelle

  • gemini-2.5-pro
  • gemini-2.5-flash
  • gemini-2.5-flash-lite-preview-06-17
  • gemini-2.0-flash-001 (und der automatisch aktualisierte Alias gemini-2.0-flash)
  • gemini-2.0-flash-live-preview-04-09

Unterstützte Sprachen

Unterstützte Sprachen für Gemini-Modelle

Modell mit der Google Suche fundieren

Klicken Sie auf Ihren Gemini API-Anbieter, um anbieterspezifische Inhalte und Code auf dieser Seite aufzurufen.

Wenn Sie die GenerativeModel-Instanz erstellen, geben Sie GoogleSearch als tool an, die das Modell zum Generieren der Antwort verwenden kann.

Swift


import FirebaseAI

// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())

// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(
    modelName: "GEMINI_MODEL_NAME",
    // Provide Google Search as a tool that the model can use to generate its response
    tools: [Tool.googleSearch()]
)

let response = try await model.generateContent("Who won the euro 2024?")
print(response.text ?? "No text in response.")

// Make sure to comply with the "Grounding with Google Search" usage requirements,
// which includes how you use and display the grounded result

Kotlin


// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI()).generativeModel(
    modelName = "GEMINI_MODEL_NAME",
    // Provide Google Search as a tool that the model can use to generate its response
    tools = listOf(Tool.GoogleSearch())
)

val response = model.generateContent("Who won the euro 2024?")
print(response.text)

// Make sure to comply with the "Grounding with Google Search" usage requirements,
// which includes how you use and display the grounded result

Java


// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
                .generativeModel("GEMINI_MODEL_NAME",
                        null,
                        null,
                        // Provide Google Search as a tool that the model can use to generate its response
                        List.of(Tool.GoogleSearch()));

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);

ListenableFuture response = model.generateContent("Who won the euro 2024?");
  Futures.addCallback(response, new FutureCallback() {
      @Override
      public void onSuccess(GenerateContentResponse result) {
          String resultText = result.getText();
          System.out.println(resultText);
      }

      @Override
      public void onFailure(Throwable t) {
          t.printStackTrace();
      }
  }, executor);

// Make sure to comply with the "Grounding with Google Search" usage requirements,
// which includes how you use and display the grounded result

Web


import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";

// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
  // ...
};

// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);

// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });

// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(
  ai,
  {
    model: "GEMINI_MODEL_NAME",
    // Provide Google Search as a tool that the model can use to generate its response
    tools: [{ googleSearch: {} }]
  }
);

const result = await model.generateContent("Who won the euro 2024?");

console.log(result.response.text());

// Make sure to comply with the "Grounding with Google Search" usage requirements,
// which includes how you use and display the grounded result

Dart

Die Unterstützung für Flutter wird in der nächsten Version verfügbar sein.

Einheit

Die Unterstützung für Unity wird in der nächsten Version verfügbar sein.

Hier erfahren Sie, wie Sie ein Modell auswählen, der für Ihren Anwendungsfall und Ihre App geeignet ist.

Die besten Ergebnisse erzielen Sie mit einer Temperatur von 1.0 (dem Standardwert für alle 2.5-Modelle). Informationen zum Festlegen der Temperatur in der Modellkonfiguration

So funktioniert die Fundierung mit der Google Suche

Wenn Sie das GoogleSearch-Tool verwenden, übernimmt das Modell den gesamten Workflow für das automatische Suchen, Verarbeiten und Zitieren von Informationen.

So funktioniert das Modell:

  1. Aufforderung erhalten: Ihre App sendet eine Aufforderung an das Gemini-Modell, wobei das GoogleSearch-Tool aktiviert ist.
  2. Prompt analysieren: Das Modell analysiert den Prompt und ermittelt, ob die Antwort durch die Google Suche verbessert werden kann.
  3. Anfragen an die Google Suche senden: Bei Bedarf generiert das Modell automatisch eine oder mehrere Suchanfragen und führt sie aus.
  4. Suchergebnisse verarbeiten: Das Modell verarbeitet die Google-Suchergebnisse und formuliert eine Antwort auf den ursprünglichen Prompt.
  5. Fundiertes Ergebnis zurückgeben: Das Modell gibt eine endgültige, nutzerfreundliche Antwort zurück, die auf den Google-Suchergebnissen basiert. Diese Antwort enthält die Textantwort des Modells und groundingMetadata mit den Suchanfragen, Weberggebnissen und Quellenangaben.

Wenn Sie Google Suche als Tool für das Modell bereitstellen, muss das Modell nicht immer das Google Suche-Tool verwenden, um seine Antwort zu generieren. In diesen Fällen enthält die Antwort kein groundingMetadata-Objekt und ist daher kein „fundiertes Ergebnis“.

Diagramm, das zeigt, wie die Fundierung mit der Google Suche funktioniert

Fundiertes Ergebnis verstehen

Wenn das Modell seine Antwort auf Google-Suchergebnisse stützt, enthält die Antwort ein groundingMetadata-Objekt mit strukturierten Daten, die für die Überprüfung von Behauptungen und die Erstellung von Rich Citations in Ihrer Anwendung unerlässlich sind.

Das groundingMetadata-Objekt in einem fundierten Ergebnis enthält die folgenden Informationen:

  • webSearchQueries: Ein Array der Suchanfragen, die an die Google Suche gesendet wurden. Diese Informationen sind nützlich für das Debugging und um den Denkprozess des Modells nachzuvollziehen.

  • searchEntryPoint: Enthält das HTML und CSS zum Rendern der erforderlichen „Google-Suchvorschläge“. Sie müssen die Nutzungsanforderungen für „Grounding with Google Search“ für Ihren ausgewählten API-Anbieter einhalten: Gemini Developer API oder Vertex AI Gemini API (siehe Abschnitt Service Terms in den dienstspezifischen Bedingungen). Informationen zum Verwenden und Anzeigen eines fundierten Ergebnisses finden Sie weiter unten auf dieser Seite.

  • groundingChunks: Ein Array von Objekten, das die Webquellen (uri und title) enthält.

  • groundingSupports: Ein Array von Chunks, um die Modellantwort text mit den Quellen in groundingChunks zu verknüpfen. Jeder Chunk verknüpft einen Text-segment (definiert durch startIndex und endIndex) mit einem oder mehreren groundingChunkIndices. Mit diesem Feld können Sie Inline-Zitationen erstellen. Informationen zum Verwenden und Anzeigen eines fundierten Ergebnisses finden Sie weiter unten auf dieser Seite.

Hier sehen Sie ein Beispiel für eine Antwort, die ein groundingMetadata-Objekt enthält:

{
  "candidates": [
    {
      "content": {
        "parts": [
          {
            "text": "Spain won Euro 2024, defeating England 2-1 in the final. This victory marks Spain's record fourth European Championship title."
          }
        ],
        "role": "model"
      },
      "groundingMetadata": {
        "webSearchQueries": [
          "UEFA Euro 2024 winner",
          "who won euro 2024"
        ],
        "searchEntryPoint": {
          "renderedContent": "<!-- HTML and CSS for the search widget -->"
        },
        "groundingChunks": [
          {"web": {"uri": "https://vertexaisearch.cloud.google.com.....", "title": "aljazeera.com"}},
          {"web": {"uri": "https://vertexaisearch.cloud.google.com.....", "title": "uefa.com"}}
        ],
        "groundingSupports": [
          {
            "segment": {"startIndex": 0, "endIndex": 85, "text": "Spain won Euro 2024, defeatin..."},
            "groundingChunkIndices": [0]
          },
          {
            "segment": {"startIndex": 86, "endIndex": 210, "text": "This victory marks Spain's..."},
            "groundingChunkIndices": [0, 1]
          }
        ]
      }
    }
  ]
}

Fundiertes Ergebnis verwenden und anzeigen

Wenn das Modell das Google Suche-Tool verwendet, um eine Antwort zu generieren, wird in der Antwort ein groundingMetadata-Objekt bereitgestellt.

Es ist erforderlich, Google-Suchvorschläge anzuzeigen, und empfohlen, Zitationen anzuzeigen.

Neben der Einhaltung der Anforderungen für die Verwendung des Google Suche-Tools hilft die Anzeige dieser Informationen Ihnen und Ihren Endnutzern, Antworten zu validieren, und bietet Möglichkeiten zum weiteren Lernen.

(Erforderlich) Google-Suchvorschläge anzeigen

Wenn eine Antwort „Google-Suchvorschläge“ enthält, müssen Sie die Nutzungsanforderungen für die Fundierung mit der Google Suche einhalten. Dazu gehört auch, wie Sie Google-Suchvorschläge präsentieren.

Das groundingMetadata-Objekt enthält „Google-Suchvorschläge“, insbesondere das Feld searchEntryPoint, das ein renderedContent-Feld mit konformen HTML- und CSS-Stilen enthält. Diese müssen Sie implementieren, um Suchvorschläge in Ihrer App anzuzeigen.

Ausführliche Informationen zu den Anzeige- und Verhaltensanforderungen für Google-Suchvorschläge finden Sie in der Google Cloud-Dokumentation. Diese detaillierte Anleitung finden Sie zwar in der Vertex AI Gemini API-Dokumentation, sie gilt aber auch für den Gemini Developer API-Anbieter.

Beispielcode finden Sie weiter unten in diesem Abschnitt.

(Empfohlen) Zitationen anzeigen

Das groundingMetadata-Objekt enthält strukturierte Zitationsdaten, insbesondere die Felder groundingSupports und groundingChunks. Anhand dieser Informationen können Sie die Aussagen des Modells direkt mit den Quellen in Ihrer Benutzeroberfläche verknüpfen (inline und aggregiert).

Beispielcode finden Sie weiter unten in diesem Abschnitt.

Beispielcode

Diese Codebeispiele enthalten verallgemeinerte Muster für die Verwendung und Anzeige des fundierten Ergebnisses. Sie sind jedoch dafür verantwortlich, dass Ihre spezifische Implementierung den Compliance-Anforderungen entspricht.

Swift

// ...

// Get the model's response
let text = response.text

// Get the grounding metadata
if let candidate = response.candidates.first,
   let groundingMetadata = candidate.groundingMetadata {
  // REQUIRED - display Google Search suggestions
  // (renderedContent contains HTML and CSS for the search widget)
  if let renderedContent = groundingMetadata.searchEntryPoint?.renderedContent {
    // TODO(developer): Display Google Search suggestions using a WebView
  }

  // RECOMMENDED - display citations
  let groundingChunks = groundingMetadata.groundingChunks
  for chunk in groundingMetadata.groundingChunks {
    if let web = chunk.web {
      let title = web.title  // for example, "uefa.com"
      let uri = web.uri  // for example, "https://vertexaisearch.cloud.google.com..."
      // TODO(developer): show citation in the UI
    }
  }
}

Kotlin

// ...

// Get the model's response
val text = response.text

// Get the grounding metadata
val groundingMetadata = response.candidates.firstOrNull()?.groundingMetadata

// REQUIRED - display Google Search suggestions
// (renderedContent contains HTML and CSS for the search widget)
val renderedContent = groundingMetadata?.searchEntryPoint?.renderedContent
if (renderedContent != null) {
    // TODO(developer): Display Google Search suggestions using a WebView
}

// RECOMMENDED - display citations
val groundingChunks = groundingMetadata?.groundingChunks
groundingChunks?.let { chunks ->
  for (chunk in chunks) {
  	val title = chunk.web?.title  // for example, "uefa.com"
	val uri = chunk.web?.uri  // for example, "https://vertexaisearch.cloud.google.com..."
// TODO(developer): show citation in the UI
  }
}

Java

// ...

Futures.addCallback(response, new FutureCallback() {
  @Override
  public void onSuccess(GenerateContentResponse result) {
  // Get the model's response
  String text = result.getText();

  // Get the grounding metadata
  GroundingMetadata groundingMetadata =
  result.getCandidates()[0].getGroundingMetadata();

  if (groundingMetadata != null) {
    // REQUIRED - display Google Search suggestions
  // (renderedContent contains HTML and CSS for the search widget)
    String renderedContent =
  groundingMetadata.getSearchEntryPoint().getRenderedContent();
    if (renderedContent != null) {
      // TODO(developer): Display Google Search suggestions using a WebView
    }

    // RECOMMENDED - display citations
    List chunks = groundingMetadata.getGroundingChunks();
    if (chunks != null) {
      for(GroundingChunk chunk : chunks) {
        WebGroundingChunk web = chunk.getWeb();
        if (web != null) {
          String title = web.getTitle();  // for example, "uefa.com"
          String uri = web.getUri();  // for example, "https://vertexaisearch.cloud.google.com..."
          // TODO(developer): show citation in the UI
        }
      }
    }
  }
  }

  @Override
  public void onFailure(Throwable t) {
  t.printStackTrace();
  }
  }, executor);

Web

// ...

// Get the model's text response
const text = result.response.text();

// Get the grounding metadata
const groundingMetadata = result.response.candidates?.[0]?.groundingMetadata;

// REQUIRED - display Google Search suggestions
// (renderedContent contains HTML and CSS for the search widget)
const renderedContent = groundingMetadata?.searchEntryPoint?.renderedContent;
if (renderedContent) {
  // TODO(developer): render this HTML and CSS in the UI
}

// RECOMMENDED - display citations
const groundingChunks = groundingMetadata?.groundingChunks;
if (groundingChunks) {
  for (const chunk of groundingChunks) {
    const title = chunk.web?.title;  // for example, "uefa.com"
    const uri = chunk.web?.uri;  // for example, "https://vertexaisearch.cloud.google.com..."
    // TODO(developer): show citation in the UI
  }
}

Dart

Die Unterstützung für Flutter wird in der nächsten Version verfügbar sein.

Einheit

Die Unterstützung für Unity wird in der nächsten Version verfügbar sein.

Fundierte Ergebnisse und KI-Monitoring in der Firebase-Konsole

Wenn Sie KI-Monitoring in der Firebase-Konsole aktiviert haben, werden Antworten in Cloud Logging gespeichert. Standardmäßig werden diese Daten 30 Tage lang aufbewahrt.

Es liegt in Ihrer Verantwortung, dafür zu sorgen, dass dieser Aufbewahrungszeitraum oder ein von Ihnen festgelegter benutzerdefinierter Zeitraum vollständig mit Ihrem spezifischen Anwendungsfall und allen zusätzlichen Compliance-Anforderungen für Ihren ausgewählten Gemini API-Anbieter übereinstimmt:Gemini Developer API oder Vertex AI Gemini API (siehe Abschnitt Nutzungsbedingungen des Dienstes in den dienstspezifischen Nutzungsbedingungen). Möglicherweise müssen Sie den Aufbewahrungszeitraum in Cloud Logging anpassen, um diese Anforderungen zu erfüllen.

Preise und Limits

Sehen Sie sich die Preise, die Modellverfügbarkeit und die Beschränkungen für die Fundierung mit der Google Suche in der Dokumentation des von Ihnen ausgewählten Gemini API-Anbieters an: Gemini Developer API | Vertex AI Gemini API.