Firebase AI Logic und die zugehörigen Client-SDKs hießen früher Vertex AI in Firebase. Um unsere erweiterten Dienste und Funktionen besser widerzuspiegeln (wir unterstützen jetzt beispielsweise die Gemini Developer API), haben wir unsere Dienste umbenannt und in Firebase AI Logic verpackt.
Wenn Sie direkt über Ihre mobilen Apps oder Web-Apps sicher auf die generativen KI-Modelle von Google zugreifen möchten, können Sie jetzt einen „Gemini API“-Anbieter auswählen – entweder den seit langem verfügbaren Vertex AI Gemini API oder jetzt den Gemini Developer API. Sie haben jetzt die Möglichkeit, die Gemini Developer API zu verwenden, die eine kostenlose Stufe mit angemessenen Preislimits und Kontingenten bietet.
Schritte zur Migration zu den Firebase AI Logic SDKs
Schritt 1: Wählen Sie den besten Gemini API-Anbieter für Ihre App und Anwendungsfälle aus.
Schritt 2: Aktivieren Sie die erforderlichen APIs.
Schritt 3: Aktualisieren Sie die in Ihrer App verwendete Bibliothek.
Schritt 4: Aktualisieren Sie die Initialisierung in Ihrer App.
Schritt 5: Aktualisieren Sie den Code je nach verwendeten Funktionen.
Schritt 1: Den besten Gemini API-Anbieter für Ihre App auswählen
Bei dieser Migration haben Sie die Wahl zwischen den folgenden Gemini API-Anbietern:
Die alten „Vertex AI in Firebase“-SDKs konnten nur die Vertex AI Gemini API verwenden.
Mit den neuen Firebase AI Logic SDKs kannst du auswählen, welchen Gemini API-Anbieter du direkt über deine mobile App oder Web-App aufrufen möchtest – entweder den Gemini Developer API oder den Vertex AI Gemini API.
Sehen Sie sich die Unterschiede zwischen den beiden Gemini API-Anbietern an, insbesondere in Bezug auf unterstützte Funktionen, Preise und Preislimits. So unterstützt die Gemini Developer API beispielsweise nicht das Bereitstellen von Dateien über Cloud Storage-URLs. Sie ist aber eine gute Wahl, wenn Sie das kostenlose Abo und das angemessene Kontingent nutzen möchten.
Schritt 2: Erforderliche APIs aktivieren
Prüfen Sie, ob alle erforderlichen APIs in Ihrem Firebase-Projekt aktiviert sind, um den von Ihnen ausgewählten „Gemini API“-Anbieter zu verwenden.
Sie können beide API-Anbieter gleichzeitig in Ihrem Projekt aktivieren.
Melden Sie sich in der Firebase Console an und wählen Sie Ihr Firebase-Projekt aus.
Rufen Sie in der Firebase Console die Seite Firebase AI Logic auf.
Klicken Sie auf Jetzt starten, um einen interaktiven Workflow zu starten, mit dem Sie die erforderlichen APIs und Ressourcen für Ihr Projekt einrichten können.
Wählen Sie den Gemini API-Anbieter aus, den Sie mit den Firebase AI Logic-SDKs verwenden möchten. Sie können den anderen API-Anbieter jederzeit einrichten und verwenden.
Gemini Developer API – optionale Abrechnung (verfügbar im kostenlosen Spark-Preismodell)
Im Workflow der Console werden die erforderlichen APIs aktiviert und ein Gemini API-Schlüssel in Ihrem Projekt erstellt.
Fügen Sie diesen Gemini API-Schlüssel nicht der Codebasis Ihrer App hinzu. Weitere InformationenVertex AI Gemini API – Abrechnung erforderlich (erfordert den Blaze-Preisplan mit Abrechnung nach Verbrauch)
Im Workflow der Console werden die erforderlichen APIs in Ihrem Projekt aktiviert.
Folgen Sie dieser Migrationsanleitung, um die Bibliothek und die Initialisierung in Ihrer App zu aktualisieren.
Schritt 3: In Ihrer App verwendete Bibliothek aktualisieren
Aktualisieren Sie den Code Ihrer App, damit die Firebase AI Logic-Bibliothek verwendet wird.
Swift
Aktualisieren Sie Ihr Firebase-Paket in Xcode auf Version 11.13.0 oder höher. Verwenden Sie dazu eine der folgenden Optionen:
Option 1: Alle Pakete aktualisieren: Gehen Sie zu Datei > Pakete > Auf die neuesten Paketversionen aktualisieren.
Option 2: Firebase einzeln aktualisieren: Rufen Sie im Bereich Paketabhängigkeiten das Firebase-Paket auf. Klicken Sie mit der rechten Maustaste auf das Firebase-Paket und wählen Sie Paket aktualisieren aus.
Achten Sie darauf, dass für das Firebase-Paket jetzt Version 11.13.0 oder höher angezeigt wird. Andernfalls prüfen Sie, ob die von Ihnen angegebenen Paketanforderungen ein Update auf Version 11.13.0 oder höher zulassen.
Wählen Sie im Project Editor das Ziel Ihrer App aus und gehen Sie dann zum Bereich Frameworks, Libraries und eingebettete Inhalte.
Fügen Sie die neue Bibliothek hinzu: Klicken Sie auf das Pluszeichen + und fügen Sie dann FirebaseAI aus dem Firebase-Paket hinzu.
Nachdem Sie die Migration Ihrer App abgeschlossen haben (siehe die verbleibenden Abschnitte in diesem Leitfaden), entfernen Sie die alte Bibliothek:
Wählen Sie FirebaseVertexAI-Preview aus und drücken Sie dann die Schaltfläche –.
Kotlin
Ersetzen Sie in der Gradle-Datei des Moduls (auf App-Ebene) (in der Regel
<project>/<app-module>/build.gradle.kts
oder<project>/<app-module>/build.gradle
) gegebenenfalls alte Abhängigkeiten durch Folgendes:Es kann einfacher sein, die Codebasis Ihrer App zu migrieren (siehe die verbleibenden Abschnitte in diesem Leitfaden), bevor Sie die alte Abhängigkeit löschen.
// BEFORE dependencies {
implementation("com.google.firebase:firebase-vertexai:16.0.0-betaXX")} // AFTER dependencies { // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.15.0")) // Add the dependency for the Firebase AI Logic library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-ai") }Synchronisieren Sie Ihr Android-Projekt mit Gradle-Dateien.
Wenn Sie die Firebase Android BoM nicht verwenden möchten, fügen Sie einfach die Abhängigkeit für die firebase-ai
-Bibliothek hinzu und akzeptieren Sie die neueste Version, die von Android Studio vorgeschlagen wird.
Java
Ersetzen Sie in der Gradle-Datei des Moduls (auf App-Ebene) (in der Regel
<project>/<app-module>/build.gradle.kts
oder<project>/<app-module>/build.gradle
) gegebenenfalls alte Abhängigkeiten durch Folgendes:Es kann einfacher sein, die Codebasis Ihrer App zu migrieren (siehe die verbleibenden Abschnitte in diesem Leitfaden), bevor Sie die alte Abhängigkeit löschen.
// BEFORE dependencies {
implementation("com.google.firebase:firebase-vertexai:16.0.0-betaXX")} // AFTER dependencies { // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.15.0")) // Add the dependency for the Firebase AI Logic library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-ai") }Synchronisieren Sie Ihr Android-Projekt mit Gradle-Dateien.
Wenn Sie die Firebase Android BoM nicht verwenden möchten, fügen Sie einfach die Abhängigkeit für die firebase-ai
-Bibliothek hinzu und akzeptieren Sie die neueste Version, die von Android Studio vorgeschlagen wird.
Web
So rufen Sie die neueste Version des Firebase JS SDK für das Web mit npm ab:
npm i firebase@latest
ODER
yarn add firebase@latest
Aktualisieren Sie Ihre Importanweisungen an allen Stellen, an denen Sie die Bibliothek importiert haben, und verwenden Sie stattdessen
firebase/ai
.Es kann einfacher sein, die Codebasis Ihrer App zu migrieren (siehe die verbleibenden Abschnitte in diesem Leitfaden), bevor Sie die alten Importe löschen.
// BEFORE import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";// AFTER import { initializeApp } from "firebase/app"; import { getAI, getGenerativeModel } from "firebase/ai";
Dart
Aktualisieren Sie die Verwendung des
firebase_ai
-Pakets in Ihrerpubspec.yaml
-Datei, indem Sie den folgenden Befehl aus dem Flutter-Projektverzeichnis ausführen:flutter pub add firebase_ai
Erstellen Sie Ihr Flutter-Projekt neu:
flutter run
Nachdem Sie die Migration Ihrer App abgeschlossen haben (siehe die restlichen Abschnitte in dieser Anleitung), löschen Sie das alte Paket:
flutter pub remove firebase_vertexai
Einheit
Der Support für Unity war von „Vertex AI in Firebase“ nicht verfügbar.
Weitere Informationen zum Einstieg in das Firebase AI Logic SDK for Unity
Schritt 4: Initialisierung in Ihrer App aktualisieren
Klicke auf deinen Gemini API-Anbieter, um dir anbieterspezifische Inhalte und Code auf dieser Seite anzusehen. |
Aktualisieren Sie die Initialisierung des Dienstes für den ausgewählten API-Anbieter und erstellen Sie eine GenerativeModel
-Instanz.
Swift
import FirebaseAI
// Initialize the Gemini Developer API backend service
let ai = FirebaseAI.firebaseAI(backend: .googleAI())
// Create a `GenerativeModel` instance with a model that supports your use case
let model = ai.generativeModel(modelName: "gemini-2.5-flash")
Kotlin
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
Java
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
GenerativeModel ai = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(ai);
Web
import { initializeApp } from "firebase/app";
import { getAI, getGenerativeModel, GoogleAIBackend } from "firebase/ai";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Gemini Developer API backend service
const ai = getAI(firebaseApp, { backend: new GoogleAIBackend() });
// Create a `GenerativeModel` instance with a model that supports your use case
const model = getGenerativeModel(ai, { model: "gemini-2.5-flash" });
Dart
import 'package:firebase_ai/firebase_ai.dart';
import 'package:firebase_core/firebase_core.dart';
import 'firebase_options.dart';
// Initialize FirebaseApp
await Firebase.initializeApp(
options: DefaultFirebaseOptions.currentPlatform,
);
// Initialize the Gemini Developer API backend service
// Create a `GenerativeModel` instance with a model that supports your use case
final model =
FirebaseAI.googleAI().generativeModel(model: 'gemini-2.5-flash');
Einheit
Der Support für Unity war von „Vertex AI in Firebase“ nicht verfügbar.
Weitere Informationen zum Einstieg in das Firebase AI Logic SDK for Unity
Je nach verwendeter Funktion wird möglicherweise nicht immer eine GenerativeModel
-Instanz erstellt.
- Wenn Sie auf ein Imagen-Modell zugreifen möchten, erstellen Sie eine
ImagenModel
-Instanz.
Schritt 5: Code je nach verwendeten Funktionen aktualisieren
In diesem Schritt werden Änderungen beschrieben, die je nach verwendeten Funktionen erforderlich sein können.
Wenn Sie Cloud Storage-URLs verwendet haben und bei dieser Migration auf Gemini Developer API umgestellt haben, müssen Sie Ihre multimodalen Anfragen aktualisieren, um Dateien als Inline-Daten einzubinden (oder YouTube-URLs für Videos zu verwenden).
Für die GA-Versionen der „Vertex AI in Firebase“-SDKs wurden mehrere Änderungen eingeführt. Dieselben Änderungen sind erforderlich, um die Firebase AI Logic SDKs zu verwenden. Sehen Sie sich die folgenden Listen an, um zu prüfen, ob Sie Änderungen an Ihrem Code vornehmen müssen, um das Firebase AI Logic SDK zu verwenden.
Für alle Sprachen und Plattformen erforderlich
Funktionsaufruf
Wenn Sie diese Funktion vor der allgemeinen Verfügbarkeit implementiert haben, müssen Sie die Definition Ihres Schemas aktualisieren. Weitere Informationen zum Erstellen von Funktionsdeklarationen finden Sie im aktualisierten Leitfaden zu Funktionsaufrufen.Strukturierte Ausgabe (z. B. JSON) mit
responseSchema
generieren Wenn Sie diese Funktion vor der allgemeinen Verfügbarkeit implementiert haben, müssen Sie die Definition Ihres Schemas aktualisieren. Weitere Informationen zum Erstellen von JSON-Schemas finden Sie im neuen Leitfaden für strukturierte Datenausgaben.Zeitlimit
- Das Standardzeitlimit für Anfragen wurde auf 180 Sekunden geändert.
Je nach Plattform oder Sprache erforderlich
Swift
Aufzählungen
Die meisten
enum
-Typen wurden durchstruct
-Typen mit statischen Variablen ersetzt. Diese Änderung ermöglicht eine größere Flexibilität bei der Weiterentwicklung der API auf rückwärtskompatible Weise. Wenn Sieswitch
-Anweisungen verwenden, müssen Sie jetzt einendefault:
-Fall für unbekannte oder nicht verarbeitete Werte angeben, einschließlich neuer Werte, die dem SDK in Zukunft hinzugefügt werden.Die Aufzählung
BlockThreshold
wurde inHarmBlockThreshold
umbenannt. Dieser Typ ist jetzt einestruct
.Die folgenden
unknown
- undunspecified
-Fälle wurden aus den folgenden Aufzählungen entfernt (jetztstruct
):HarmCategory
,HarmBlockThreshold
,HarmProbability
,BlockReason
undFinishReason
.Die Aufzählung
ModelContent.Part
wurde durch ein Protokoll namensPart
ersetzt, damit neue Typen auf rückwärtskompatible Weise hinzugefügt werden können. Diese Änderung wird im Abschnitt Inhaltselemente ausführlicher beschrieben.
Inhaltselemente
Das
ThrowingPartsRepresentable
-Protokoll wurde entfernt und die Initialisierer fürModelContent
wurden vereinfacht, um gelegentliche Compilerfehler zu vermeiden. Bei Bildern, die nicht richtig codiert sind, treten weiterhin Fehler auf, wenn sie ingenerateContent
verwendet werden.Die
ModelContent.Part
-Fälle wurden durch die folgendenstruct
-Typen ersetzt, die demPart
-Protokoll entsprechen:.text
bisTextPart
.data
nachInlineDataPart
.fileData
nachFileDataPart
.functionCall
nachFunctionCallPart
.functionResponse
bisFunctionResponsePart
Kategorie
HarmCategory
ist nicht mehr im TypSafetySetting
verschachtelt. Wenn Sie es alsSafetySetting.HarmCategory
bezeichnen, kann das durchHarmCategory
ersetzt werden.
Feedback zur Sicherheit
- Der Typ
SafetyFeedback
wurde entfernt, da er in keiner der Antworten verwendet wurde.
- Der Typ
Zitatmetadaten
- Die Property
citationSources
wurde incitations
inCitationMetadata
umbenannt.
- Die Property
Abrechnungsfähige Zeichen insgesamt
- Die Eigenschaft
totalBillableCharacters
inCountTokensResponse
wurde zu einer optionalen Eigenschaft, um Situationen widerzuspiegeln, in denen keine Zeichen gesendet werden.
- Die Eigenschaft
Antwort des Kandidaten
CandidateResponse
inCandidate
umbenannt, um mit anderen Plattformen übereinzustimmen.
Konfiguration der Erzeugung
- Die öffentlichen Eigenschaften von
GenerationConfig
wurden ininternal
geändert. Sie können weiterhin in der Initialisiererfunktion konfiguriert werden.
- Die öffentlichen Eigenschaften von
Kotlin
Aufzählungen
enum
- undsealed
-Klassen wurden durch reguläre Klassen ersetzt. Diese Änderung ermöglicht eine größere Flexibilität bei der Weiterentwicklung der API auf abwärtskompatible Weise.Die Aufzählung
BlockThreshold
wurde inHarmBlockThreshold
umbenannt.Werte aus den folgenden Aufzählungen wurden entfernt:
HarmBlockThreshold
,HarmProbability
,HarmSeverity
,BlockReason
undFinishReason
.
Blob-Methoden
- Alle Methoden, die
Blob
im Namen enthielten, wurden inInlineData
umbenannt.
- Alle Methoden, die
Sicherheitseinstellungen
- Das Feld
method
wurde in ein Feld mit Nullwerten geändert.
- Das Feld
Dauerklasse
- Alle Verwendungen der Kotlin-Klasse
Duration
wurden entfernt und durchlong
ersetzt. Diese Änderung sorgt für eine bessere Interoperabilität mit Java.
- Alle Verwendungen der Kotlin-Klasse
Zitatmetadaten
- Alle zuvor in
CitationMetadata
deklarierten Felder wurden in eine neue Klasse namensCitation
verpackt. Verweise finden Sie inCitationMetadata
in der Listecitations
. Dadurch können die Typen plattformübergreifend besser abgeglichen werden.
- Alle zuvor in
Tokens zählen
- Das Feld
totalBillableCharacters
wurde in ein Feld mit Nullwerten geändert.
- Das Feld
Abrechnungsfähige Zeichen insgesamt
- Die Eigenschaft
totalBillableCharacters
inCountTokensResponse
wurde zu einer optionalen Eigenschaft, um Situationen widerzuspiegeln, in denen keine Zeichen gesendet werden.
- Die Eigenschaft
Modell instanziieren
- Der Parameter
requestOptions
wurde ans Ende der Parameterliste verschoben, um ihn mit anderen Plattformen in Einklang zu bringen.
- Der Parameter
Live API
Der Wert
UNSPECIFIED
für die Enum-KlasseResponseModality
wurde entfernt. Verwenden Sie stattdessennull
.LiveGenerationConfig.setResponseModalities
wurde inLiveGenerationConfig.setResponseModality
umbenannt.Die Klasse
LiveContentResponse.Status
wurde entfernt und die Statusfelder wurden stattdessen als Eigenschaften vonLiveContentResponse
verschachtelt.Die Klasse
LiveContentResponse
wurde entfernt und stattdessen wurden Unterklassen vonLiveServerMessage
hinzugefügt, die den Antworten aus dem Modell entsprechen.LiveModelFutures.connect
gibt jetztListenableFuture<LiveSessionFutures>
stattListenableFuture<LiveSession>
zurück.
Java
Aufzählungen
enum
- undsealed
-Klassen wurden durch reguläre Klassen ersetzt. Diese Änderung ermöglicht eine größere Flexibilität bei der Weiterentwicklung der API auf abwärtskompatible Weise.Die Aufzählung
BlockThreshold
wurde inHarmBlockThreshold
umbenannt.Werte aus den folgenden Aufzählungen wurden entfernt:
HarmBlockThreshold
,HarmProbability
,HarmSeverity
,BlockReason
undFinishReason
.
Blob-Methoden
- Alle Methoden, die
Blob
im Namen enthielten, wurden inInlineData
umbenannt.
- Alle Methoden, die
Sicherheitseinstellungen
- Das Feld
method
wurde in ein Feld mit Nullwerten geändert.
- Das Feld
Dauerklasse
- Alle Verwendungen der Kotlin-Klasse
Duration
wurden entfernt und durchlong
ersetzt. Diese Änderung sorgt für eine bessere Interoperabilität mit Java.
- Alle Verwendungen der Kotlin-Klasse
Zitatmetadaten
- Alle zuvor in
CitationMetadata
deklarierten Felder wurden in eine neue Klasse namensCitation
verpackt. Verweise finden Sie inCitationMetadata
in der Listecitations
. Dadurch können die Typen plattformübergreifend besser abgeglichen werden.
- Alle zuvor in
Tokens zählen
- Das Feld
totalBillableCharacters
wurde in ein Feld mit Nullwerten geändert.
- Das Feld
Abrechnungsfähige Zeichen insgesamt
- Die Eigenschaft
totalBillableCharacters
inCountTokensResponse
wurde zu einer optionalen Eigenschaft, um Situationen widerzuspiegeln, in denen keine Zeichen gesendet werden.
- Die Eigenschaft
Modell instanziieren
- Der Parameter
requestOptions
wurde ans Ende der Parameterliste verschoben, um ihn mit anderen Plattformen in Einklang zu bringen.
- Der Parameter
Live API
Der Wert
UNSPECIFIED
für die Enum-KlasseResponseModality
wurde entfernt. Verwenden Sie stattdessennull
.LiveGenerationConfig.setResponseModalities
wurde inLiveGenerationConfig.setResponseModality
umbenannt.Die Klasse
LiveContentResponse.Status
wurde entfernt und die Statusfelder wurden stattdessen als Eigenschaften vonLiveContentResponse
verschachtelt.Die Klasse
LiveContentResponse
wurde entfernt und stattdessen wurden Unterklassen vonLiveServerMessage
hinzugefügt, die den Antworten aus dem Modell entsprechen.LiveModelFutures.connect
gibt jetztListenableFuture<LiveSessionFutures>
stattListenableFuture<LiveSession>
zurück.
Wir haben verschiedene Java-Buildermethoden geändert, sodass jetzt die Instanz der Klasse statt
void
zurückgegeben wird.
Web
Aufzählungen
- Werte aus den folgenden Aufzählungen wurden entfernt:
HarmCategory
,BlockThreshold
,HarmProbability
,HarmSeverity
,BlockReason
undFinishReason
.
- Werte aus den folgenden Aufzählungen wurden entfernt:
Grund für die Blockierung
blockReason
inPromptFeedback
wurde als optional gekennzeichnet.
Änderungen sind nur erforderlich, wenn Sie die Gemini Developer API anstelle der Vertex AI Gemini API verwenden:
Sicherheitseinstellungen
- Die Verwendung der nicht unterstützten
SafetySetting.method
wurde entfernt.
- Die Verwendung der nicht unterstützten
Inline-Daten
- Die Verwendung der nicht unterstützten
InlineDataPart.videoMetadata
wurde entfernt.
- Die Verwendung der nicht unterstützten
Dart
Aufzählungen
- Werte aus den folgenden Aufzählungen wurden entfernt:
HarmCategory
,HarmProbability
,BlockReason
undFinishReason
.
- Werte aus den folgenden Aufzählungen wurden entfernt:
Datenteil
DataPart
wurde inInlineDataPart
und die Funktionstatic
data
ininlineData
umbenannt, um sie mit anderen Plattformen in Einklang zu bringen.
Anfrageoptionen
RequestOptions
wurde entfernt, datimeout
nicht funktionierte. Er wird demnächst wieder hinzugefügt, aber auf den TypGenerativeModel
umgestellt, um mit anderen Plattformen übereinzustimmen.
Stoppsequenzen
- Der Parameter
stopSequences
inGenerationConfig
ist jetzt optional und hat standardmäßig den Wertnull
anstelle eines leeren Arrays.
- Der Parameter
Zitate
- Die Property
citationSources
wurde incitations
inCitationMetadata
umbenannt. Der TypCitationSource
wurde inCitation
umbenannt, um mit anderen Plattformen übereinzustimmen.
- Die Property
Unnötige öffentliche Typen, Methoden und Eigenschaften
- Die folgenden Typen, Methoden und Eigenschaften wurden entfernt, da sie versehentlich freigegeben wurden:
defaultTimeout
,CountTokensResponseFields
,parseCountTokensResponse
,parseEmbedContentResponse
,parseGenerateContentResponse
,parseContent
,BatchEmbedContentsResponse
,ContentEmbedding
,EmbedContentRequest
undEmbedContentResponse
.
- Die folgenden Typen, Methoden und Eigenschaften wurden entfernt, da sie versehentlich freigegeben wurden:
Tokens zählen
- Zusätzliche Felder aus der
countTokens
-Funktion entfernt, die nicht mehr erforderlich sind Nurcontents
ist erforderlich.
- Zusätzliche Felder aus der
Modell instanziieren
- Der Parameter
systemInstruction
wurde ans Ende der Parameterliste verschoben, um ihn mit anderen Plattformen in Einklang zu bringen.
- Der Parameter
Einbettungsfunktion
- Nicht unterstützte Funktionen für das Einbetten (
embedContent
undbatchEmbedContents
) wurden aus dem Modell entfernt.
- Nicht unterstützte Funktionen für das Einbetten (
Einheit
Der Support für Unity war von „Vertex AI in Firebase“ nicht verfügbar.
Weitere Informationen zum Einstieg in das Firebase AI Logic SDK for Unity
Mögliche Fehler bei der Migration
Wenn Sie zur GA-Version von Firebase AI Logic migrieren, können Fehler auftreten, wenn Sie nicht alle erforderlichen Änderungen wie in diesem Migrationsleitfaden beschrieben vorgenommen haben.
403-Fehler: Requests to this API firebasevertexai.googleapis.com ... are blocked.
Wenn Sie den Fehler 403 mit der Meldung Requests to this API firebasevertexai.googleapis.com ... are blocked.
erhalten, bedeutet das in der Regel, dass der Firebase API-Schlüssel in Ihrer Firebase-Konfigurationsdatei oder Ihrem Firebase-Objekt keine erforderliche API auf der Zulassungsliste für das Produkt hat, das Sie verwenden möchten.
Der von Ihrer App verwendete Firebase API-Schlüssel muss alle erforderlichen APIs enthalten, die in der Zulassungsliste „API-Einschränkungen“ des Schlüssels aufgeführt sind. Für Firebase AI Logic muss Ihr Firebase API-Schlüssel mindestens die Firebase AI Logic API auf der Zulassungsliste haben. Diese API sollte der Zulassungsliste Ihres API-Schlüssels automatisch hinzugefügt worden sein, als Sie die erforderlichen APIs in der Firebase Console aktiviert haben.
Sie können alle Ihre API-Schlüssel in der Google Cloud Console im Bereich APIs & Dienste > Anmeldedaten aufrufen.
Feedback zu Firebase AI Logic geben