Z tego przewodnika dowiesz się, jak zacząć wywoływać interfejs Vertex AI Gemini API bezpośrednio z poziomu aplikacji za pomocą pakietów SDK Vertex AI dla Firebase.
Wymagania wstępne
W tym przewodniku zakładamy, że potrafisz korzystać z JavaScriptu do tworzenia aplikacji internetowych. Ten przewodnik nie wymaga platformy.
Upewnij się, że Twoje środowisko programistyczne i aplikacja internetowa spełniają te wymagania:
- (Opcjonalnie) Node.js
- Nowoczesna przeglądarka
(Opcjonalnie) Zobacz przykładową aplikację.
Pobieranie przykładowej aplikacji
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych przypadków użycia lub użyć przykładowej aplikacji, jeśli nie masz własnej aplikacji internetowej. Aby użyć przykładowej aplikacji, musisz połączyć ją z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz stronę Build with Gemini (Utwórz z Gemini) i kliknij drugą kartę, aby uruchomić przepływ pracy, który pomoże Ci wykonać poniższe zadania. Jeśli w konsoli wyświetli się karta Vertex AI, oznacza to, że te zadania zostały wykonane.
Przenieś projekt na wyższy abonament, aby korzystać z abonamentu Blaze z płatnościami według wykorzystania.
Włącz w projekcie te 2 interfejsy API:
aiplatform.googleapis.com
ifirebaseml.googleapis.com
.
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do swojej aplikacji pakiet SDK Vertex AI dla Firebase.
Biblioteka Vertex AI dla Firebase zapewnia dostęp do interfejsu Vertex AI Gemini API i jest częścią pakietu Firebase JavaScript SDK for Web.
Zainstaluj pakiet SDK Firebase JS dla aplikacji internetowych przy użyciu npm:
npm install firebase
Zainicjuj Firebase w swojej aplikacji:
import { initializeApp } from "firebase/app"; // TODO(developer) Replace the following with your app's Firebase configuration // See: https://firebase.google.com/docs/web/learn-more#config-object const firebaseConfig = { // ... }; // Initialize FirebaseApp const firebaseApp = initializeApp(firebaseConfig);
Krok 3. Zainicjuj usługę Vertex AI i model generatywny
Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować usługę Vertex AI i model generatywny.
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
Po skorzystaniu z przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.
Krok 4. Wywołaj interfejs Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK oraz zainicjowaniu usługi Vertex AI i modelu generatywnego możesz zacząć wywoływać interfejs Vertex AI Gemini API.
Za pomocą generateContent()
możesz wygenerować tekst na podstawie żądania promptu tekstowego:
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.
Wypróbuj inne możliwości interfejsu Gemini API
- Dowiedz się więcej o generowaniu tekstu na podstawie promptów tekstowych, w tym o sposobie strumieniowania odpowiedzi.
- Generuj tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio).
- tworzyć rozmowy wieloetapowe (czat),
- Używaj wywołania funkcji, aby łączyć modele generatywne z zewnętrznymi systemami i informacjami.
Dowiedz się, jak kontrolować generowanie treści
- Dowiedz się, jak projektować prompty, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uznane za szkodliwe.
Prześlij opinię na temat korzystania z Vertex AI dla Firebase