Z tego przewodnika dowiesz się, jak zacząć dzwonić pod numery Vertex AI Gemini API bezpośrednio z aplikacji za pomocą pakiety SDK Vertex AI dla Firebase.
Wymagania wstępne
W tym przewodniku zakładamy, że umiesz już używać JavaScriptu do programowania aplikacji internetowych. Ten przewodnik nie wymaga platformy.
Upewnij się, że Twoje środowisko programistyczne i aplikacja internetowa spełniają te wymagania wymagania:
- (Opcjonalnie) Node.js
- Nowoczesna przeglądarka
(Opcjonalnie) Zobacz przykładową aplikację.
Pobieranie przykładowej aplikacji
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych zastosowań lub użyj aplikacji próbnej, jeśli nie masz własnej aplikacji internetowej. Aby użyć przykładowej aplikacji, musisz wykonać połączyć je z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz Strona Build with Gemini, a potem kliknij drugą kartę, aby uruchomić przepływ pracy, następujących zadań. Jeśli w konsoli wyświetli się karta Vertex AI, Te zadania są wykonane.
Przenieś projekt na wyższy abonament, aby używać Abonament Blaze z płatnością według wykorzystania
Włącz w projekcie te 2 interfejsy API:
aiplatform.googleapis.com
orazfirebaseml.googleapis.com
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (zobacz poprzedni krok), możesz teraz dodać pakiet SDK Vertex AI dla Firebase do swojej aplikacji.
Biblioteka Vertex AI dla Firebase zapewnia dostęp do Vertex AI Gemini API i jest częścią pakietu Firebase JavaScript SDK for Web.
Zainstaluj pakiet SDK Firebase JS dla aplikacji internetowych przy użyciu npm:
npm install firebase
Zainicjuj Firebase w swojej aplikacji:
import { initializeApp } from "firebase/app"; // TODO(developer) Replace the following with your app's Firebase configuration // See: https://firebase.google.com/docs/web/learn-more#config-object const firebaseConfig = { // ... }; // Initialize FirebaseApp const firebaseApp = initializeApp(firebaseConfig);
Krok 3. Zainicjuj usługę Vertex AI i model generatywny
Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować Vertex AI i modelu generatywnego.
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
Po przeczytaniu przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizacja odpowiednią do przypadku użycia i aplikacji.
Krok 4. Wywołaj interfejs Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i zainicjowaniu jej usługę Vertex AI i model generatywny, możesz już wywołać interfejs Vertex AI Gemini API.
Możesz użyć narzędzia generateContent()
, aby wygenerować tekst na podstawie prompta tekstowego
żądanie:
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o dostępne modele do różnych zastosowań oraz ich poniższych limitów i cen.
Wypróbuj inne możliwości interfejsu Gemini API
- Więcej informacji o generowaniu tekstu z: prompty tekstowe, w tym instrukcje przesyłać odpowiedź strumieniowo.
- Generuj tekst z prompty multimodalne (w tym tekst, obrazy, pliki PDF, filmy i dźwięk).
- tworzyć rozmowy wieloetapowe (czat),
- nawiązać połączenie, korzystając z wywołania funkcji; modeli generatywnych w zewnętrznych systemach i informacjach.
Dowiedz się, jak kontrolować generowanie treści
- Omówienie projektowania promptów, w tym: sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak oraz maksymalną liczbę tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, by dostosować prawdopodobieństwo uzyskania odpowiedzi, które mogą zostać uznane za szkodliwe.
Przesyłanie opinii o swoich doświadczeniach z Vertex AI dla Firebase,