Z tego przewodnika dowiesz się, jak zacząć dzwonić pod numery Vertex AI Gemini API bezpośrednio w aplikacji za pomocą Pakiet SDK Vertex AI in Firebase dla wybranej platformy.
Wymagania wstępne
W tym przewodniku zakładamy, że umiesz już używać JavaScriptu do programowania aplikacji internetowych. Ten przewodnik nie wymaga platformy.
Upewnij się, że środowisko programistyczne i aplikacja internetowa spełniają te wymagania:
- (Opcjonalnie) Node.js
- Nowoczesna przeglądarka
(Opcjonalnie) Zobacz przykładową aplikację.
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych przypadków użycia lub użyć przykładowej aplikacji, jeśli nie masz własnej aplikacji internetowej. Aby użyć przykładowej aplikacji, musisz połączyć ją z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz stronę Tworzenie za pomocą Gemini.
Kliknij kartę Vertex AI in Firebase, aby uruchomić przepływ pracy, który pomoże Ci wykonaj te czynności. (Pamiętaj, że jeśli w konsoli widoczna jest karta Vertex AI, te zadania są ukończone).
Przenieś projekt na wyższy abonament, aby używać abonament Blaze (płatność według wykorzystania).
Włącz w projekcie te 2 interfejsy API:
aiplatform.googleapis.com
orazfirebaseml.googleapis.com
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do niej pakiet SDK Vertex AI in Firebase.
Biblioteka Vertex AI in Firebase zapewnia dostęp do funkcji Vertex AI Gemini API i jest uwzględniona w pakiecie Firebase JavaScript SDK na potrzeby stron internetowych.
Zainstaluj pakiet SDK Firebase JS dla aplikacji internetowych przy użyciu npm:
npm install firebase
Inicjalizacja Firebase w aplikacji:
import { initializeApp } from "firebase/app"; // TODO(developer) Replace the following with your app's Firebase configuration // See: https://firebase.google.com/docs/web/learn-more#config-object const firebaseConfig = { // ... }; // Initialize FirebaseApp const firebaseApp = initializeApp(firebaseConfig);
Krok 3. Inicjuj usługę Vertex AI i model generatywny
Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować Vertex AI i modelu generatywnego.
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
Po przeczytaniu przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizacja odpowiednią do przypadku użycia i aplikacji.
Krok 4. Zadzwoń pod numer Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i inicjalizacji usługi Vertex AI oraz modelu generatywnego możesz wywołać funkcję Vertex AI Gemini API.
Możesz użyć generateContent()
, aby wygenerować tekst na podstawie prompta tekstowego
żądanie:
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o dostępne modele do różnych zastosowań oraz ich poniższych limitów i cen.
Wypróbuj inne funkcje usługi Gemini API
- Dowiedz się więcej o generowaniu tekstu na podstawie promptów tekstowych, w tym o przesyłaniu odpowiedzi.
- Generuj tekst z prompty multimodalne (w tym tekst, obrazy, pliki PDF, filmy i dźwięk).
- tworzyć rozmowy wieloetapowe (czat),
- korzystać z wywołania funkcji, modeli generatywnych w zewnętrznych systemach i informacjach.
Dowiedz się, jak kontrolować generowanie treści
- Omówienie projektowania promptów, w tym: sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak oraz maksymalną liczbę tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, by dostosować prawdopodobieństwo uzyskania odpowiedzi, które mogą zostać uznane za szkodliwe.
Prześlij opinię o tym, jak oceniasz korzystanie z usługi Vertex AI in Firebase