Z tego przewodnika dowiesz się, jak zacząć dzwonić pod numery Vertex AI Gemini API bezpośrednio w aplikacji za pomocą Pakiet SDK Vertex AI in Firebase dla wybranej platformy.
Wymagania wstępne
W tym przewodniku zakładamy, że umiesz już używać JavaScriptu do programowania aplikacji internetowych. Ten przewodnik nie wymaga platformy.
Upewnij się, że Twoje środowisko programistyczne i aplikacja internetowa spełniają te wymagania wymagania:
- (Opcjonalnie) Node.js
- Nowoczesna przeglądarka
(Opcjonalnie) Zobacz przykładową aplikację.
Pobieranie przykładowej aplikacji
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych zastosowań lub użyj aplikacji próbnej, jeśli nie masz własnej aplikacji internetowej. Aby użyć przykładowej aplikacji, musisz wykonać połączyć je z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase wybierz Strona Build with Gemini
Kliknij kartę Vertex AI in Firebase, aby uruchomić przepływ pracy, który pomoże Ci wykonaj te czynności. (Pamiętaj, że jeśli w konsoli widoczna jest karta Vertex AI, te zadania są ukończone).
Przenieś projekt na wyższy abonament, aby używać abonament Blaze (płatność według wykorzystania).
Włącz w projekcie te 2 interfejsy API:
aiplatform.googleapis.com
. orazfirebaseml.googleapis.com
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok), możesz teraz dodać pakiet SDK Vertex AI in Firebase do aplikacji.
Biblioteka Vertex AI in Firebase zapewnia dostęp do Vertex AI Gemini API i jest częścią pakietu Firebase JavaScript SDK for Web.
Zainstaluj pakiet SDK Firebase JS dla aplikacji internetowych przy użyciu npm:
npm install firebase
Zainicjuj Firebase w swojej aplikacji:
import { initializeApp } from "firebase/app"; // TODO(developer) Replace the following with your app's Firebase configuration // See: https://firebase.google.com/docs/web/learn-more#config-object const firebaseConfig = { // ... }; // Initialize FirebaseApp const firebaseApp = initializeApp(firebaseConfig);
Krok 3. Zainicjuj usługę Vertex AI i model generatywny
Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować Vertex AI i modelu generatywnego.
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
Po przeczytaniu przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizacja odpowiednią do przypadku użycia i aplikacji.
Krok 4. Zadzwoń pod numer Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i zainicjowaniu jej usługę Vertex AI i model generatywny, możesz zadzwonić pod numer Vertex AI Gemini API.
Możesz użyć narzędzia generateContent()
, aby wygenerować tekst na podstawie prompta tekstowego
żądanie:
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o dostępne modele do różnych zastosowań oraz ich poniższych limitów i cen.
Wypróbuj inne funkcje urządzenia Gemini API
- Więcej informacji o generowaniu tekstu z: prompty tekstowe, w tym instrukcje przesyłać odpowiedź strumieniowo.
- Generuj tekst z prompty multimodalne (w tym tekst, obrazy, pliki PDF, filmy i dźwięk).
- tworzyć rozmowy wieloetapowe (czat),
- nawiązać połączenie, korzystając z wywołania funkcji; modeli generatywnych w zewnętrznych systemach i informacjach.
Dowiedz się, jak kontrolować generowanie treści
- Omówienie projektowania promptów, w tym: sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak oraz maksymalną liczbę tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, by dostosować prawdopodobieństwo uzyskania odpowiedzi, które mogą zostać uznane za szkodliwe.
Przesyłanie opinii o Twoich wrażeniach z korzystania z Vertex AI in Firebase