Z tego przewodnika dowiesz się, jak zacząć wywoływać interfejs Vertex AI Gemini API bezpośrednio z poziomu aplikacji za pomocą pakietów SDK Vertex AI dla Firebase.
Wymagania wstępne
Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase otwórz stronę Build with Gemini (Utwórz z Gemini) i kliknij drugą kartę, aby uruchomić przepływ pracy, który pomoże Ci wykonać poniższe zadania. Jeśli w konsoli wyświetli się karta Vertex AI, oznacza to, że te zadania zostały wykonane.
Przenieś projekt na wyższy abonament, aby korzystać z abonamentu Blaze z płatnościami według wykorzystania.
Włącz w projekcie te 2 interfejsy API:
aiplatform.googleapis.com
ifirebaseml.googleapis.com
.
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok) możesz dodać do swojej aplikacji pakiet SDK Vertex AI dla Firebase.
Krok 3. Zainicjuj usługę Vertex AI i model generatywny
Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować usługę Vertex AI i model generatywny.
Po skorzystaniu z przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.
Krok 4. Wywołaj interfejs Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK oraz zainicjowaniu usługi Vertex AI i modelu generatywnego możesz zacząć wywoływać interfejs Vertex AI Gemini API.
Za pomocą generateContent()
możesz wygenerować tekst na podstawie żądania promptu tekstowego:
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.
Wypróbuj inne możliwości interfejsu Gemini API
- Dowiedz się więcej o generowaniu tekstu na podstawie promptów tekstowych, w tym o sposobie strumieniowania odpowiedzi.
- Generuj tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio).
- tworzyć rozmowy wieloetapowe (czat),
- Używaj wywołania funkcji, aby łączyć modele generatywne z zewnętrznymi systemami i informacjami.
Dowiedz się, jak kontrolować generowanie treści
- Dowiedz się, jak projektować prompty, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uznane za szkodliwe.
Prześlij opinię na temat korzystania z Vertex AI dla Firebase