Gdy wywołujesz Gemini API z aplikacji za pomocą pakietu SDK Vertex AI in Firebase: możesz poprosić model Gemini o wygenerowanie tekstu na podstawie danych wejściowych.
Zanim zaczniesz
W razie potrzeby wypełnij wprowadzenie do pakietów SDK Vertex AI in Firebase Upewnij się, że wykonałeś/wykonałaś te czynności:
Skonfiguruj nowy lub istniejący projekt Firebase, w tym użyj abonamentu Blaze i włącz wymagane interfejsy API.
Połącz aplikację z Firebase, w tym zarejestruj ją i dodaj do niej konfigurację Firebase.
Dodaj pakiet SDK i zainicjuj usługę Vertex AI oraz model generatywny w swojej aplikacji.
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i zainicjowaniu pakietu usługę Vertex AI i model generatywny, możesz zadzwonić pod numer Gemini API.
Generuj tekst na podstawie samego tekstu
Możesz wywołać funkcję Gemini API, podając tylko tekst. W przypadku tych połączeń musisz użyć modelu, który obsługuje tylko prompty tekstowe (np. Gemini 1.5 Pro).
Wybierz, czy chcesz odtwarzać odpowiedź strumieniowo (generateContentStream
), czy czekać na odpowiedź, aż zostanie wygenerowany cały wynik (generateContent
).
Streaming
Możesz przyspieszyć interakcje, nie czekając na cały wynik do generowania modelu i używać strumieniowania do obsługi wyników częściowych.
Bez przesyłania strumieniowego
Możesz też zaczekać na cały wynik, zamiast przesyłać go strumieniowo. wynik jest zwracany dopiero po zakończeniu generowania przez model proces tworzenia konta.
Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizację odpowiednio do konkretnego przypadku użycia i aplikacji.
Co jeszcze potrafisz?
- Dowiedz się, jak zliczać tokeny. przed wysłaniem do modelu długich promptów.
- Zastanów się nad przygotowaniem do produkcji, w tym: konfigurowanie aplikacji Firebase App Check w celu ochrony Gemini API przed nadużyciami ze strony nieautoryzowanych klientów.
Wypróbuj inne funkcje urządzenia Gemini API
- tworzyć rozmowy wieloetapowe (czat);
- generować tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio);
- Aby połączyć modele generatywne z zewnętrznymi systemami i informacjami, użyj wywołania funkcji.
Dowiedz się, jak kontrolować generowanie treści
- Omówienie projektowania promptów, w tym: sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uważane za szkodliwe.
Więcej informacji o modelach Gemini
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.Przesyłanie opinii o Twoich wrażeniach z korzystania z Vertex AI in Firebase