Twórz wieloetapowe rozmowy (czat) z użyciem interfejsu Gemini API


Za pomocą Gemini API możesz prowadzić swobodne rozmowy na różnych platformach wiele rund. Pakiet SDK Vertex AI in Firebase upraszcza ten proces, zarządzając stan rozmowy, więc w odróżnieniu od generateContentStream() lub generateContent(), nie musisz samodzielnie zapisywać historii rozmów.

Zanim zaczniesz

W razie potrzeby wypełnij wprowadzenie do pakietów SDK Vertex AI in Firebase Upewnij się, że masz wykonane wszystkie te czynności:

  1. Skonfiguruj nowy lub istniejący projekt Firebase, w tym Abonament Blaze i włączanie wymaganych interfejsów API.

  2. połączyć aplikację z Firebase, w tym zarejestrować ją i dodać do konfigurację Firebase w aplikacji.

  3. Dodaj pakiet SDK i zainicjuj usługę Vertex AI oraz model generatywny w aplikacji.

Gdy połączysz aplikację z Firebase, dodasz pakiet SDK i zainicjujesz usługę Vertex AI i model generatywny, możesz zadzwonić pod numer Gemini API.

Wyślij prośbę o prompt na czacie

Aby utworzyć rozmowę wieloetapową (np. czat), zacznij od czatuj, dzwoniąc pod numer startChat(). Następnie użyj sendMessageStream() (lub sendMessage()), aby wysłać nową wiadomość do użytkownika, która spowoduje też dołączenie wiadomości i odpowiedzi do historii czatu.

Istnieją 2 opcje dla elementu role związane z treścią w rozmowa:

  • user: rola, która dostarcza prompty. Jest to wartość domyślna dla opcji funkcję sendMessageStream() (lub sendMessage()), a funkcja zwraca w przypadku przekazania innej roli.

  • model: rola, która dostarcza odpowiedzi. Tej roli można używać, gdy Dzwonię pod numer startChat() w istniejącej sieci history.

Wybierz, czy chcesz przesyłać odpowiedź strumieniowo (sendMessageStream) czy zaczekać dla odpowiedzi aż do wygenerowania całego wyniku (sendMessage).

Streaming

Możesz przyspieszyć interakcje, nie czekając na cały wynik do generowania modelu i używać strumieniowania do obsługi wyników częściowych.

Bez strumieniowania

Możesz też zaczekać na cały wynik, zamiast przesyłać go strumieniowo. wynik jest zwracany dopiero po zakończeniu generowania przez model proces tworzenia konta.

Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizację odpowiednio do konkretnego przypadku użycia i aplikacji.

Co jeszcze możesz zrobić?

Wypróbuj inne funkcje urządzenia Gemini API

Dowiedz się, jak kontrolować generowanie treści

Możesz też eksperymentować z promptami i konfiguracjami modeli za pomocą Vertex AI Studio

Więcej informacji o modelach Gemini

Dowiedz się więcej o dostępne modele do różnych zastosowań oraz ich poniższych limitów i cen.


Przesyłanie opinii o Twoich wrażeniach z korzystania z Vertex AI in Firebase