Za pomocą interfejsu Gemini API możesz
wiele rund. Pakiet SDK Vertex AI dla Firebase upraszcza ten proces, zarządzając
stan rozmowy, więc w przeciwieństwie do generateContentStream()
lub
generateContent()
, nie musisz samodzielnie zapisywać historii rozmowy.
Zanim zaczniesz
W razie potrzeby wykonaj jeszcze raz wprowadzenie do pakietów SDK Vertex AI dla Firebase Upewnij się, że masz wykonane wszystkie te czynności:
Skonfiguruj nowy lub istniejący projekt Firebase, w tym Abonament Blaze i włączanie wymaganych interfejsów API.
połączyć aplikację z Firebase, w tym zarejestrować ją i dodać do konfigurację Firebase w aplikacji.
Dodaj pakiet SDK i zainicjuj usługę Vertex AI oraz model generatywny w aplikacji.
Gdy połączysz aplikację z Firebase, dodasz pakiet SDK i zainicjujesz usługę Vertex AI i model generatywny, możesz już wywołać interfejs Gemini API.
Wyślij prośbę o prompt na czacie
Aby utworzyć rozmowę wieloetapową (np. czat), zacznij od
czatuj, dzwoniąc pod numer startChat()
. Następnie użyj
sendMessageStream()
(lub sendMessage()
), aby wysłać nową wiadomość do użytkownika, która
spowoduje też dołączenie wiadomości i odpowiedzi do historii czatu.
Istnieją 2 opcje dla elementu role
związane z treścią w
rozmowa:
user
: rola, która dostarcza prompty. Jest to wartość domyślna dla opcji funkcjęsendMessageStream()
(lubsendMessage()
), a funkcja zwraca w przypadku przekazania innej roli.model
: rola, która dostarcza odpowiedzi. Tej roli można używać, gdy Dzwonię pod numerstartChat()
w istniejącej siecihistory
.
Wybierz, czy chcesz przesyłać odpowiedź strumieniowo (sendMessageStream
) czy zaczekać
dla odpowiedzi aż do wygenerowania całego wyniku (sendMessage
).
Streaming
Możesz przyspieszyć interakcje, nie czekając na cały wynik do generowania modelu i używać strumieniowania do obsługi wyników częściowych.
Ten przykład pokazuje, jak za pomocą odtwarzacza sendMessageStream()
strumieniowo przesyłać odpowiedzi z
model:
Bez strumieniowania
Możesz też zaczekać na cały wynik, zamiast przesyłać go strumieniowo. wynik jest zwracany dopiero po zakończeniu generowania przez model proces tworzenia konta.
Ten przykład pokazuje, jak za pomocą sendMessage()
wysłać nową wiadomość do użytkownika:
Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizację odpowiednio do konkretnego przypadku użycia i aplikacji.
Co jeszcze możesz zrobić?
- Dowiedz się, jak zliczać tokeny. przed wysłaniem do modelu długich promptów.
- Konfigurowanie Cloud Storage dla Firebase do uwzględniania dużych plików w żądaniach multimodalnych za pomocą funkcji Adresy URL w Cloud Storage. Pliki mogą zawierać obrazy, pliki PDF, filmy i dźwięk.
- Zacznij myśleć o przygotowaniu do produkcji, w tym: skonfigurowanie Sprawdzania aplikacji Firebase w celu ochrony Gemini API przed nadużyciami ze strony nieautoryzowanych klientów.
Wypróbuj inne możliwości interfejsu Gemini API
- Generuj tekst z prompty tekstowe.
- Generuj tekst z prompty multimodalne (w tym tekst, obrazy, pliki PDF, filmy i dźwięk).
- nawiązać połączenie, korzystając z wywołania funkcji; modeli generatywnych w zewnętrznych systemach i informacjach.
Dowiedz się, jak kontrolować generowanie treści
- Omówienie projektowania promptów, w tym: sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak oraz maksymalną liczbę tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, by dostosować prawdopodobieństwo uzyskania odpowiedzi, które mogą zostać uznane za szkodliwe.
Więcej informacji o modelach Gemini
Dowiedz się więcej o dostępne modele do różnych zastosowań oraz ich poniższych limitów i cen.Przesyłanie opinii o swoich doświadczeniach z Vertex AI dla Firebase,