Wywołania funkcji ułatwiają uzyskiwanie danych wyjściowych uporządkowanych danych z modeli generatywnych. Następnie możesz używać tych danych wyjściowych do wywoływania innych interfejsów API i zwracania odpowiednich danych odpowiedzi do modelu. Inaczej mówiąc, wywołanie funkcji pomaga połączyć modele generatywne z systemami zewnętrznymi, aby generowane treści zawierały najbardziej aktualne i dokładne informacje.
Modele Gemini możesz przesłać z opisami funkcji. Są to funkcje, które piszesz w języku aplikacji (czyli nie są to funkcje w Cloud Functions). Model może poprosić o wywołanie funkcji i odesłanie wyniku, aby ułatwić mu obsługę zapytania.
Więcej informacji o wywoływaniu funkcji znajdziesz w dokumentacji Google Cloud.
Zanim zaczniesz
Jeśli jeszcze nie masz tego za sobą, zapoznaj się z przewodnikiem dla początkujących dotyczącym pakietów SDK Vertex AI dla Firebase. Upewnij się, że masz wykonane wszystkie te czynności:
Skonfiguruj nowy lub istniejący projekt Firebase, w tym używając abonamentu Blaze i włącz wymagane interfejsy API.
Połączenie aplikacji z Firebase, w tym jej zarejestrowanie i dodanie do niej konfiguracji Firebase.
Dodaj pakiet SDK i zainicjuj usługę Vertex AI oraz model generatywny w swojej aplikacji.
Gdy połączysz aplikację z Firebase, dodasz pakiet SDK oraz zainicjujesz usługę Vertex AI i model generatywny, możesz wywołać interfejs Gemini API.
Skonfiguruj wywołanie funkcji
W tym samouczku model będzie wymagał interakcji z hipotetycznym interfejsem API Exchange, który obsługuje te parametry:
Parametr | Typ | Wymagane | Opis |
---|---|---|---|
currencyFrom |
string, | tak | Waluta, z której zostanie przeliczony |
currencyTo |
string, | tak | Waluta, na którą zostanie przeliczona |
Przykładowe żądanie do interfejsu API
{
"currencyFrom": "USD",
"currencyTo": "SEK"
}
Przykładowa odpowiedź interfejsu API
{
"base": "USD",
"rates": {"SEK": 10.99}
}
Krok 1. Utwórz funkcję, która wysyła żądanie do interfejsu API
Zacznij od utworzenia funkcji, która wysyła żądanie do interfejsu API.
Dla celów demonstracyjnych w tym samouczku będziesz zwracać wartości zakodowane na stałe w tym samym formacie, w jakim zwracany jest rzeczywisty interfejs API, zamiast wysyłać rzeczywiste żądanie do interfejsu API.
Krok 2. Utwórz deklarację funkcji
Utwórz deklarację funkcji, którą przekażesz do modelu generatywnego (następny krok tego samouczka).
W opisach funkcji i parametrów podaj jak najwięcej szczegółów. Model generatywny wykorzystuje te informacje do określenia, którą funkcję należy wybrać i jak podać wartości parametrów w wywołaniu funkcji.
Krok 3. Określ deklarację funkcji podczas inicjowania modelu
Określ deklarację funkcji podczas inicjowania modelu generatywnego, ustawiając parametr tools
modelu:
Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.
Krok 4. Wygeneruj wywołanie funkcji
Teraz możesz utworzyć prompt dla modelu za pomocą zdefiniowanej funkcji.
Zalecamy używanie interfejsu czatu, ponieważ wywołania funkcji dobrze pasują do wieloetapowej struktury czatu.
Co jeszcze możesz zrobić?
Wypróbuj inne możliwości interfejsu Gemini API
- tworzyć rozmowy wieloetapowe (czat),
- Generuj tekst na podstawie promptów tekstowych.
- Generuj tekst na podstawie promptów multimodalnych (w tym tekstu, obrazów, plików PDF, filmów i plików audio).
Dowiedz się, jak kontrolować generowanie treści
- Dowiedz się, jak projektować prompty, w tym sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak temperatura i maksymalna liczba tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, aby dostosować prawdopodobieństwo otrzymywania odpowiedzi, które mogą być uznane za szkodliwe.
Więcej informacji o modelach Gemini
Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz ich limitach i cenach.Prześlij opinię na temat korzystania z Vertex AI dla Firebase