Z tego przewodnika dowiesz się, jak zacząć dzwonić pod numery Vertex AI Gemini API bezpośrednio w aplikacji za pomocą Pakiet SDK Vertex AI in Firebase dla wybranej platformy.
Wymagania wstępne
W tym przewodniku zakładamy, że umiesz tworzyć aplikacje za pomocą Flutter.
Upewnij się, że Twoje środowisko programistyczne i aplikacja Flutter spełniają te wymagania wymagania:
- Dart 3.2.0+
(Opcjonalnie) Zobacz przykładową aplikację.
Pobieranie przykładowej aplikacji
Możesz szybko wypróbować pakiet SDK, zobaczyć pełną implementację różnych zastosowań lub skorzystać z aplikacji próbnej, jeśli nie masz własnej aplikacji Flutter. Aby użyć przykładowej aplikacji, musisz wykonać połączyć je z projektem Firebase.
Krok 1. Skonfiguruj projekt Firebase i połącz z nią swoją aplikację
Jeśli masz już projekt Firebase i aplikację połączoną z Firebase
W konsoli Firebase wybierz Strona Build with Gemini
Kliknij kartę Vertex AI in Firebase, aby uruchomić przepływ pracy, który pomoże Ci wykonaj te czynności. (Pamiętaj, że jeśli w konsoli widoczna jest karta Vertex AI, te zadania są ukończone).
Przenieś projekt na wyższy abonament, aby używać abonament Blaze (płatność według wykorzystania).
Włącz w projekcie te 2 interfejsy API:
aiplatform.googleapis.com
. orazfirebaseml.googleapis.com
Przejdź do następnego kroku tego przewodnika, aby dodać pakiet SDK do aplikacji.
Jeśli nie masz jeszcze projektu Firebase ani aplikacji połączonej z Firebase
Krok 2. Dodaj pakiet SDK
Po skonfigurowaniu projektu Firebase i połączeniu aplikacji z Firebase (patrz poprzedni krok), możesz teraz dodać pakiet SDK Vertex AI in Firebase do aplikacji.
Wtyczka Vertex AI in Firebase do platformy Flutter (firebase_vertexai
) zapewnia
dostęp do Vertex AI Gemini API.
W katalogu projektu Flutter uruchom to polecenie, aby zainstaluj podstawową wtyczkę:
flutter pub add firebase_core
Do pliku
lib/main.dart
zaimportuj podstawową wtyczkę Firebase oraz wygenerowany wcześniej plik konfiguracji:import 'package:firebase_core/firebase_core.dart'; import 'firebase_options.dart';
Także w pliku
lib/main.dart
zainicjuj Firebase za pomocą ObiektDefaultFirebaseOptions
wyeksportowany przez plik konfiguracji:await Firebase.initializeApp( options: DefaultFirebaseOptions.currentPlatform, );
Ponownie skompiluj aplikację Flutter:
flutter run
W katalogu projektu Flutter uruchom to polecenie:
flutter pub add firebase_vertexai
Po zakończeniu odbuduj projekt Flutter:
flutter run
Krok 3. Zainicjuj usługę Vertex AI i model generatywny
Zanim będzie można wykonywać wywołania interfejsu API, musisz zainicjować Vertex AI i modelu generatywnego.
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
// Initialize FirebaseApp
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
Po przeczytaniu przewodnika dla początkujących dowiedz się, jak wybrać model Gemini i (opcjonalnie) lokalizacja odpowiednią do przypadku użycia i aplikacji.
Krok 4. Zadzwoń pod numer Vertex AI Gemini API
Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i zainicjowaniu jej usługę Vertex AI i model generatywny, możesz zadzwonić pod numer Vertex AI Gemini API.
Możesz użyć narzędzia generateContent()
, aby wygenerować tekst na podstawie prompta tekstowego
żądanie:
import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';
await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
final model =
FirebaseVertexAI.instance.generativeModel(model: 'gemini-1.5-flash');
// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];
// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);
Co jeszcze możesz zrobić?
Więcej informacji o modelach Gemini
Dowiedz się więcej o dostępne modele do różnych zastosowań oraz ich poniższych limitów i cen.
Wypróbuj inne funkcje urządzenia Gemini API
- Więcej informacji o generowaniu tekstu z: prompty tekstowe, w tym instrukcje przesyłać odpowiedź strumieniowo.
- Generuj tekst z prompty multimodalne (w tym tekst, obrazy, pliki PDF, filmy i dźwięk).
- tworzyć rozmowy wieloetapowe (czat),
- nawiązać połączenie, korzystając z wywołania funkcji; modeli generatywnych w zewnętrznych systemach i informacjach.
Dowiedz się, jak kontrolować generowanie treści
- Omówienie projektowania promptów, w tym: sprawdzone metody, strategie i przykładowe prompty.
- Skonfiguruj parametry modelu, takie jak oraz maksymalną liczbę tokenów wyjściowych.
- Użyj ustawień bezpieczeństwa, by dostosować prawdopodobieństwo uzyskania odpowiedzi, które mogą zostać uznane za szkodliwe.
Przesyłanie opinii o Twoich wrażeniach z korzystania z Vertex AI in Firebase