תחילת העבודה עם Gemini API באמצעות Vertex AI SDK for Firebase


במדריך הזה מוסבר איך להתחיל לבצע קריאות ל-Gemini API ישירות מהאפליקציה באמצעות Vertex AI SDK for Firebase.

דרישות מוקדמות

המדריך הזה מתבסס על ההנחה שאתם מכירים את הפיתוח של אפליקציות עם Flutter.

  • ודאו שסביבת הפיתוח ואפליקציית האינטרנט עומדות בדרישות הבאות:

    • Dart 3.2.0+
  • (אופציונלי) כדאי לבדוק את האפליקציה לדוגמה.

    להורדת האפליקציה לדוגמה

    תוכלו לנסות את ה-SDK במהירות, לראות הטמעה מלאה של תרחישי שימוש שונים, או להשתמש באפליקציה לדוגמה אם אין לכם אפליקציית אינטרנט משלכם. כדי להשתמש באפליקציה לדוגמה, תצטרכו לחבר אותה לפרויקט Firebase.

שלב 1: מגדירים פרויקט Firebase ומקשרים את האפליקציה ל-Firebase

אם כבר יש לכם פרויקט Firebase ואפליקציה שמקושרת ל-Firebase

  1. במסוף Firebase, נכנסים לדף Build with Gemini ולוחצים על הכרטיס השני כדי להפעיל תהליך עבודה שעוזר לבצע את המשימות הבאות. אם לא מופיעה פריסת כרטיסים, המשמעות היא שהמשימות האלה כבר בוצעו.

  2. כדי להוסיף את ה-SDK לאפליקציה, צריך להמשיך לשלב הבא במדריך הזה.

אם אין לכם עדיין פרויקט Firebase ואפליקציה שמקושרת ל-Firebase

שלב 2: הוספת ה-SDK

אחרי שמגדירים את הפרויקט ב-Firebase והאפליקציה מחוברת ל-Firebase (לפי השלב הקודם), אפשר עכשיו להוסיף לאפליקציה את Vertex AI SDK for Firebase.

Vertex AI SDK ל-Flutter (firebase_vertexai) מאפשר גישה ל-Gemini API.

  1. הורד את המאגר flutterfire מהמאגר vertex_ai מההסתעפות כדי להשתמש בגרסת התצוגה המקדימה של ה-SDK.

    ערכת ה-SDK תהיה נמצאת בספרייה הזו:
    <your local folder>/flutterfire/packages/firebase_vertexai/firebase_vertexai

  2. בקובץ pubspec.yaml, מוסיפים את יישומי הפלאגין firebase_vertexai ו-firebase_core לרשימה dependencies.

    dependencies:
    flutter:
      sdk: flutter
    ...
    firebase_vertexai: any
    firebase_core: ^2.27.0
    

שלב 3: מפעילים את שירות Vertex AI ואת המודל הגנרטיבי

לפני שתוכלו לבצע קריאות ל-API, עליכם לאתחל את שירות Vertex AI ואת המודל הגנרטיבי.

  1. בקובץ pubspec.yaml, משנים את נתיב החבילה של firebase_vertexai למקום שאליו הורדתם את ה-SDK:

    // For private preview only
    dependency_overrides:
    firebase_vertexai:
      path: PATH/TO/YOUR/LOCAL/FIREBASE_VERTEXAI_PACKAGE
    
  2. בלוגיקת קוד ה-Dart, מייבאים את שני יישומי הפלאגין של Firebase:

    import 'package:firebase_vertexai/firebase_vertexai.dart';
    import 'package:firebase_core/firebase_core.dart';
    
  3. מפעילים את שירות Vertex AI ואת המודל הגנרטיבי:

    import 'package:firebase_vertexai/firebase_vertexai.dart';
    import 'package:firebase_core/firebase_core.dart';
    
    // Initialize FirebaseApp
    await Firebase.initializeApp();
    // Initialize the Vertex AI service and the generative model
    // Specify a model that supports your use case
    // Gemini 1.5 Pro is versatile and can accept both text-only and multimodal prompt inputs
    final model =
          FirebaseVertexAI.instance.generativeModel(modelName: 'gemini-1.5-pro-preview-0409');
    

בסיום המדריך לתחילת העבודה, קראו איך לבחור מודל Gemini שמתאים למקרה שלכם.

שלב 4: קריאה ל-Gemini API

עכשיו, אחרי שקישרתם את האפליקציה ל-Firebase, הוספתם את ה-SDK והפעלתם את שירות Vertex AI ואת המודל הגנרטיבי, אתם יכולים לקרוא ל-Gemini API.

בוחרים אם רוצים לשדר את התשובה (generateContentStream) או לחכות לתגובה עד ליצירת התוצאה במלואה (generateContent).

סטרימינג

כברירת מחדל, המודל מחזיר תשובה אחרי השלמת תהליך היצירה. עם זאת, אפשר להשיג אינטראקציות מהירות יותר אם לא מחכים לתוצאה המלאה, אלא משתמשים בסטרימינג כדי לטפל בתוצאות חלקיות.

אפשר להשתמש ב-generateContentStream() כדי ליצור סטרימינג של טקסט שנוצר מבקשת הנחיה שכוללת רק טקסט:

import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';

await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 Pro is versatile and can accept both text-only and multimodal prompt inputs
final model =
      FirebaseVertexAI.instance.generativeModel(modelName: 'gemini-1.5-pro-preview-0409');

// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];

// To stream generated text output, call generateContentStream with the text input
final response = model.generateContentStream(prompt);
await for (final chunk in response) {
  print(chunk.text);
}

ללא סטרימינג

לחלופין, תוכלו לחכות לתוצאה המלאה במקום לסטרימינג. התוצאה תוחזר רק אחרי שהמודל ישלים את תהליך היצירה כולו.

בעזרת generateContent() אפשר ליצור טקסט מבקשה עם הנחיה שכוללת רק טקסט:

import 'package:firebase_vertexai/firebase_vertexai.dart';
import 'package:firebase_core/firebase_core.dart';

await Firebase.initializeApp();
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 Pro is versatile and can accept both text-only and multimodal prompt inputs
final model =
      FirebaseVertexAI.instance.generativeModel(modelName: 'gemini-1.5-pro-preview-0409');

// Provide a prompt that contains text
final prompt = [Content.text('Write a story about a magic backpack.')];

// To generate text output, call generateContent with the text input
final response = await model.generateContent(prompt);
print(response.text);

מה עוד אפשר לעשות?

מידע נוסף על הדגמים של Gemini

כאן תוכלו לקרוא על המודלים הזמינים בתרחישים שונים ועל המכסות והתמחור שלהם.

כדאי לנסות יכולות נוספות של Gemini API

מידע נוסף על שליטה ביצירת תוכן

אתם יכולים גם להתנסות בהנחיות ובמודלים של הגדרות אישיות באמצעות Vertex AI Studio.


נשמח לקבל משוב על חוויית השימוש ב-Vertex AI SDK for Firebase