במדריך הזה מוסבר איך להתחיל לבצע קריאות ל-Gemini API ישירות מהאפליקציה באמצעות Vertex AI SDK for Firebase.
דרישות מוקדמות
המדריך מתבסס על ההנחה שאתם מכירים את השימוש ב-Xcode לפיתוח אפליקציות לפלטפורמות של Apple (כמו iOS).
ודאו שסביבת הפיתוח ואפליקציית הפלטפורמות של Apple עומדות בדרישות הבאות:
- Xcode 15.0 ואילך
- האפליקציה צריכה לטרגט ל-iOS מגרסה 15 ואילך או ל-macOS מגרסה 12 ואילך.
(אופציונלי) כדאי לבדוק את האפליקציה לדוגמה.
תוכלו לנסות את ה-SDK במהירות, לראות הטמעה מלאה של תרחישי שימוש שונים, או להשתמש באפליקציה לדוגמה אם אין לכם אפליקציה משלכם לפלטפורמות Apple. כדי להשתמש באפליקציה לדוגמה, תצטרכו לחבר אותה לפרויקט Firebase.
שלב 1: מגדירים פרויקט Firebase ומקשרים את האפליקציה ל-Firebase
אם כבר יש לכם פרויקט Firebase ואפליקציה שמקושרת ל-Firebase
במסוף Firebase, נכנסים לדף Build with Gemini ולוחצים על הכרטיס השני כדי להפעיל תהליך עבודה שעוזר לבצע את המשימות הבאות. אם לא מופיעה פריסת כרטיסים, המשמעות היא שהמשימות האלה כבר בוצעו.
תוכלו לשדרג את הפרויקט כדי להשתמש בתוכנית התמחור והתשלומים של Blaze לפי שימוש.
מפעילים בפרויקט את שני ממשקי ה-API הבאים:
aiplatform.googleapis.com
ו-firebaseml.googleapis.com
.
כדי להוסיף את ה-SDK לאפליקציה, צריך להמשיך לשלב הבא במדריך הזה.
אם אין לכם עדיין פרויקט Firebase ואפליקציה שמקושרת ל-Firebase
שלב 2: הוספת ה-SDK
אחרי שמגדירים את הפרויקט ב-Firebase והאפליקציה מחוברת ל-Firebase (לפי השלב הקודם), אפשר עכשיו להוסיף לאפליקציה את Vertex AI SDK for Firebase.
Vertex AI SDK for Firebase מספק גישה ל-Gemini API
וכלול כחלק מ-Firebase SDK for Apple Platform
(firebase-ios-sdk
) בהסתעפות vertexai-preview-0.1.0
. כדי להשתמש
ב-Vertex AI SDK, צריך להשתמש ב-Swift Package Manager כדי להתקין ולנהל יחסי תלות של Firebase. מנהלי חבילות אחרים, כמו CocoaPods, אינם נתמכים כעת.
כדי לבדוק אם התקנתם את חבילת Firebase בפרויקט Xcode, עליכם לעיין בהוראות הרלוונטיות:
שלב 3: מפעילים את שירות Vertex AI ואת המודל הגנרטיבי
לפני שתוכלו לבצע קריאות ל-API, עליכם לאתחל את שירות Vertex AI ואת המודל הגנרטיבי.
מייבאים את המודול
FirebaseVertexAI
:import FirebaseVertexAI
מפעילים את שירות Vertex AI ואת המודל הגנרטיבי:
import FirebaseVertexAI // Initialize the Vertex AI service let vertex = VertexAI.vertexAI() // Initialize the generative model with a model that supports your use case // Gemini 1.5 Pro is versatile and can accept both text-only or multimodal prompt inputs let model = vertex.generativeModel(modelName: "gemini-1.5-pro-preview-0409")
בסיום המדריך לתחילת העבודה, קראו איך לבחור מודל Gemini שמתאים למקרה שלכם.
שלב 4: קריאה ל-Gemini API
עכשיו, אחרי שקישרתם את האפליקציה ל-Firebase, הוספתם את ה-SDK והפעלתם את שירות Vertex AI ואת המודל הגנרטיבי, אתם יכולים לקרוא ל-Gemini API.
בוחרים אם רוצים לשדר את התשובה (generateContentStream
) או לחכות לתגובה עד ליצירת התוצאה במלואה (generateContent
).
סטרימינג
כברירת מחדל, המודל מחזיר תשובה אחרי השלמת תהליך היצירה. עם זאת, אפשר להשיג אינטראקציות מהירות יותר אם לא מחכים לתוצאה המלאה, אלא משתמשים בסטרימינג כדי לטפל בתוצאות חלקיות.
אפשר להשתמש ב-generateContentStream()
כדי ליצור סטרימינג של טקסט שנוצר מבקשת הנחיה שכוללת רק טקסט:
import FirebaseVertexAI
// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 Pro is versatile and can accept both text-only or multimodal prompt inputs
let model = vertex.generativeModel(modelName: "gemini-1.5-pro-preview-0409")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To stream generated text output, call generateContentStream with the text input
let contentStream = model.generateContentStream(prompt)
for try await chunk in contentStream {
if let text = chunk.text {
print(text)
}
}
ללא סטרימינג
לחלופין, תוכלו לחכות לתוצאה המלאה במקום לסטרימינג. התוצאה תוחזר רק אחרי שהמודל ישלים את תהליך היצירה כולו.
בעזרת generateContent()
אפשר ליצור טקסט מבקשה עם הנחיה שכוללת רק טקסט:
import FirebaseVertexAI
// Initialize the Vertex AI service
let vertex = VertexAI.vertexAI()
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 Pro is versatile and can accept both text-only or multimodal prompt inputs
let model = vertex.generativeModel(modelName: "gemini-1.5-pro-preview-0409")
// Provide a prompt that contains text
let prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
let response = try await model.generateContent(prompt)
if let text = response.text {
print(text)
}
מה עוד אפשר לעשות?
מידע נוסף על הדגמים של Gemini
כאן תוכלו לקרוא על המודלים הזמינים בתרחישים שונים ועל המכסות והתמחור שלהם.
כדאי לנסות יכולות נוספות של Gemini API
- למידע נוסף על שליחת הנחיות טקסט בלבד
- שולחים בקשות להנחיות במספר מצבים עם הנחיות בפורמט טקסט ומדיה (כולל תמונות, קובצי PDF, וידאו ואודיו).
- יצירת שיחות עם כמה פניות (צ'אט).
מידע נוסף על שליטה ביצירת תוכן
- הסבר על עיצוב הנחיות, כולל שיטות מומלצות, אסטרטגיות והנחיות לדוגמה.
- להגדיר פרמטרים של המודל כמו טמפרטורה ואסימוני פלט מקסימלי.
- תוכלו להשתמש בהגדרות הבטיחות כדי לשנות את הסבירות לקבלת תגובות שעשויות להיחשב כמזיקות.
אתם יכולים גם להתנסות בהנחיות ובמודלים של הגדרות אישיות באמצעות Vertex AI Studio.
נשמח לקבל משוב על חוויית השימוש ב-Vertex AI SDK for Firebase