با استفاده از Gemini API ، میتوانید مکالمات آزاد را در چندین نوبت ایجاد کنید. Vertex AI in Firebase SDK فرآیند را با مدیریت وضعیت مکالمه ساده میکند، بنابراین بر خلاف generateContentStream()
یا generateContent()
، مجبور نیستید تاریخچه مکالمه را خودتان ذخیره کنید.
به صورت اختیاری با نسخه جایگزین «Google AI» از Gemini API آزمایش کنید
با استفاده از Google AI Studio و Google AI Client SDK، دسترسی رایگان (در محدوده و در صورت وجود) دریافت کنید. این SDK ها باید فقط برای نمونه سازی در برنامه های موبایل و وب استفاده شوند.بعد از اینکه با نحوه کار یک Gemini API آشنا شدید، به Vertex AI in Firebase SDK که دارای بسیاری از ویژگیهای مهم مهم برای تلفن همراه و برنامههای وب هستند، مانند محافظت از API در برابر سوء استفاده با استفاده از Firebase App Check و پشتیبانی از فایلهای رسانه بزرگ در درخواست ها .
به صورت اختیاری Vertex AI Gemini API سمت سرور را فراخوانی کنید (مانند Python، Node.js یا Go)
از Vertex AI SDK ، Firebase Genkit یا Firebase Extensions برای Gemini API استفاده کنید.
قبل از شروع
اگر قبلاً این کار را نکردهاید، راهنمای شروع به کار برای Vertex AI in Firebase SDK را تکمیل کنید. مطمئن شوید که تمام کارهای زیر را انجام داده اید:
یک پروژه Firebase جدید یا موجود راه اندازی کنید، از جمله استفاده از طرح قیمت گذاری Blaze و فعال کردن API های مورد نیاز.
برنامه خود را به Firebase وصل کنید، از جمله ثبت برنامه خود و افزودن پیکربندی Firebase به برنامه خود.
SDK را اضافه کنید و سرویس Vertex AI و مدل تولیدی را در برنامه خود راه اندازی کنید.
بعد از اینکه برنامه خود را به Firebase متصل کردید، SDK را اضافه کردید و سرویس Vertex AI و مدل تولیدی را راه اندازی کردید، آماده فراخوانی Gemini API هستید.
یک درخواست سریع چت ارسال کنید
برای ایجاد یک مکالمه چند نوبتی (مانند چت)، با راه اندازی اولیه چت با فراخوانی startChat()
شروع کنید. سپس از sendMessageStream()
(یا sendMessage()
) برای ارسال یک پیام کاربر جدید استفاده کنید که پیام و پاسخ را نیز به تاریخچه چت اضافه می کند.
دو گزینه ممکن برای role
مرتبط با محتوا در یک مکالمه وجود دارد:
user
: نقشی که دستورات را ارائه می دهد. این مقدار پیشفرض برای فراخوانی بهsendMessageStream()
(یاsendMessage()
) است و اگر نقش دیگری ارسال شود، تابع یک استثنا ایجاد میکند.model
: نقشی که پاسخ ها را ارائه می دهد. این نقش هنگام فراخوانیstartChat()
باhistory
موجود قابل استفاده است.
انتخاب کنید که آیا میخواهید پاسخ را پخش کنید ( sendMessageStream
) یا منتظر پاسخ باشید تا کل نتیجه تولید شود ( sendMessage
).
جریان
میتوانید با منتظر ماندن برای کل نتیجه تولید مدل، به تعاملات سریعتری برسید و در عوض از استریم برای مدیریت نتایج جزئی استفاده کنید.
بدون پخش جریانی
از طرف دیگر، می توانید به جای پخش جریانی، منتظر کل نتیجه باشید. نتیجه تنها پس از تکمیل مدل کل فرآیند تولید برگردانده می شود.
نحوه انتخاب مدل Gemini و به صورت اختیاری مکان مناسب برای مورد استفاده و برنامه خود را بیاموزید.
چه کار دیگری می توانید انجام دهید؟
- قبل از ارسال پیام های طولانی به مدل، نحوه شمارش نشانه ها را بیاموزید.
- Cloud Storage for Firebase تنظیم کنید تا بتوانید با استفاده از URL های Cloud Storage فایل های بزرگ را در درخواست های چندوجهی خود قرار دهید. فایلها میتوانند شامل تصاویر، PDF، ویدیو و صدا باشند.
- به فکر آماده شدن برای تولید، از جمله راهاندازی Firebase App Check برای محافظت از Gemini API در برابر سوء استفاده توسط مشتریان غیرمجاز باشید.
سایر قابلیت های Gemini API را امتحان کنید
- متن را از اعلانهای فقط متنی ایجاد کنید.
- متن را از اعلانهای چندوجهی (شامل متن، تصاویر، PDF، ویدئو و صدا) تولید کنید.
- از فراخوانی تابع برای اتصال مدل های مولد به سیستم ها و اطلاعات خارجی استفاده کنید.
یاد بگیرید چگونه تولید محتوا را کنترل کنید
- طراحی سریع، از جمله بهترین شیوهها، استراتژیها و درخواستهای نمونه را درک کنید .
- پارامترهای مدل مانند دما و حداکثر نشانه های خروجی را پیکربندی کنید .
- از تنظیمات ایمنی برای تنظیم احتمال دریافت پاسخ هایی که ممکن است مضر تلقی شوند استفاده کنید .
در مورد مدل های جمینی بیشتر بدانید
در مورد مدل های موجود برای موارد استفاده مختلف و سهمیه ها و قیمت آنها اطلاعات کسب کنید.درباره تجربه خود با Vertex AI in Firebase بازخورد بدهید