هنگام فراخوانی Gemini API از برنامه خود با استفاده از Vertex AI in Firebase SDK، میتوانید از مدل Gemini بخواهید متنی را بر اساس یک ورودی متنی تولید کند.
به صورت اختیاری با نسخه جایگزین «Google AI» از Gemini API آزمایش کنید
با استفاده از Google AI Studio و Google AI Client SDK، دسترسی رایگان (در محدوده و در صورت وجود) دریافت کنید. این SDK ها باید فقط برای نمونه سازی در برنامه های موبایل و وب استفاده شوند.بعد از اینکه با نحوه کار یک Gemini API آشنا شدید، به Vertex AI in Firebase SDK که دارای بسیاری از ویژگیهای مهم مهم برای تلفن همراه و برنامههای وب هستند، مانند محافظت از API در برابر سوء استفاده با استفاده از Firebase App Check و پشتیبانی از فایلهای رسانه بزرگ در درخواست ها .
به صورت اختیاری Vertex AI Gemini API سمت سرور را فراخوانی کنید (مانند Python، Node.js یا Go)
از Vertex AI SDK ، Firebase Genkit یا Firebase Extensions برای Gemini API استفاده کنید.
قبل از شروع
اگر قبلاً این کار را نکردهاید، راهنمای شروع به کار برای Vertex AI in Firebase SDK را تکمیل کنید. مطمئن شوید که تمام کارهای زیر را انجام داده اید:
یک پروژه Firebase جدید یا موجود راه اندازی کنید، از جمله استفاده از طرح قیمت گذاری Blaze و فعال کردن API های مورد نیاز.
برنامه خود را به Firebase وصل کنید، از جمله ثبت برنامه خود و افزودن پیکربندی Firebase به برنامه خود.
SDK را اضافه کنید و سرویس Vertex AI و مدل تولیدی را در برنامه خود راه اندازی کنید.
بعد از اینکه برنامه خود را به Firebase متصل کردید، SDK را اضافه کردید و سرویس Vertex AI و مدل تولیدی را راه اندازی کردید، آماده فراخوانی Gemini API هستید.
متن را از ورودی فقط متنی تولید کنید
میتوانید با ورودیهایی که فقط شامل متن است، Gemini API تماس بگیرید. برای این تماسها، باید از مدلی استفاده کنید که از اعلانهای متنی پشتیبانی میکند (مانند Gemini 1.5 Pro).
انتخاب کنید که آیا میخواهید پاسخ را پخش جریانی کنید ( generateContentStream
) یا منتظر پاسخ باشید تا کل نتیجه تولید شود ( generateContent
).
پخش جریانی
میتوانید با منتظر ماندن برای کل نتیجه تولید مدل، به تعاملات سریعتری برسید و در عوض از استریم برای مدیریت نتایج جزئی استفاده کنید.
بدون پخش جریانی
از طرف دیگر، می توانید به جای پخش جریانی، منتظر کل نتیجه باشید. نتیجه تنها پس از تکمیل مدل کل فرآیند تولید برگردانده می شود.
نحوه انتخاب مدل Gemini و به صورت اختیاری مکان مناسب برای مورد استفاده و برنامه خود را بیاموزید.
چه کار دیگری می توانید انجام دهید؟
- قبل از ارسال پیام های طولانی به مدل، نحوه شمارش نشانه ها را بیاموزید.
- به فکر آماده شدن برای تولید، از جمله راهاندازی Firebase App Check برای محافظت از Gemini API در برابر سوء استفاده توسط مشتریان غیرمجاز باشید.
سایر قابلیت های Gemini API را امتحان کنید
- مکالمات چند نوبتی (چت) بسازید.
- متن را از اعلانهای چندوجهی (شامل متن، تصاویر، PDF، ویدئو و صدا) تولید کنید.
- از فراخوانی تابع برای اتصال مدل های مولد به سیستم ها و اطلاعات خارجی استفاده کنید.
یاد بگیرید چگونه تولید محتوا را کنترل کنید
- طراحی سریع، از جمله بهترین شیوهها، استراتژیها و درخواستهای نمونه را درک کنید .
- پارامترهای مدل مانند دما و حداکثر نشانه های خروجی را پیکربندی کنید .
- از تنظیمات ایمنی برای تنظیم احتمال دریافت پاسخ هایی که ممکن است مضر تلقی شوند استفاده کنید .
در مورد مدل های جمینی بیشتر بدانید
در مورد مدل های موجود برای موارد استفاده مختلف و سهمیه ها و قیمت آنها اطلاعات کسب کنید.درباره تجربه خود با Vertex AI in Firebase بازخورد بدهید
هنگام فراخوانی Gemini API از برنامه خود با استفاده از Vertex AI in Firebase SDK، میتوانید از مدل Gemini بخواهید متنی را بر اساس یک ورودی متنی تولید کند.
به صورت اختیاری با نسخه جایگزین «Google AI» از Gemini API آزمایش کنید
با استفاده از Google AI Studio و Google AI Client SDK، دسترسی رایگان (در محدوده و در صورت وجود) دریافت کنید. این SDK ها باید فقط برای نمونه سازی در برنامه های موبایل و وب استفاده شوند.بعد از اینکه با نحوه کار یک Gemini API آشنا شدید، به Vertex AI in Firebase SDK که دارای بسیاری از ویژگیهای مهم مهم برای تلفن همراه و برنامههای وب هستند، مانند محافظت از API در برابر سوء استفاده با استفاده از Firebase App Check و پشتیبانی از فایلهای رسانه بزرگ در درخواست ها .
به صورت اختیاری Vertex AI Gemini API سمت سرور را فراخوانی کنید (مانند Python، Node.js یا Go)
از Vertex AI SDK ، Firebase Genkit یا Firebase Extensions برای Gemini API استفاده کنید.
قبل از شروع
اگر قبلاً این کار را نکردهاید، راهنمای شروع به کار برای Vertex AI in Firebase SDK را تکمیل کنید. مطمئن شوید که تمام کارهای زیر را انجام داده اید:
یک پروژه Firebase جدید یا موجود راه اندازی کنید، از جمله استفاده از طرح قیمت گذاری Blaze و فعال کردن API های مورد نیاز.
برنامه خود را به Firebase وصل کنید، از جمله ثبت برنامه خود و افزودن پیکربندی Firebase به برنامه خود.
SDK را اضافه کنید و سرویس Vertex AI و مدل تولیدی را در برنامه خود راه اندازی کنید.
بعد از اینکه برنامه خود را به Firebase متصل کردید، SDK را اضافه کردید و سرویس Vertex AI و مدل تولیدی را راه اندازی کردید، آماده فراخوانی Gemini API هستید.
متن را از ورودی فقط متنی تولید کنید
میتوانید با ورودیهایی که فقط شامل متن است، Gemini API تماس بگیرید. برای این تماسها، باید از مدلی استفاده کنید که از اعلانهای متنی پشتیبانی میکند (مانند Gemini 1.5 Pro).
انتخاب کنید که آیا میخواهید پاسخ را پخش جریانی کنید ( generateContentStream
) یا منتظر پاسخ باشید تا کل نتیجه تولید شود ( generateContent
).
پخش جریانی
میتوانید با منتظر ماندن برای کل نتیجه تولید مدل، به تعاملات سریعتری برسید و در عوض از استریم برای مدیریت نتایج جزئی استفاده کنید.
بدون پخش جریانی
از طرف دیگر، می توانید به جای پخش جریانی، منتظر کل نتیجه باشید. نتیجه تنها پس از تکمیل مدل کل فرآیند تولید برگردانده می شود.
نحوه انتخاب مدل Gemini و به صورت اختیاری مکان مناسب برای مورد استفاده و برنامه خود را بیاموزید.
چه کار دیگری می توانید انجام دهید؟
- قبل از ارسال پیام های طولانی به مدل، نحوه شمارش نشانه ها را بیاموزید.
- به فکر آماده شدن برای تولید، از جمله راهاندازی Firebase App Check برای محافظت از Gemini API در برابر سوء استفاده توسط مشتریان غیرمجاز باشید.
سایر قابلیت های Gemini API را امتحان کنید
- مکالمات چند نوبتی (چت) بسازید.
- متن را از اعلانهای چندوجهی (شامل متن، تصاویر، PDF، ویدئو و صدا) تولید کنید.
- از فراخوانی تابع برای اتصال مدل های مولد به سیستم ها و اطلاعات خارجی استفاده کنید.
یاد بگیرید چگونه تولید محتوا را کنترل کنید
- طراحی سریع، از جمله بهترین شیوهها، استراتژیها و درخواستهای نمونه را درک کنید .
- پارامترهای مدل مانند دما و حداکثر نشانه های خروجی را پیکربندی کنید .
- از تنظیمات ایمنی برای تنظیم احتمال دریافت پاسخ هایی که ممکن است مضر تلقی شوند استفاده کنید .
در مورد مدل های جمینی بیشتر بدانید
در مورد مدل های موجود برای موارد استفاده مختلف و سهمیه ها و قیمت آنها اطلاعات کسب کنید.درباره تجربه خود با Vertex AI in Firebase بازخورد بدهید
هنگام فراخوانی Gemini API از برنامه خود با استفاده از Vertex AI in Firebase SDK، میتوانید از مدل Gemini بخواهید متنی را بر اساس یک ورودی متنی تولید کند.
به صورت اختیاری با نسخه جایگزین «Google AI» از Gemini API آزمایش کنید
با استفاده از Google AI Studio و Google AI Client SDK، دسترسی رایگان (در محدوده و در صورت وجود) دریافت کنید. این SDK ها باید فقط برای نمونه سازی در برنامه های موبایل و وب استفاده شوند.بعد از اینکه با نحوه کار یک Gemini API آشنا شدید، به Vertex AI in Firebase SDK که دارای بسیاری از ویژگیهای مهم مهم برای تلفن همراه و برنامههای وب هستند، مانند محافظت از API در برابر سوء استفاده با استفاده از Firebase App Check و پشتیبانی از فایلهای رسانه بزرگ در درخواست ها .
به صورت اختیاری Vertex AI Gemini API سمت سرور را فراخوانی کنید (مانند Python، Node.js یا Go)
از Vertex AI SDK ، Firebase Genkit یا Firebase Extensions برای Gemini API استفاده کنید.
قبل از شروع
اگر قبلاً این کار را نکردهاید، راهنمای شروع به کار برای Vertex AI in Firebase SDK را تکمیل کنید. مطمئن شوید که تمام کارهای زیر را انجام داده اید:
یک پروژه Firebase جدید یا موجود راه اندازی کنید، از جمله استفاده از طرح قیمت گذاری Blaze و فعال کردن API های مورد نیاز.
برنامه خود را به Firebase وصل کنید، از جمله ثبت برنامه خود و افزودن پیکربندی Firebase به برنامه خود.
SDK را اضافه کنید و سرویس Vertex AI و مدل تولیدی را در برنامه خود راه اندازی کنید.
بعد از اینکه برنامه خود را به Firebase متصل کردید، SDK را اضافه کردید و سرویس Vertex AI و مدل تولیدی را راه اندازی کردید، آماده فراخوانی Gemini API هستید.
متن را از ورودی فقط متنی تولید کنید
میتوانید با ورودیهایی که فقط شامل متن است، Gemini API تماس بگیرید. برای این تماسها، باید از مدلی استفاده کنید که از اعلانهای متنی پشتیبانی میکند (مانند Gemini 1.5 Pro).
انتخاب کنید که آیا میخواهید پاسخ را پخش جریانی کنید ( generateContentStream
) یا منتظر پاسخ باشید تا کل نتیجه تولید شود ( generateContent
).
پخش جریانی
میتوانید با منتظر ماندن برای کل نتیجه تولید مدل، به تعاملات سریعتری برسید و در عوض از استریم برای مدیریت نتایج جزئی استفاده کنید.
بدون پخش جریانی
از طرف دیگر، می توانید به جای پخش جریانی، منتظر کل نتیجه باشید. نتیجه تنها پس از تکمیل مدل کل فرآیند تولید برگردانده می شود.
نحوه انتخاب مدل Gemini و به صورت اختیاری مکان مناسب برای مورد استفاده و برنامه خود را بیاموزید.
چه کار دیگری می توانید انجام دهید؟
- قبل از ارسال پیام های طولانی به مدل، نحوه شمارش نشانه ها را بیاموزید.
- به فکر آماده شدن برای تولید، از جمله راهاندازی Firebase App Check برای محافظت از Gemini API در برابر سوء استفاده توسط مشتریان غیرمجاز باشید.
سایر قابلیت های Gemini API را امتحان کنید
- مکالمات چند نوبتی (چت) بسازید.
- متن را از اعلانهای چندوجهی (شامل متن، تصاویر، PDF، ویدئو و صدا) تولید کنید.
- از فراخوانی تابع برای اتصال مدل های مولد به سیستم ها و اطلاعات خارجی استفاده کنید.
یاد بگیرید چگونه تولید محتوا را کنترل کنید
- طراحی سریع، از جمله بهترین شیوهها، استراتژیها و درخواستهای نمونه را درک کنید .
- پارامترهای مدل مانند دما و حداکثر نشانه های خروجی را پیکربندی کنید .
- از تنظیمات ایمنی برای تنظیم احتمال دریافت پاسخ هایی که ممکن است مضر تلقی شوند استفاده کنید .
در مورد مدل های جمینی بیشتر بدانید
در مورد مدل های موجود برای موارد استفاده مختلف و سهمیه ها و قیمت آنها اطلاعات کسب کنید.درباره تجربه خود با Vertex AI in Firebase بازخورد بدهید