مدل های سفارشی

اگر از مدل‌های سفارشی TensorFlow Lite استفاده می‌کنید، Firebase ML می‌تواند به شما کمک کند مطمئن شوید که کاربران همیشه از بهترین نسخه در دسترس مدل سفارشی شما استفاده می‌کنند. وقتی مدل خود را با Firebase استقرار می‌کنید، Firebase ML فقط در صورت نیاز مدل را دانلود می‌کند و به‌طور خودکار کاربران شما را با آخرین نسخه به‌روزرسانی می‌کند.


برای شروع آماده اید؟ پلتفرم خود را انتخاب کنید:

iOS+ Android


قابلیت های کلیدی

استقرار مدل TensorFlow Lite مدل‌های خود را با استفاده از Firebase مستقر کنید تا اندازه باینری برنامه خود را کاهش دهید و مطمئن شوید که برنامه شما همیشه از جدیدترین نسخه موجود مدل شما استفاده می‌کند.
استنتاج ML روی دستگاه با استفاده از مفسر TensorFlow Lite با مدل خود، استنتاج را در یک برنامه Apple یا Android انجام دهید.
به روز رسانی خودکار مدل شرایطی را پیکربندی کنید که تحت آن برنامه شما به طور خودکار نسخه های جدید مدل شما را دانلود کند: زمانی که دستگاه کاربر بیکار است، در حال شارژ است یا اتصال Wi-Fi دارد.

مسیر پیاده سازی

مدل TensorFlow خود را آموزش دهید با استفاده از TensorFlow یک مدل سفارشی بسازید و آموزش دهید. یا یک مدل موجود را دوباره آموزش دهید که مشکلی مشابه آنچه می خواهید به دست آورید را حل کند.
مدل را به TensorFlow Lite تبدیل کنید با استفاده از مبدل TensorFlow Lite مدل خود را از فرمت HDF5 یا گراف ثابت به TensorFlow Lite تبدیل کنید.
مدل TensorFlow Lite خود را در Firebase مستقر کنید اختیاری: هنگامی که مدل TensorFlow Lite خود را در Firebase مستقر می کنید و Firebase ML SDK را در برنامه خود قرار می دهید، Firebase ML کاربران شما را با آخرین نسخه مدل خود به روز نگه می دارد. می‌توانید آن را طوری پیکربندی کنید که وقتی دستگاه کاربر بی‌حرکت است یا در حال شارژ است یا اتصال Wi-Fi دارد، به‌روزرسانی‌های مدل را به‌طور خودکار دانلود کند.
برای استنتاج از مدل TensorFlow Lite استفاده کنید از مفسر TensorFlow Lite در برنامه Apple یا Android خود برای استنتاج با مدل‌های مستقر شده با استفاده از Firebase استفاده کنید.

Codelabs

برخی از نرم‌افزارهای کد را امتحان کنید تا به طور عملی یاد بگیرید که Firebase چگونه می‌تواند به شما کمک کند از مدل‌های TensorFlow Lite راحت‌تر و مؤثرتر استفاده کنید.