با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
کیت ML برای Firebase
plat_iosplat_android
از یادگیری ماشین در برنامه های خود برای حل مشکلات دنیای واقعی استفاده کنید.
ML Kit یک SDK تلفن همراه است که تخصص یادگیری ماشین Google را در یک بسته قدرتمند و در عین حال کاربردی آسان به برنامههای Android و iOS میآورد. چه در زمینه یادگیری ماشینی تازه کار یا با تجربه باشید، می توانید عملکرد مورد نیاز خود را تنها در چند خط کد پیاده سازی کنید. برای شروع نیازی به دانش عمیق شبکه های عصبی یا بهینه سازی مدل نیست. از طرف دیگر، اگر یک توسعه دهنده ML با تجربه هستید، ML Kit API های مناسبی را ارائه می دهد که به شما کمک می کند از مدل های سفارشی TensorFlow Lite خود در برنامه های تلفن همراه خود استفاده کنید.
قابلیت های کلیدی
آماده تولید برای موارد استفاده رایج
ML Kit با مجموعهای از APIهای آماده برای موارد استفاده رایج از تلفن همراه ارائه میشود: تشخیص متن، تشخیص چهره، شناسایی نشانهها، اسکن بارکد، برچسبگذاری تصاویر، و شناسایی زبان متن. به سادگی داده ها را به کتابخانه ML Kit منتقل کنید و اطلاعات مورد نیاز را در اختیار شما قرار دهد.
روی دستگاه یا در فضای ابری
مجموعهای از APIهای کیت ML که روی دستگاه یا در فضای ابری اجرا میشوند. API های روی دستگاه ما می توانند داده های شما را به سرعت پردازش کنند و حتی زمانی که اتصال شبکه وجود ندارد کار کنند. از سوی دیگر، APIهای مبتنی بر ابر ما، از قدرت فناوری یادگیری ماشینی Google Cloud بهره میبرند تا سطح بالاتری از دقت را به شما ارائه دهند.
استقرار مدل های سفارشی
اگر APIهای ML Kit موارد استفاده شما را پوشش نمیدهند، همیشه میتوانید مدلهای TensorFlow Lite موجود خود را بیاورید. فقط مدل خود را در Firebase آپلود کنید، و ما از میزبانی و ارائه آن به برنامه شما مراقبت می کنیم. ML Kit به عنوان یک لایه API برای مدل سفارشی شما عمل می کند و اجرا و استفاده از آن را ساده تر می کند.
چگونه کار می کند؟
ML Kit با کنار هم قرار دادن فناوریهای ML Google، مانند Google Cloud Vision API ، TensorFlow Lite ، و API شبکههای عصبی Android در یک SDK، استفاده از تکنیکهای ML را در برنامههای شما آسان میکند. چه به قدرت پردازش مبتنی بر ابر نیاز داشته باشید، چه به قابلیتهای بیدرنگ مدلهای روی دستگاه بهینهسازی شده برای موبایل، یا انعطافپذیری مدلهای سفارشی TensorFlow Lite، کیت ML این کار را تنها با چند خط کد ممکن میسازد.
چه ویژگی هایی در دستگاه یا در فضای ابری موجود است؟
با استفاده از Gradle یا CocoaPods به سرعت SDK را اضافه کنید.
داده های ورودی را آماده کنید
به عنوان مثال، اگر از یک ویژگی بینایی استفاده می کنید، تصویری را از دوربین بگیرید و ابرداده های لازم مانند چرخش تصویر را ایجاد کنید، یا از کاربر بخواهید عکسی را از گالری خود انتخاب کند.
مدل ML را روی داده های خود اعمال کنید
با استفاده از مدل ML بر روی دادههای خود، بینشهایی مانند وضعیت احساسی چهرههای شناساییشده یا اشیاء و مفاهیمی که در تصویر شناسایی شدهاند، بسته به ویژگیهایی که استفاده میکنید، ایجاد میکنید. از این بینشها برای تقویت ویژگیهای برنامه خود مانند تزئین عکس، تولید خودکار ابرداده یا هر چیز دیگری که میتوانید تصور کنید، استفاده کنید.
تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی.
[null,null,["تاریخ آخرین بهروزرسانی 2025-07-25 بهوقت ساعت هماهنگ جهانی."],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]