Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Özel Modeller
plat_iosplat_android
Deneyimli bir makine öğrenimi geliştiricisiyseniz ve Makine Öğrenimi Kiti'nin önceden oluşturulmuş modelleri
ya da çalıştığınız kuruma göre
TensorFlow Lite modeli ile
Makine Öğrenimi Kiti
TensorFlow Lite modellerinizi Firebase kullanarak barındırın veya uygulamanızla paketleyin.
Ardından, ML Kit SDK'sını kullanarak mevcut en iyi
sürümünü kullandığınızdan emin olun.
Modelinizi Firebase'de barındırırsanız ML Kit kullanıcılarınızı otomatik olarak günceller
ve en son sürümden güncelleyin.
Uygulamanızın ikili program boyutunu küçültmek ve
uygulamanızın her zaman mevcut en yeni
modeliniz
Cihaz üzerinde makine öğrenimi çıkarımı
Şu işlemler için ML Kit SDK'sını kullanarak iOS veya Android uygulamasında çıkarım
yap:
özel TensorFlow Lite modelinizi çalıştırın. Bu model,
barındırması veya her ikisini birden olması gerekir.
Otomatik model yedeği
Birden fazla model kaynağı belirtin; yerel olarak depolanan bir modeli
Bulutta barındırılan model kullanılamıyor
Otomatik model güncellemeleri
Uygulamanızın otomatik olarak indirilebileceği koşulları yapılandırın
yeni versiyonlarını kullanabilirsiniz: Kullanıcının cihazı boştayken, şarj olurken,
veya Wi-Fi bağlantısı var
Uygulama yolu
TensorFlow modelinizi eğitme
TensorFlow'u kullanarak özel bir model oluşturun ve eğitin. Ya da
benzer bir problemi çözen mevcut bir model bulmanız gerekir.
TensorFlow Lite'ı inceleyin
Geliştirici Kılavuzu.
Modeli TensorFlow Lite'a dönüştürme
Modelinizi standart TensorFlow biçiminden TensorFlow Lite'a dönüştürmek için:
grafiği dondurma ve ardından TensorFlow Optimize Optimize Dönüştürücü aracını kullanma
(TOCO). TensorFlow Lite
Geliştirici Kılavuzu'na bakın.
TensorFlow Lite modelinizi Firebase'de barındırma
İsteğe bağlı: TensorFlow Lite modelinizi Firebase ve
uygulamanıza ML Kit SDK'sını dahil edin. ML Kit, kullanıcılarınızın düzenli olarak
modelinizin en son sürümüne güncelleyin. Makine Öğrenimi Kiti'ni şu şekilde yapılandırabilirsiniz:
model güncellemelerini, kullanıcının cihazı boşta kaldığında veya
şarj oluyor veya kablosuz bağlantısı var.
Çıkarım için TensorFlow Lite modelini kullanma
Şu işlemleri gerçekleştirmek için iOS veya Android uygulamanızda ML Kit'in özel model API'lerini kullanın:
çıkarımını yaparak Firebase'de barındırılan veya uygulama paketli modelinizle
birçok test gerçekleştirebilirsiniz.
[null,null,["Son güncelleme tarihi: 2025-07-25 UTC."],[],[],null,["# Custom Models\n=============\n\nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n----------------\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n-------------------\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]