Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
ML Kit für Firebase
plat_iosplat_android
Nutzen Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.
ML Kit ist ein mobiles SDK, mit dem Sie das Know-how von Google im Bereich maschinelles Lernen
Android- und iOS-Apps in einem leistungsstarken und dennoch benutzerfreundlichen Paket Ganz gleich, ob Sie
oder Erfahrung in maschinellem Lernen haben, können Sie die Funktion
mit nur wenigen Codezeilen. Sie brauchen kein tiefes Wissen
neuronale Netzwerke oder
die Modelloptimierung nutzen können. Wenn Sie jedoch
erfahrene ML-Entwickler, ML Kit bietet praktische APIs,
Ihre benutzerdefinierten TensorFlow Lite-Modelle
in Ihren mobilen Apps verwenden.
Hauptmerkmale
Produktionsbereit für häufige Anwendungsfälle
ML Kit umfasst eine Reihe sofort einsatzbereiter APIs für gängige mobile Anwendungen
Fälle: Texterkennung, Gesichtserkennung, Identifizieren von Sehenswürdigkeiten, Scannen
Barcodes, Beschriftungen von Bildern und Identifizieren der Sprache des Textes. Einfach
Daten an die ML Kit-Bibliothek übergeben.
Sie erhalten dann die Informationen,
die Sie brauchen.
Auf dem Gerät oder in der Cloud
Die von ML Kit ausgewählten APIs lassen sich auf dem Gerät oder in der Cloud ausführen. Unsere
können On-Device-APIs Ihre Daten schnell verarbeiten,
keine Netzwerkverbindung. Unsere cloudbasierten APIs dagegen
Das Potenzial der ML-Technologie von Google Cloud nutzen
um eine noch höhere Genauigkeit zu erreichen.
Benutzerdefinierte Modelle bereitstellen
Wenn die APIs von ML Kit Ihre Anwendungsfälle nicht abdecken, können Sie
eigenen TensorFlow Lite-Modellen nutzen können. Laden Sie einfach Ihr Modell in
Firebase. Wir kümmern uns um das Hosting und die Bereitstellung für Ihre App.
ML Kit fungiert als API-Ebene für Ihr benutzerdefiniertes Modell, sodass es einfacher ist,
ausführen und verwenden.
Funktionsweise
Mit ML Kit können Sie ML-Techniken ganz einfach in Ihren Apps anwenden, da die ML-Technologien von Google wie die Google Cloud Vision API, TensorFlow Lite und die Android Neural Networks API in einem einzigen SDK zusammengefasst sind. Ganz gleich, ob Sie die leistungsstarke cloudbasierte Verarbeitung benötigen,
die Echtzeitfunktionen von für Mobilgeräte optimierten On-Device-Modellen oder
die Flexibilität benutzerdefinierter TensorFlow Lite-Modelle haben, ermöglicht ML Kit mit
nur ein paar Zeilen Code schreiben.
Welche Funktionen sind auf dem Gerät oder in der Cloud verfügbar?
Binde das SDK schnell mithilfe von Gradle oder CocoaPods ein.
Eingabedaten vorbereiten
Wenn Sie beispielsweise eine Vision-Funktion verwenden, nehmen Sie ein Bild von der
Kamera und generieren die erforderlichen Metadaten wie Bilddrehung oder Prompt
können Nutzer ein Foto aus ihrer Galerie auswählen.
ML-Modell auf Daten anwenden
Durch die Anwendung des ML-Modells auf Ihre Daten gewinnen Sie Erkenntnisse wie
den emotionalen Zustand erkannter Gesichter oder der Objekte und Konzepte,
die im Bild erkannt werden, je nach verwendeter Funktion. Mit diesen Informationen können Sie Funktionen in Ihrer App wie Fotoverschönerung, automatische Metadatengenerierung oder was auch immer Sie sich vorstellen können, optimieren.
[null,null,["Zuletzt aktualisiert: 2025-07-25 (UTC)."],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]