ML-Kit für Firebase
Verwenden Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.
ML Kit ist ein mobiles SDK, das die Google-Expertise für maschinelles Lernen in einem leistungsstarken und dennoch benutzerfreundlichen Paket für Android- und iOS-Apps bereitstellt. Egal, ob Sie neu oder erfahren im maschinellen Lernen sind, Sie können die benötigte Funktionalität in nur wenigen Codezeilen implementieren. Es sind keine tiefen Kenntnisse über neuronale Netze oder Modelloptimierung erforderlich, um loszulegen. Wenn Sie andererseits ein erfahrener ML-Entwickler sind, bietet ML Kit praktische APIs, mit denen Sie Ihre benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps verwenden können.
Schlüsselfähigkeiten
Produktionsreif für gängige Anwendungsfälle | ML Kit wird mit einer Reihe einsatzbereiter APIs für gängige mobile Anwendungsfälle geliefert: Erkennen von Text, Erkennen von Gesichtern, Identifizieren von Orientierungspunkten, Scannen von Barcodes, Beschriften von Bildern und Identifizieren der Sprache von Text. Übergeben Sie einfach Daten an die ML Kit-Bibliothek und Sie erhalten die Informationen, die Sie benötigen. |
Auf dem Gerät oder in der Cloud | Die Auswahl an APIs von ML Kit wird auf dem Gerät oder in der Cloud ausgeführt. Unsere On-Device-APIs können Ihre Daten schnell verarbeiten und funktionieren auch dann, wenn keine Netzwerkverbindung besteht. Unsere Cloud-basierten APIs hingegen nutzen die Leistung der maschinellen Lerntechnologie von Google Cloud, um Ihnen ein noch höheres Maß an Genauigkeit zu bieten. |
Stellen Sie benutzerdefinierte Modelle bereit | Wenn die APIs von ML Kit Ihre Anwendungsfälle nicht abdecken, können Sie jederzeit Ihre eigenen vorhandenen TensorFlow Lite-Modelle verwenden. Laden Sie Ihr Modell einfach in Firebase hoch, und wir kümmern uns um das Hosten und Bereitstellen für Ihre App. ML Kit fungiert als API-Schicht für Ihr benutzerdefiniertes Modell, wodurch es einfacher ausgeführt und verwendet werden kann. |
Wie funktioniert es?
ML Kit macht es einfach, ML-Techniken in Ihren Apps anzuwenden, indem es die ML-Technologien von Google wie die Google Cloud Vision API , TensorFlow Lite und die Android Neural Networks API in einem einzigen SDK zusammenführt. Ganz gleich, ob Sie die Leistung einer Cloud-basierten Verarbeitung, die Echtzeitfähigkeiten von für Mobilgeräte optimierten On-Device-Modellen oder die Flexibilität von benutzerdefinierten TensorFlow Lite-Modellen benötigen, ML Kit macht es mit nur wenigen Codezeilen möglich.
Welche Funktionen sind auf dem Gerät oder in der Cloud verfügbar?
Implementierungspfad
Integrieren Sie das SDK | Fügen Sie das SDK schnell mit Gradle oder CocoaPods hinzu. | |
Eingabedaten vorbereiten | Wenn Sie beispielsweise eine Vision-Funktion verwenden, erfassen Sie ein Bild von der Kamera und generieren Sie die erforderlichen Metadaten wie Bilddrehung oder fordern Sie den Benutzer auf, ein Foto aus seiner Galerie auszuwählen. | |
Wenden Sie das ML-Modell auf Ihre Daten an | Indem Sie das ML-Modell auf Ihre Daten anwenden, generieren Sie je nach verwendeter Funktion Erkenntnisse wie den emotionalen Zustand erkannter Gesichter oder die im Bild erkannten Objekte und Konzepte. Nutzen Sie diese Erkenntnisse, um Funktionen in Ihrer App wie Fotoverschönerung, automatische Generierung von Metadaten oder was auch immer Sie sich vorstellen können, zu optimieren. |
Nächste Schritte
- Entdecken Sie die gebrauchsfertigen APIs: Texterkennung , Gesichtserkennung , Barcode-Scannen , Bildkennzeichnung , Objekterkennung und -verfolgung , Landmarkenerkennung , Smart Reply , Übersetzung und Spracherkennung .
- Trainieren Sie Ihr eigenes Bildkennzeichnungsmodell mit AutoML Vision Edge .
- Erfahren Sie mehr über die Verwendung von für Mobilgeräte optimierten benutzerdefinierten Modellen in Ihrer App.