ML-Kit für Firebase
Nutzen Sie maschinelles Lernen in Ihren Apps, um reale Probleme zu lösen.
ML Kit ist ein mobiles SDK, das die maschinelle Lernkompetenz von Google in einem leistungsstarken und dennoch benutzerfreundlichen Paket in Android- und iOS-Apps bringt. Unabhängig davon, ob Sie neu oder erfahren im Bereich maschinelles Lernen sind, können Sie die benötigte Funktionalität in nur wenigen Codezeilen implementieren. Für den Einstieg sind keine umfassenden Kenntnisse über neuronale Netze oder Modelloptimierung erforderlich. Wenn Sie hingegen ein erfahrener ML-Entwickler sind, bietet ML Kit praktische APIs, die Ihnen bei der Verwendung Ihrer benutzerdefinierten TensorFlow Lite-Modelle in Ihren mobilen Apps helfen.
Schlüsselfähigkeiten
Produktionsbereit für gängige Anwendungsfälle | ML Kit enthält eine Reihe gebrauchsfertiger APIs für gängige mobile Anwendungsfälle: Texterkennung, Gesichtserkennung, Identifizierung von Orientierungspunkten, Scannen von Barcodes, Beschriften von Bildern und Identifizieren der Textsprache. Geben Sie einfach Daten an die ML-Kit-Bibliothek weiter und Sie erhalten die Informationen, die Sie benötigen. |
Auf dem Gerät oder in der Cloud | Die Auswahl an APIs von ML Kit läuft auf dem Gerät oder in der Cloud. Unsere On-Device-APIs können Ihre Daten schnell verarbeiten und funktionieren auch dann, wenn keine Netzwerkverbindung besteht. Unsere cloudbasierten APIs hingegen nutzen die Leistungsfähigkeit der maschinellen Lerntechnologie von Google Cloud, um Ihnen ein noch höheres Maß an Genauigkeit zu bieten. |
Stellen Sie benutzerdefinierte Modelle bereit | Wenn die APIs des ML-Kits Ihre Anwendungsfälle nicht abdecken, können Sie jederzeit Ihre eigenen vorhandenen TensorFlow Lite-Modelle mitbringen. Laden Sie Ihr Modell einfach auf Firebase hoch und wir kümmern uns um das Hosting und die Bereitstellung für Ihre App. ML Kit fungiert als API-Schicht für Ihr benutzerdefiniertes Modell und vereinfacht so die Ausführung und Verwendung. |
Wie funktioniert es?
Mit dem ML Kit können Sie ML-Techniken ganz einfach in Ihren Apps anwenden, indem Sie die ML-Technologien von Google wie die Google Cloud Vision API , TensorFlow Lite und die Android Neural Networks API in einem einzigen SDK zusammenführen. Ganz gleich, ob Sie die Leistung cloudbasierter Verarbeitung, die Echtzeitfähigkeiten mobil optimierter On-Device-Modelle oder die Flexibilität benutzerdefinierter TensorFlow Lite-Modelle benötigen, ML Kit macht es mit nur wenigen Codezeilen möglich.
Welche Funktionen sind auf dem Gerät oder in der Cloud verfügbar?
Implementierungspfad
Integrieren Sie das SDK | Binden Sie das SDK schnell mit Gradle oder CocoaPods ein. | |
Bereiten Sie Eingabedaten vor | Wenn Sie beispielsweise eine Vision-Funktion verwenden, erfassen Sie ein Bild von der Kamera und generieren Sie die erforderlichen Metadaten wie Bilddrehung oder fordern Sie den Benutzer auf, ein Foto aus seiner Galerie auszuwählen. | |
Wenden Sie das ML-Modell auf Ihre Daten an | Durch die Anwendung des ML-Modells auf Ihre Daten generieren Sie je nach verwendeter Funktion Erkenntnisse wie den emotionalen Zustand erkannter Gesichter oder die im Bild erkannten Objekte und Konzepte. Nutzen Sie diese Erkenntnisse, um Funktionen in Ihrer App wie Fotoverschönerung, automatische Metadatengenerierung oder was auch immer Sie sich sonst noch vorstellen können, zu ermöglichen. |
Nächste Schritte
- Entdecken Sie die gebrauchsfertigen APIs: Texterkennung , Gesichtserkennung , Barcode-Scannen , Bildkennzeichnung , Objekterkennung und -verfolgung , Orientierungspunkterkennung , Smart Reply , Übersetzung und Spracherkennung .
- Trainieren Sie Ihr eigenes Bildbeschriftungsmodell mit AutoML Vision Edge .
- Erfahren Sie mehr über die Verwendung von für Mobilgeräte optimierten benutzerdefinierten Modellen in Ihrer App.