Firebase용 ML Kit
앱에서 머신러닝을 사용해 진짜 발생하는 문제를 해결해 보세요.
ML Kit는 강력하고 사용하기 쉬운 패키지로 Android 및 iOS 앱에 Google의 머신러닝 전문 지식을 적용하는 모바일 SDK입니다. 머신러닝 분야에 경험이 있든 없든 코드 몇 줄만 작성하면 필요한 기능을 구현할 수 있습니다. 따라서 신경망이나 모델 최적화에 대한 심층적인 지식 없이도 시작할 수 있습니다. 숙련된 ML 개발자인 경우, 모바일 앱에서 커스텀 TensorFlow Lite 모델을 사용하는 데 유용한 ML Kit의 API를 사용할 수 있습니다.
주요 기능
일반적인 사용 사례를 위한 프로덕션 대응 |
ML Kit에는 텍스트 인식, 얼굴 인식, 랜드마크 인식, 바코드 스캔, 이미지 라벨 지정, 텍스트 언어 식별 등 일반적인 모바일 사용 사례에 즉시 사용 가능한 API 집합이 제공됩니다. ML Kit 라이브러리에 데이터를 전달하기만 하면 필요한 정보를 확인할 수 있습니다. |
온디바이스 또는 클라우드 API |
ML Kit는 기기에서 실행되거나 클라우드에서 실행되는 API를 제공합니다. 온디바이스 API는 데이터를 빠르게 처리할 수 있으며 네트워크 연결 없이도 작동합니다. 반면 클라우드 기반 API는 Google Cloud의 강력한 머신러닝 기술을 활용하므로 보다 높은 정확성을 확보할 수 있습니다. |
커스텀 모델 배포 |
ML Kit의 API로 사용 사례를 해결할 수 없는 경우 언제든지 고유한 기존 TensorFlow Lite 모델을 가져올 수 있습니다. 모델을 Firebase에 업로드만 하면 앱에 대한 호스팅 및 서비스가 자동으로 처리됩니다. ML Kit는 커스텀 모델에 대한 API 레이어로 작동하여 간단하게 실행하고 사용할 수 있습니다. |
기본 원리
ML Kit는 Google Cloud Vision API, TensorFlow Lite, Android Neural Networks API를 단일 SDK에 제공함으로써 앱에 ML 기술을 쉽게 적용할 수 있도록 해줍니다. 클라우드 기반 처리 기능, 모바일에 최적화된 온디바이스 모델의 실시간 기능, 커스텀 TensorFlow Lite 모델의 유연성 필요 여부에 관계없이 ML Kit를 사용하면 코드 몇 줄만 작성하여 필요한 기능을 구현할 수 있습니다.
온디바이스 또는 클라우드 API에 제공되는 기능
기능 | 온디바이스 | 클라우드 |
---|---|---|
텍스트 인식 | ||
얼굴 인식 | ||
바코드 스캔 | ||
이미지 라벨 지정 | ||
객체 감지 및 추적 | ||
랜드마크 인식 | ||
언어 식별 | ||
번역 | ||
스마트 답장 | ||
AutoML 모델을 통한 추론 | ||
커스텀 모델을 통한 추론 |
구현 경로
SDK 통합 | Gradle 또는 CocoaPods를 사용하여 SDK를 빠르게 통합합니다. | |
입력 데이터 준비 | 예를 들어 비전 기능을 사용 중이면 카메라에서 이미지를 캡처하여 이미지 회전 등 필요한 메타데이터를 생성하거나 사용자에게 갤러리에서 사진을 선택하라는 메시지를 표시합니다. | |
ML 모델을 데이터에 적용 | ML 모델을 데이터에 적용하면 사용 중인 기능에 따라 인식된 얼굴의 감정 상태나 이미지에서 인식된 객체 및 개념 등의 정보를 생성할 수 있습니다. 이러한 정보를 사용하면 앱에서 사진 꾸미기, 자동 메타데이터 생성 등의 다양한 기능을 강화할 수 있습니다. |
다음 단계
- 즉시 사용 가능한 API 살펴보기: 텍스트 인식, 얼굴 인식, 바코드 스캔, 이미지 라벨 지정, 객체 감지 및 추적, 랜드마크 인식, 스마트 답장, 번역, 언어 식별
- AutoML Vision Edge를 사용하여 자체 이미지 라벨 지정 모델 학습
- 앱에서 모바일에 최적화된 커스텀 모델 사용 알아보기