Firebase Machine Learning은 강력하고 사용하기 쉬운 패키지로 Android 및 Apple 앱에 Google의 머신러닝 전문 지식을 적용하는 모바일 SDK입니다. 머신러닝 분야에 경험이 있든 없든 코드 몇 줄만 작성하면 필요한 기능을 구현할 수 있습니다. 따라서 신경망이나 모델 최적화에 대한 심층적인 지식 없이도 시작할 수 있습니다. 숙련된 ML 개발자인 경우, 모바일 앱에서 커스텀 TensorFlow Lite 모델을 사용하는 데 유용한 Firebase ML의 API를 사용할 수 있습니다.
주요 기능
커스텀 모델 호스팅 및 배포
기기별 추론에는 자체 TensorFlow Lite 모델을 사용합니다. 모델을 Firebase에 배포하기만 하면 자동으로 호스팅되고 앱에 제공됩니다. Firebase가 최신 버전의 모델을 사용자에게 동적으로 제공하므로 사용자에게 새 버전의 앱을 푸시하지 않고도 모델을 정기적으로 업데이트할 수 있습니다.
Firebase ML에는 텍스트 인식, 이미지 라벨 지정, 랜드마크 식별과 같은 일반적인 모바일 사용 사례에 즉시 사용할 수 있는 API가 포함되어 있습니다.
Firebase ML 라이브러리에 데이터를 전달하기만 하면 필요한 정보를 확인할 수 있습니다. 이러한 API는 Google Cloud의 강력한 머신러닝 기술을 활용하여 가장 높은 정확성을 제공합니다.
클라우드 및 기기별 모델 비교
Firebase ML에는 클라우드 또는 기기에서 작동하는 API가 있습니다.
ML API를 Cloud API 또는 기기별 API로 설명할 때는 추론을 수행하는 머신, 즉 ML 모델을 사용하여 개발자가 제공한 데이터에 대한 유용한 정보를 검색하는 머신을 말하는 것입니다. Firebase ML의 경우 Google Cloud 또는 사용자의 휴대기기에서 이러한 작업이 수행됩니다.
텍스트 인식, 이미지 라벨 지정, 랜드마크 인식 API는 클라우드에서 추론을 수행합니다. 이러한 모델은 비교 가능한 기기별 모델보다 연산 능력이 뛰어나고 메모리가 많으므로 결과적으로 추론 정확도와 정밀도가 기기별 모델보다 더 높습니다.
반면 이러한 API에 대한 모든 요청을 처리하려면 네트워크 왕복이 필요하므로 동영상 처리와 같이 실시간 애플리케이션과 지연 시간이 짧은 애플리케이션에는 적합하지 않습니다.
커스텀 모델 API는 기기에서 실행되는 ML 모델을 처리합니다. 이러한 특성이 사용하고 생성하는 모델은 TensorFlow Lite 모델이며 휴대기기에서 실행하도록 최적화되었습니다. 이러한 모델의 가장 큰 장점은 네트워크 연결이 필요하지 않으며 실시간으로 동영상 프레임 처리 등의 작업을 수행할 때 매우 빠르게 실행할 수 있다는 점입니다.
Firebase ML은 커스텀 모델을 Google 서버에 업로드하여 사용자 기기에 배포할 수 있는 기능을 제공합니다. Firebase 지원 앱이 필요 시 기기에 모델을 다운로드합니다. 이렇게 하면 앱의 초기 설치 크기를 작게 유지할 수 있으며 앱을 다시 게시할 필요 없이 ML 모델을 교체할 수 있습니다.
ML Kit: 즉시 사용 가능한 기기별 모델
기기에서 실행되는 선행 학습된 모델을 찾고 있다면 ML Kit를 확인하세요. ML Kit는 iOS 및 Android용으로 제공되며 다양한 사용 사례에 대한 API를 지원합니다.
[null,null,["최종 업데이트: 2025-08-24(UTC)"],[],[],null,["Firebase Machine Learning \nplat_ios plat_android plat_flutter \nUse machine learning in your apps to solve real-world problems. \n\nFirebase Machine Learning is a mobile SDK that brings Google's machine\nlearning expertise to Android and Apple apps in a powerful yet easy-to-use\npackage. Whether you're new or experienced in machine learning, you can\nimplement the functionality you need in just a few lines of code. There's no\nneed to have deep knowledge of neural networks or model optimization to get\nstarted. On the other hand, if you are an experienced ML developer,\nFirebase ML provides convenient APIs that help you use your custom\nTensorFlow Lite models in your mobile apps.\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Host and deploy custom models | Use your own TensorFlow Lite models for on-device inference. Just deploy your model to Firebase, and we'll take care of hosting and serving it to your app. Firebase will dynamically serve the latest version of the model to your users, allowing you to regularly update them without having to push a new version of your app to users. When you use Firebase ML with [Remote Config](/docs/remote-config), you can serve different models to different user segments, and with [A/B Testing](/docs/ab-testing), you can run experiments to find the best performing model (see the [Apple](/docs/ml/ios/ab-test-models) and [Android](/docs/ml/android/ab-test-models) guides). |\n| Production-ready for common use cases | Firebase ML comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, labeling images, and identifying landmarks. Simply pass in data to the Firebase ML library and it gives you the information you need. These APIs leverage the power of Google Cloud's machine learning technology to give you the highest level of accuracy. |\n\nCloud vs. on-device\n\nFirebase ML has APIs that work either in the cloud or on the device.\nWhen we describe an ML API as being a cloud API or on-device API, we are\ndescribing *which machine performs inference* : that is, which machine uses the\nML model to discover insights about the data you provide it. In Firebase ML,\nthis happens either on Google Cloud, or on your users' mobile devices.\n\nThe text recognition, image labeling, and landmark recognition APIs perform\ninference in the cloud. These models have more computational power and memory\navailable to them than a comparable on-device model, and as a result, can\nperform inference with greater accuracy and precision than an on-device model.\nOn the other hand, every request to these APIs requires a network round-trip,\nwhich makes them unsuitable for real-time and low-latency applications such as\nvideo processing.\n\nThe custom model APIs deal with ML models that run on the\ndevice. The models used and produced by these features are\n[TensorFlow Lite](https://tensorflow.org/lite) models, which are\noptimized to run on mobile devices. The biggest advantage to these models is\nthat they don't require a network connection and can run very quickly---fast\nenough, for example, to process frames of video in real time.\n\nFirebase ML provides\nthe ability to deploy custom models to your users' devices by\nuploading them to our servers. Your Firebase-enabled app will download the\nmodel to the device on demand. This allows you to keep your app's initial\ninstall size small, and you can swap the ML model without having to republish\nyour app.\n\nML Kit: Ready-to-use on-device models On June 3, 2020, we started offering ML Kit's on-device APIs through a\n| [new\n| standalone SDK](https://developers.google.com/ml-kit).\n| Google Cloud APIs and custom model deployment will\n| continue to be available through Firebase Machine Learning.\n\nIf you're looking for pre-trained models that run on the device, check out\n[ML Kit](https://developers.google.com/ml-kit). ML Kit is available\nfor iOS and Android, and has APIs for many use cases:\n\n- Text recognition\n- Image labeling\n- Object detection and tracking\n- Face detection and contour tracing\n- Barcode scanning\n- Language identification\n- Translation\n- Smart Reply\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml/recognize-text), [image labeling](/docs/ml/label-images), and [landmark recognition](/docs/ml/recognize-landmarks).\n- Learn about using mobile-optimized [custom models](/docs/ml/use-custom-models) in your app."]]