강력한 범용 기반 분류기: 사진에서 가장 흔히 발견되는 객체를 설명하는 400개 이상의 카테고리를 인식합니다.
커스텀 모델로 사용 사례에 맞게 조정
TensorFlow Hub의 다른 선행 학습된 모델 또는 TensorFlow, AutoML Vision Edge 또는 TensorFlow Lite Model Maker로 학습된 자체 커스텀 모델을 사용하세요.
사용하기 쉬운 상위 수준 API
하위 수준 모델 입력/출력, 이미지 전처리 및 후처리, 처리 파이프라인 빌드를 처리할 필요가 없습니다. ML Kit는 TensorFlow Lite 모델에서 라벨을 추출하여 텍스트 설명으로 제공합니다.
이 API는 전체 이미지를 설명하는 이미지 분류 모델을 위한 것입니다. 신발이나 가구와 같은 이미지에서 하나 이상의 객체를 분류하는 경우 Object Detection & Tracking API가 더 적합할 수 있습니다.
지원되는 이미지 분류 모델
Image Labeling API는 다양한 이미지 분류 모델을 지원합니다.
지원되는 이미지 분류 모델
기본 모델
기본적으로 이 API는 사진에서 가장 흔하게 등장하는 개념을 다루는 400개 이상의 항목을 인식하는 강력한 범용 이미지 라벨 지정 모델을 사용합니다.
커스텀 TensorFlow Lite 모델
API는 애플리케이션별 개념을 타겟팅하기 위해 다양한 소스의 커스텀 이미지 분류 모델을 허용합니다. TensorFlow Hub에서 다운로드한 선행 학습된 모델 또는 AutoML Vision Edge, TensorFlow Lite Model Maker 또는 TensorFlow 자체로 학습된 자체 모델을 다운로드할 수 있습니다. 모델을 앱과 번들로 묶거나 Firebase 머신러닝을 통해 호스팅하고 런타임에 다운로드할 수 있습니다.
기본 모델 사용
ML Kit의 기본 모델은 사람, 사물, 장소, 활동 등을 식별하는 항목 목록을 반환합니다. 각 항목에는 ML 모델의 관련성에 대한 신뢰도를 나타내는 점수가 함께 제공됩니다. 이 정보를 사용하여 자동 메타데이터 생성 및 콘텐츠 검토와 같은 작업을 수행할 수 있습니다. ML Kit와 함께 제공되는 기본 모델은 400개 이상의 서로 다른 항목을 인식합니다.
이미지 라벨 지정 API의 기본 모델은 다음 예시와 같이 400개 이상의 라벨을 지원합니다.
카테고리
라벨 예
사용자
Crowd Selfie Smile
활동
Dancing Eating Surfing
Things
Car Piano Receipt
동물
Bird Cat Dog
식물
Flower Fruit Vegetable
Places
Beach Lake Mountain
결과 예시
다음은 첨부된 사진에서 인식된 법인의 예입니다.
사진: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0
라벨 0
텍스트
경기장
신뢰도
0.9205354
라벨 1
텍스트
스포츠 시설
신뢰도
0.7531109
라벨 2
텍스트
이벤트
신뢰도
0.66905296
라벨 3
텍스트
레저
신뢰도
0.59904146
라벨 4
텍스트
축구
신뢰도
0.56384534
라벨 5
텍스트
순 통계
신뢰도
0.54679185
라벨 6
텍스트
식물
신뢰도
0.524364
커스텀 TensorFlow Lite 모델 사용
ML Kit의 기본 이미지 라벨 지정 모델은 범용으로 구축되었습니다. 사진에서
가장 많이 발견되는 사물을 설명하는 400개의 카테고리를 인식하도록 학습됩니다. 앱에는 꽃의 종이나 음식 유형을 구분하는 모델과 같이 더 적은 수의 카테고리를 자세히 인식하는 특수 이미지 분류 모델이 필요할 수 있습니다.
이 API를 사용하면 다양한 소스의 커스텀 이미지 분류 모델을 지원하여 특정 사용 사례에 맞게 조정할 수 있습니다. 자세한 내용은 ML Kit를 사용한 커스텀 모델을 참조하세요. 커스텀 모델은 앱과 번들로 묶거나 Firebase 머신러닝의 모델 배포 서비스를 사용하여 클라우드에서 동적으로 다운로드할 수 있습니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-08-29(UTC)"],[[["\u003cp\u003eML Kit's image labeling APIs can detect and extract information about entities in an image, including objects, places, activities, and more.\u003c/p\u003e\n"],["\u003cp\u003eYou can leverage the powerful base model to identify over 400 common entities or use custom models tailored to specific use cases.\u003c/p\u003e\n"],["\u003cp\u003eML Kit simplifies the process with high-level APIs that abstract away low-level model complexities, making integration easier.\u003c/p\u003e\n"],["\u003cp\u003eEasily incorporate custom TensorFlow Lite models, whether bundled with your app or dynamically downloaded, to enable specialized image classification.\u003c/p\u003e\n"],["\u003cp\u003eImage Labeling automatically adjusts the input image size and aspect ratio to fit the model's requirements.\u003c/p\u003e\n"]]],[],null,["With ML Kit's image labeling APIs you can detect and extract information\nabout entities in an image across a broad group of categories. The default\nimage labeling model can identify general objects, places, activities, animal\nspecies, products, and more.\n\nYou can also use a custom image classification model to tailor detection\nto a specific use case. See [Using a custom TensorFlow Lite model](#custom-tflite)\nfor more information.\n\nKey capabilities\n\n- **A powerful general-purpose base classifier** Recognizes more than 400 categories that describe the most commonly found objects in photos.\n- **Tailor to your use case with custom models** Use other pre-trained models from TensorFlow Hub or your own custom model trained with TensorFlow, AutoML Vision Edge or TensorFlow Lite Model maker.\n- **Easy-to-use high-level APIs** No need to deal with low-level model input/output, image pre- and post-processing, or building a processing pipeline. ML Kit extracts the labels from the TensorFlow Lite model and provides them as a text description.\n\nNote that this API is intended for image classification models that describe the\nfull image. For classifying one or more objects in an image, such as shoes or\npieces of furniture, the\n[Object Detection \\& Tracking](/ml-kit/vision/object-detection)\nAPI may be a better fit.\n\nSupported image classification models\n\nThe Image Labeling APIs support different image classification models:\n\n| Supported image classification models ||\n|-----------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Base model** | By default the API uses a powerful general-purpose image labeling model that recognizes more than 400 entities that cover the most commonly-found concepts in photos. |\n| **Custom TensorFlow Lite models** | To target application-specific concepts, the API accepts custom image classification models from a wide range of sources. These can be pre-trained models downloaded from TensorFlow Hub or your own models trained with AutoML Vision Edge, TensorFlow Lite Model Maker or TensorFlow itself. Models can be bundled with your app or hosted with Firebase Machine Learning and downloaded at run-time. |\n\nUsing the base model\n\nML Kit's base model returns a list of entities that identify people,\nthings, places, activities, and so on. Each entity comes with a score that\nindicates the confidence the ML model has in its relevance. With this\ninformation, you can perform tasks such as automatic metadata generation and\ncontent moderation. The default model provided with ML Kit recognizes more than\n[400 different entities](/ml-kit/vision/image-labeling/label-map).\n\n[iOS](/ml-kit/vision/image-labeling/ios)\n[Android](/ml-kit/vision/image-labeling/android)\n\nExample labels\n\nThe base model in the image labeling API supports 400+ labels, such as the\nfollowing examples:\n\n| Category | Example labels |\n|------------|------------------------------|\n| People | `Crowd` `Selfie` `Smile` |\n| Activities | `Dancing` `Eating` `Surfing` |\n| Things | `Car` `Piano` `Receipt` |\n| Animals | `Bird` `Cat` `Dog` |\n| Plants | `Flower` `Fruit` `Vegetable` |\n| Places | `Beach` `Lake` `Mountain` |\n\nExample results\n\nHere is an example of the entities that were recognized in the accompanying photo.\nPhoto: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0\n\n| Label 0 ||\n|----------------|------------|\n| **Text** | Stadium |\n| **Confidence** | 0.9205354 |\n| **Text** | Sports |\n| **Confidence** | 0.7531109 |\n| **Text** | Event |\n| **Confidence** | 0.66905296 |\n| **Text** | Leisure |\n| **Confidence** | 0.59904146 |\n| **Text** | Soccer |\n| **Confidence** | 0.56384534 |\n| **Text** | Net |\n| **Confidence** | 0.54679185 |\n| **Text** | Plant |\n| **Confidence** | 0.524364 |\n\nUsing a custom TensorFlow Lite model\n\nML Kit's base image labeling model is built for general-purpose use. It's\ntrained to recognize 400 categories that describe the most commonly-found\nobjects in photos. Your app might need a specialized image classification model\nthat recognizes a narrower number of categories in more detail, such as a model\nthat distinguishes between species of flowers or types of food.\n\nThis API lets you tailor to a particular use case by supporting custom image\nclassification models from a wide range of sources. Please refer to [Custom models with ML Kit](/ml-kit/custom-models)\nto learn more. Custom models can be bundled with your app or dynamically\ndownloaded from the cloud using Firebase Machine Learning's Model deployment\nservice.\n\n[iOS](/ml-kit/vision/image-labeling/custom-models/ios)\n[Android](/ml-kit/vision/image-labeling/custom-models/android)\n\nInput image preprocessing\n\nIf needed, Image Labeling uses bilinear image scaling and stretching to adjust\nthe input image size and aspect ratio so that they fit the requirements of the\nunderlying model."]]