Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Les API d'étiquetage d'images de ML Kit vous permettent de détecter et d'extraire des informations sur les entités d'une image dans un large groupe de catégories. Le modèle d'étiquetage d'images par défaut peut identifier des objets généraux, des lieux, des activités, des espèces animales, des produits, etc.
Vous pouvez également utiliser un modèle de classification d'images personnalisé pour adapter la détection à un cas d'utilisation spécifique. Pour en savoir plus, consultez la page Utiliser un modèle TensorFlow Lite personnalisé.
Capacités clés
Un classificateur de base puissant à usage général Reconnaît plus de 400 catégories décrivant les objets les plus couramment trouvés dans les photos.
Adaptez les modèles à votre cas d'utilisation avec les modèles personnalisés
Utilisez d'autres modèles pré-entraînés de TensorFlow Hub ou votre propre modèle personnalisé entraîné avec TensorFlow, AutoML Vision Edge ou TensorFlow Lite Model Maker.
API de haut niveau faciles à utiliser
Vous n'avez pas besoin de gérer les entrées/sorties de modèles de bas niveau, le prétraitement et le post-traitement d'images, ni la création d'un pipeline de traitement. ML Kit extrait les étiquettes du modèle TensorFlow Lite et les fournit sous forme de description textuelle.
Notez que cette API est destinée aux modèles de classification d'images qui décrivent l'image complète. Pour classer un ou plusieurs objets dans une image, tels que des chaussures ou des meubles, l'API Object Detection & Tracking peut être plus appropriée.
Modèles de classification d'images compatibles
Les API Image Labeling sont compatibles avec différents modèles de classification d'images:
Modèles de classification d'images compatibles
Modèle de base
Par défaut, l'API utilise un modèle d'étiquetage d'images puissant et polyvalent. Celui-ci reconnaît plus de 400 entités et couvre les concepts les plus couramment utilisés dans les photos.
Modèles TensorFlow Lite personnalisés
Pour cibler les concepts propres à l'application, l'API accepte des modèles de classification d'images personnalisés provenant d'un large éventail de sources. Il peut s'agir de modèles pré-entraînés téléchargés depuis TensorFlow Hub, ou de vos propres modèles entraînés avec AutoML Vision Edge, TensorFlow Lite Model Maker ou TensorFlow. Les modèles peuvent être regroupés avec votre application ou hébergés avec Firebase Machine Learning, puis téléchargés au moment de l'exécution.
Utiliser le modèle de base
Le modèle de base de ML Kit renvoie une liste d'entités qui identifient des personnes, des choses, des lieux, des activités, etc. Chaque entité est associée à un score, qui indique le degré de confiance du modèle de ML dans sa pertinence. Grâce à ces informations, vous pouvez effectuer des tâches telles que la génération automatique de métadonnées et la modération de contenu. Le modèle par défaut fourni avec ML Kit reconnaît plus de 400 entités différentes.
Le modèle de base de l'API d'étiquetage d'images accepte plus de 400 étiquettes, comme dans les exemples suivants:
Catégorie
Exemples de libellés
Personnes
Crowd Selfie Smile
Activités
Dancing Eating Surfing
Objets
Car Piano Receipt
Animaux
Bird Cat Dog
Plantes
Flower Fruit Vegetable
Places
Beach Lake Mountain
Exemples de résultats
Voici un exemple des entités reconnues sur la photo associée.
Photo: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0
Libellé 0
Texte
Stade
Confiance
0,9205354
Label 1
Texte
Sport
Confiance
0,7531109
Label 2
Texte
Événement
Confiance
0,66905296
Label 3
Texte
Loisirs
Confiance
0,59904146
Label 4
Texte
Football
Confiance
0,56384534
Étiquette 5
Texte
Nette
Confiance
0,54679185
Libellé 6
Texte
Plante
Confiance
0,524364
Utiliser un modèle TensorFlow Lite personnalisé
Le modèle d'étiquetage d'image de base de ML Kit est conçu pour un usage général. Il est entraîné à reconnaître 400 catégories décrivant les objets les plus couramment trouvés dans les photos. Votre application peut avoir besoin d'un modèle spécialisé de classification d'images capable de reconnaître plus en détail un plus petit nombre de catégories, comme un modèle qui fait la distinction entre des espèces de fleurs ou des types d'aliments.
Cette API vous permet de vous adapter à un cas d'utilisation particulier en acceptant des modèles de classification d'images personnalisés provenant d'un large éventail de sources. Pour en savoir plus, consultez la section Modèles personnalisés avec ML Kit. Vous pouvez regrouper les modèles personnalisés avec votre application ou les télécharger de manière dynamique depuis le cloud à l'aide du service de déploiement de modèles de Firebase Machine Learning.
Si nécessaire, la fonctionnalité d'étiquetage d'images utilise la mise à l'échelle bilinéaire et l'étirement pour ajuster la taille et le format de l'image d'entrée afin de répondre aux exigences du modèle sous-jacent.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eML Kit's image labeling APIs can detect and extract information about entities in an image, including objects, places, activities, and more.\u003c/p\u003e\n"],["\u003cp\u003eYou can leverage the powerful base model to identify over 400 common entities or use custom models tailored to specific use cases.\u003c/p\u003e\n"],["\u003cp\u003eML Kit simplifies the process with high-level APIs that abstract away low-level model complexities, making integration easier.\u003c/p\u003e\n"],["\u003cp\u003eEasily incorporate custom TensorFlow Lite models, whether bundled with your app or dynamically downloaded, to enable specialized image classification.\u003c/p\u003e\n"],["\u003cp\u003eImage Labeling automatically adjusts the input image size and aspect ratio to fit the model's requirements.\u003c/p\u003e\n"]]],[],null,["With ML Kit's image labeling APIs you can detect and extract information\nabout entities in an image across a broad group of categories. The default\nimage labeling model can identify general objects, places, activities, animal\nspecies, products, and more.\n\nYou can also use a custom image classification model to tailor detection\nto a specific use case. See [Using a custom TensorFlow Lite model](#custom-tflite)\nfor more information.\n\nKey capabilities\n\n- **A powerful general-purpose base classifier** Recognizes more than 400 categories that describe the most commonly found objects in photos.\n- **Tailor to your use case with custom models** Use other pre-trained models from TensorFlow Hub or your own custom model trained with TensorFlow, AutoML Vision Edge or TensorFlow Lite Model maker.\n- **Easy-to-use high-level APIs** No need to deal with low-level model input/output, image pre- and post-processing, or building a processing pipeline. ML Kit extracts the labels from the TensorFlow Lite model and provides them as a text description.\n\nNote that this API is intended for image classification models that describe the\nfull image. For classifying one or more objects in an image, such as shoes or\npieces of furniture, the\n[Object Detection \\& Tracking](/ml-kit/vision/object-detection)\nAPI may be a better fit.\n\nSupported image classification models\n\nThe Image Labeling APIs support different image classification models:\n\n| Supported image classification models ||\n|-----------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Base model** | By default the API uses a powerful general-purpose image labeling model that recognizes more than 400 entities that cover the most commonly-found concepts in photos. |\n| **Custom TensorFlow Lite models** | To target application-specific concepts, the API accepts custom image classification models from a wide range of sources. These can be pre-trained models downloaded from TensorFlow Hub or your own models trained with AutoML Vision Edge, TensorFlow Lite Model Maker or TensorFlow itself. Models can be bundled with your app or hosted with Firebase Machine Learning and downloaded at run-time. |\n\nUsing the base model\n\nML Kit's base model returns a list of entities that identify people,\nthings, places, activities, and so on. Each entity comes with a score that\nindicates the confidence the ML model has in its relevance. With this\ninformation, you can perform tasks such as automatic metadata generation and\ncontent moderation. The default model provided with ML Kit recognizes more than\n[400 different entities](/ml-kit/vision/image-labeling/label-map).\n\n[iOS](/ml-kit/vision/image-labeling/ios)\n[Android](/ml-kit/vision/image-labeling/android)\n\nExample labels\n\nThe base model in the image labeling API supports 400+ labels, such as the\nfollowing examples:\n\n| Category | Example labels |\n|------------|------------------------------|\n| People | `Crowd` `Selfie` `Smile` |\n| Activities | `Dancing` `Eating` `Surfing` |\n| Things | `Car` `Piano` `Receipt` |\n| Animals | `Bird` `Cat` `Dog` |\n| Plants | `Flower` `Fruit` `Vegetable` |\n| Places | `Beach` `Lake` `Mountain` |\n\nExample results\n\nHere is an example of the entities that were recognized in the accompanying photo.\nPhoto: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0\n\n| Label 0 ||\n|----------------|------------|\n| **Text** | Stadium |\n| **Confidence** | 0.9205354 |\n| **Text** | Sports |\n| **Confidence** | 0.7531109 |\n| **Text** | Event |\n| **Confidence** | 0.66905296 |\n| **Text** | Leisure |\n| **Confidence** | 0.59904146 |\n| **Text** | Soccer |\n| **Confidence** | 0.56384534 |\n| **Text** | Net |\n| **Confidence** | 0.54679185 |\n| **Text** | Plant |\n| **Confidence** | 0.524364 |\n\nUsing a custom TensorFlow Lite model\n\nML Kit's base image labeling model is built for general-purpose use. It's\ntrained to recognize 400 categories that describe the most commonly-found\nobjects in photos. Your app might need a specialized image classification model\nthat recognizes a narrower number of categories in more detail, such as a model\nthat distinguishes between species of flowers or types of food.\n\nThis API lets you tailor to a particular use case by supporting custom image\nclassification models from a wide range of sources. Please refer to [Custom models with ML Kit](/ml-kit/custom-models)\nto learn more. Custom models can be bundled with your app or dynamically\ndownloaded from the cloud using Firebase Machine Learning's Model deployment\nservice.\n\n[iOS](/ml-kit/vision/image-labeling/custom-models/ios)\n[Android](/ml-kit/vision/image-labeling/custom-models/android)\n\nInput image preprocessing\n\nIf needed, Image Labeling uses bilinear image scaling and stretching to adjust\nthe input image size and aspect ratio so that they fit the requirements of the\nunderlying model."]]