Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Con las APIs de etiquetado de imágenes del Kit de AA, puedes detectar y extraer información sobre entidades en una imagen que abarque un amplio grupo de categorías. El modelo de etiquetado de imágenes predeterminado puede identificar objetos generales, lugares, actividades, especies de animales, productos y mucho más.
También puedes usar un modelo de clasificación de imágenes personalizado para adaptar la detección a un caso de uso específico. Consulta Cómo usar un modelo personalizado de TensorFlow Lite para obtener más información.
Funciones clave
Un potente clasificador base de uso general Reconoce más de 400 categorías que describen los objetos más comunes en las fotos.
Adapta tu caso de uso con modelos personalizados
Usa otros modelos previamente entrenados de TensorFlow Hub o tu propio modelo personalizado entrenado con TensorFlow, AutoML Vision Edge o TensorFlow Lite Model maker.
API de alto nivel y fáciles de usar
No es necesario que te ocupes de la entrada y salida de modelos de bajo nivel, el procesamiento previo y posterior de imágenes ni la compilación de una canalización de procesamiento. El Kit de AA extrae las etiquetas del modelo de TensorFlow Lite y las proporciona como una descripción de texto.
Ten en cuenta que esta API está diseñada para modelos de clasificación de imágenes que describen la imagen completa. Para clasificar uno o más objetos en una imagen, como zapatos o muebles, la API de Detección y seguimiento de objetos puede ser una mejor opción.
Modelos de clasificación de imágenes compatibles
Las APIs de etiquetado de imágenes admiten diferentes modelos de clasificación de imágenes:
Modelos de clasificación de imágenes compatibles
Modelo base
De forma predeterminada, la API usa un potente modelo de etiquetado de imágenes de uso general que reconoce más de 400 entidades que abarcan los conceptos más comunes en las fotos.
Modelos personalizados de TensorFlow Lite
Para orientarse a conceptos específicos de la aplicación, la API acepta modelos personalizados de clasificación de imágenes de una amplia variedad de fuentes. Estos pueden ser modelos previamente entrenados
descargados desde TensorFlow Hub o tus propios modelos entrenados
con AutoML Vision Edge, TensorFlow Lite Model Maker o TensorFlow
mismo. Los modelos pueden empaquetarse con tu app o alojarse en el aprendizaje automático de Firebase
y descargarse en el tiempo de ejecución.
Usa el modelo base
El modelo base del ML Kit muestra una lista de entidades que identifican personas, elementos, lugares, actividades, etcétera. Cada entidad viene con una puntuación que indica la confianza que tiene el modelo de AA en su relevancia. Con esta información, puedes realizar tareas como la generación automática de metadatos y la moderación de contenido. El modelo predeterminado que se proporciona con el Kit de AA reconoce más de 400 entidades diferentes.
El modelo base en la API de etiquetado de imágenes admite más de 400 etiquetas, como en los siguientes ejemplos:
Categoría
Etiquetas de ejemplo
Personas
Crowd Selfie Smile
Actividades
Dancing Eating Surfing
Things
Car Piano Receipt
Animales
Bird Cat Dog
Plantas
Flower Fruit Vegetable
Places
Beach Lake Mountain
Resultados de ejemplo
A continuación, se muestra un ejemplo de las entidades que se reconocieron en la foto adjunta.
Foto: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0
Etiqueta 0
Texto
Estadio
Confianza
0,9205354
Etiqueta 1
Texto
Deportes
Confianza
0,7531109
Etiqueta 2
Texto
Evento
Confianza
0,66905296
Etiqueta 3
Texto
Ocio
Confianza
0,59904146
Etiqueta 4
Texto
Fútbol
Confianza
0,56384534
Etiqueta 5
Texto
Neta
Confianza
0,54679185
Etiqueta 6
Texto
Planta
Confianza
0,524364
Usa un modelo personalizado de TensorFlow Lite
El modelo de etiquetado de imágenes base del Kit de AA está diseñado para uso general. Se entrenó para reconocer 400 categorías que describen los objetos que se encuentran con más frecuencia en las fotos. Es posible que tu app necesite un modelo especializado de clasificación de imágenes que reconozca una cantidad menor de categorías con más detalle, como un modelo que distinga entre especies de flores o tipos de comida.
Esta API te permite adaptarte a un caso de uso particular, ya que admite modelos de clasificación de imágenes personalizados de una amplia variedad de fuentes. Consulta Modelos personalizados con ML Kit
para obtener más información. Los modelos personalizados se pueden empaquetar con tu app o descargar de forma dinámica desde la nube mediante el servicio de implementación de modelos de aprendizaje automático de Firebase.
Si es necesario, el etiquetado de imágenes usa el escalamiento y estiramiento de imágenes bilineales para ajustar el tamaño de la imagen de entrada y la relación de aspecto, de modo que se ajusten a los requisitos del modelo subyacente.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[[["\u003cp\u003eML Kit's image labeling APIs can detect and extract information about entities in an image, including objects, places, activities, and more.\u003c/p\u003e\n"],["\u003cp\u003eYou can leverage the powerful base model to identify over 400 common entities or use custom models tailored to specific use cases.\u003c/p\u003e\n"],["\u003cp\u003eML Kit simplifies the process with high-level APIs that abstract away low-level model complexities, making integration easier.\u003c/p\u003e\n"],["\u003cp\u003eEasily incorporate custom TensorFlow Lite models, whether bundled with your app or dynamically downloaded, to enable specialized image classification.\u003c/p\u003e\n"],["\u003cp\u003eImage Labeling automatically adjusts the input image size and aspect ratio to fit the model's requirements.\u003c/p\u003e\n"]]],[],null,["With ML Kit's image labeling APIs you can detect and extract information\nabout entities in an image across a broad group of categories. The default\nimage labeling model can identify general objects, places, activities, animal\nspecies, products, and more.\n\nYou can also use a custom image classification model to tailor detection\nto a specific use case. See [Using a custom TensorFlow Lite model](#custom-tflite)\nfor more information.\n\nKey capabilities\n\n- **A powerful general-purpose base classifier** Recognizes more than 400 categories that describe the most commonly found objects in photos.\n- **Tailor to your use case with custom models** Use other pre-trained models from TensorFlow Hub or your own custom model trained with TensorFlow, AutoML Vision Edge or TensorFlow Lite Model maker.\n- **Easy-to-use high-level APIs** No need to deal with low-level model input/output, image pre- and post-processing, or building a processing pipeline. ML Kit extracts the labels from the TensorFlow Lite model and provides them as a text description.\n\nNote that this API is intended for image classification models that describe the\nfull image. For classifying one or more objects in an image, such as shoes or\npieces of furniture, the\n[Object Detection \\& Tracking](/ml-kit/vision/object-detection)\nAPI may be a better fit.\n\nSupported image classification models\n\nThe Image Labeling APIs support different image classification models:\n\n| Supported image classification models ||\n|-----------------------------------|---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| **Base model** | By default the API uses a powerful general-purpose image labeling model that recognizes more than 400 entities that cover the most commonly-found concepts in photos. |\n| **Custom TensorFlow Lite models** | To target application-specific concepts, the API accepts custom image classification models from a wide range of sources. These can be pre-trained models downloaded from TensorFlow Hub or your own models trained with AutoML Vision Edge, TensorFlow Lite Model Maker or TensorFlow itself. Models can be bundled with your app or hosted with Firebase Machine Learning and downloaded at run-time. |\n\nUsing the base model\n\nML Kit's base model returns a list of entities that identify people,\nthings, places, activities, and so on. Each entity comes with a score that\nindicates the confidence the ML model has in its relevance. With this\ninformation, you can perform tasks such as automatic metadata generation and\ncontent moderation. The default model provided with ML Kit recognizes more than\n[400 different entities](/ml-kit/vision/image-labeling/label-map).\n\n[iOS](/ml-kit/vision/image-labeling/ios)\n[Android](/ml-kit/vision/image-labeling/android)\n\nExample labels\n\nThe base model in the image labeling API supports 400+ labels, such as the\nfollowing examples:\n\n| Category | Example labels |\n|------------|------------------------------|\n| People | `Crowd` `Selfie` `Smile` |\n| Activities | `Dancing` `Eating` `Surfing` |\n| Things | `Car` `Piano` `Receipt` |\n| Animals | `Bird` `Cat` `Dog` |\n| Plants | `Flower` `Fruit` `Vegetable` |\n| Places | `Beach` `Lake` `Mountain` |\n\nExample results\n\nHere is an example of the entities that were recognized in the accompanying photo.\nPhoto: Clément Bucco-Lechat / Wikimedia Commons / CC BY-SA 3.0\n\n| Label 0 ||\n|----------------|------------|\n| **Text** | Stadium |\n| **Confidence** | 0.9205354 |\n| **Text** | Sports |\n| **Confidence** | 0.7531109 |\n| **Text** | Event |\n| **Confidence** | 0.66905296 |\n| **Text** | Leisure |\n| **Confidence** | 0.59904146 |\n| **Text** | Soccer |\n| **Confidence** | 0.56384534 |\n| **Text** | Net |\n| **Confidence** | 0.54679185 |\n| **Text** | Plant |\n| **Confidence** | 0.524364 |\n\nUsing a custom TensorFlow Lite model\n\nML Kit's base image labeling model is built for general-purpose use. It's\ntrained to recognize 400 categories that describe the most commonly-found\nobjects in photos. Your app might need a specialized image classification model\nthat recognizes a narrower number of categories in more detail, such as a model\nthat distinguishes between species of flowers or types of food.\n\nThis API lets you tailor to a particular use case by supporting custom image\nclassification models from a wide range of sources. Please refer to [Custom models with ML Kit](/ml-kit/custom-models)\nto learn more. Custom models can be bundled with your app or dynamically\ndownloaded from the cloud using Firebase Machine Learning's Model deployment\nservice.\n\n[iOS](/ml-kit/vision/image-labeling/custom-models/ios)\n[Android](/ml-kit/vision/image-labeling/custom-models/android)\n\nInput image preprocessing\n\nIf needed, Image Labeling uses bilinear image scaling and stretching to adjust\nthe input image size and aspect ratio so that they fit the requirements of the\nunderlying model."]]