Scanner des codes-barres avec ML Kit sur Android

Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

Vous pouvez utiliser ML Kit pour reconnaître et décoder des codes-barres.

FonctionnalitéSans catégorieAvec bundles
IntégrationLe modèle est téléchargé de manière dynamique via les services Google Play.Le modèle est associé à votre application de manière statique au moment de la compilation.
Taille d'applicationAugmentation de la taille d'environ 200 KoAugmentation de la taille d'environ 2,4 Mo
Délai d'initialisationVous devrez peut-être attendre que le modèle soit téléchargé avant d'utiliser le produit.Le modèle est disponible immédiatement.

Essayer

Avant de commencer

  1. Dans le fichier build.gradle au niveau du projet, assurez-vous d'inclure le dépôt Maven de Google dans vos sections buildscript et allprojects.

  2. Ajoutez les dépendances des bibliothèques Android ML Kit au fichier Gradle de votre module, généralement app/build.gradle. Choisissez l'une des dépendances suivantes en fonction de vos besoins:

    Pour associer le modèle à votre application:

    dependencies {
      // ...
      // Use this dependency to bundle the model with your app
      implementation 'com.google.mlkit:barcode-scanning:17.0.3'
    }
    

    Pour utiliser le modèle dans les services Google Play :

    dependencies {
      // ...
      // Use this dependency to use the dynamically downloaded model in Google Play Services
      implementation 'com.google.android.gms:play-services-mlkit-barcode-scanning:18.1.0'
    }
    
  3. Si vous choisissez d'utiliser le modèle dans les services Google Play, vous pouvez configurer votre application de sorte qu'elle télécharge automatiquement le modèle sur l'appareil après son installation depuis le Play Store. Pour ce faire, ajoutez la déclaration suivante au fichier AndroidManifest.xml de votre application:

    <application ...>
          ...
          <meta-data
              android:name="com.google.mlkit.vision.DEPENDENCIES"
              android:value="barcode" >
          <!-- To use multiple models: android:value="barcode,model2,model3" -->
    </application>
    

    Vous pouvez également vérifier explicitement la disponibilité du modèle et demander un téléchargement via l'API ModuleInstallClient des services Google Play.

    Si vous n'activez pas les téléchargements de modèles au moment de l'installation ou si vous demandez un téléchargement explicite, le modèle est téléchargé la première fois que vous exécutez l'outil d'analyse. Les requêtes que vous effectuez avant la fin du téléchargement ne produisent aucun résultat.

Consignes pour les images d'entrée

  • Pour que ML Kit puisse lire précisément les codes-barres, les images d'entrée doivent contenir des codes-barres représentés par suffisamment de données de pixels.

    Les exigences spécifiques aux données de pixels dépendent à la fois du type de code-barres et de la quantité de données encodées, car de nombreux codes-barres acceptent une charge utile de taille variable. En général, la plus petite unité significative du code-barres doit mesurer au moins 2 pixels de large et 2 pixels de haut pour les codes bidimensionnels.

    Par exemple, les codes-barres EAN-13 sont composés de barres et d'espaces d'une largeur de 1, 2, 3 ou 4. Par conséquent, l'image d'un code-barres EAN-13 doit idéalement comporter des barres et des espaces d'au moins 2, 4, 6 et 8 pixels de largeur. Étant donné qu'un code-barres EAN-13 mesure 95 unités de largeur au total, il doit mesurer au moins 190 pixels de largeur.

    Les formats de type Denser, tels que PDF417, nécessitent des dimensions en pixels supérieures pour que ML Kit puisse les lire de manière fiable. Par exemple, un code PDF417 peut comporter jusqu'à 34 "mots" de 17 unités de large sur une seule ligne, idéalement d'au moins 1 156 pixels de large.

  • Une image floue peut nuire à la précision de la numérisation. Si votre application n'obtient pas de résultats acceptables, demandez à l'utilisateur de recréer l'image.

  • Pour les applications types, nous vous recommandons d'utiliser une résolution supérieure, telle que 1280 x 720 ou 1920 x 1080. Celle-ci permet de scanner les codes-barres à une plus grande distance de la caméra.

    Toutefois, dans les applications où la latence est essentielle, vous pouvez améliorer les performances en capturant les images avec une résolution inférieure, mais en exigeant que le code-barres représente la majorité de l'image d'entrée. Consultez également nos conseils pour améliorer les performances en temps réel.

1. Configurer le lecteur de code-barres

Si vous savez quels formats de code-barres vous attendez à lire, vous pouvez améliorer la vitesse du détecteur de code-barres en le configurant pour qu'il ne détecte que ces formats.

Par exemple, pour ne détecter que le code Aztec et les codes QR, créez un objet BarcodeScannerOptions comme dans l'exemple suivant:

Kotlin

val options = BarcodeScannerOptions.Builder()
        .setBarcodeFormats(
                Barcode.FORMAT_QR_CODE,
                Barcode.FORMAT_AZTEC)
        .build()

Java

BarcodeScannerOptions options =
        new BarcodeScannerOptions.Builder()
        .setBarcodeFormats(
                Barcode.FORMAT_QR_CODE,
                Barcode.FORMAT_AZTEC)
        .build();

Les formats suivants sont acceptés :

  • Code 128 (FORMAT_CODE_128)
  • Code 39 (FORMAT_CODE_39)
  • Code 93 (FORMAT_CODE_93)
  • Codabar (FORMAT_CODABAR)
  • EAN-13 (FORMAT_EAN_13)
  • EAN-8 (FORMAT_EAN_8)
  • ITF (FORMAT_ITF)
  • UPC-A (FORMAT_UPC_A)
  • UPC-E (FORMAT_UPC_E)
  • Code QR (FORMAT_QR_CODE)
  • PDF 417 (FORMAT_PDF417)
  • Aztèque (FORMAT_AZTEC)
  • Matrice de données (FORMAT_DATA_MATRIX)

2. Préparer l'image d'entrée

Pour reconnaître les codes-barres d'une image, créez un objet InputImage à partir d'un fichier Bitmap, media.Image, ByteBuffer, d'un tableau d'octets ou d'un fichier sur l'appareil. Transmettez ensuite l'objet InputImage à la méthode process de BarcodeScanner.

Vous pouvez créer un objet InputImage à partir de différentes sources, chacune étant expliquée ci-dessous.

Utiliser un media.Image

Pour créer un objet InputImage à partir d'un objet media.Image, par exemple lorsque vous enregistrez une image à partir de l'appareil photo d'un appareil, transmettez l'objet media.Image et la rotation de l'image à InputImage.fromMediaImage().

Si vous utilisez la bibliothèque CameraX, les classes OnImageCapturedListener et ImageAnalysis.Analyzer calculent la valeur de rotation pour vous.

Kotlin

private class YourImageAnalyzer : ImageAnalysis.Analyzer {

    override fun analyze(imageProxy: ImageProxy) {
        val mediaImage = imageProxy.image
        if (mediaImage != null) {
            val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees)
            // Pass image to an ML Kit Vision API
            // ...
        }
    }
}

Java

private class YourAnalyzer implements ImageAnalysis.Analyzer {

    @Override
    public void analyze(ImageProxy imageProxy) {
        Image mediaImage = imageProxy.getImage();
        if (mediaImage != null) {
          InputImage image =
                InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees());
          // Pass image to an ML Kit Vision API
          // ...
        }
    }
}

Si vous n'utilisez pas de bibliothèque de caméras qui indique le degré de rotation de l'image, vous pouvez la calculer à partir du degré de rotation et de l'orientation du capteur de l'appareil:

Kotlin

private val ORIENTATIONS = SparseIntArray()

init {
    ORIENTATIONS.append(Surface.ROTATION_0, 0)
    ORIENTATIONS.append(Surface.ROTATION_90, 90)
    ORIENTATIONS.append(Surface.ROTATION_180, 180)
    ORIENTATIONS.append(Surface.ROTATION_270, 270)
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
@Throws(CameraAccessException::class)
private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    val deviceRotation = activity.windowManager.defaultDisplay.rotation
    var rotationCompensation = ORIENTATIONS.get(deviceRotation)

    // Get the device's sensor orientation.
    val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager
    val sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION)!!

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360
    }
    return rotationCompensation
}

Java

private static final SparseIntArray ORIENTATIONS = new SparseIntArray();
static {
    ORIENTATIONS.append(Surface.ROTATION_0, 0);
    ORIENTATIONS.append(Surface.ROTATION_90, 90);
    ORIENTATIONS.append(Surface.ROTATION_180, 180);
    ORIENTATIONS.append(Surface.ROTATION_270, 270);
}

/**
 * Get the angle by which an image must be rotated given the device's current
 * orientation.
 */
@RequiresApi(api = Build.VERSION_CODES.LOLLIPOP)
private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing)
        throws CameraAccessException {
    // Get the device's current rotation relative to its "native" orientation.
    // Then, from the ORIENTATIONS table, look up the angle the image must be
    // rotated to compensate for the device's rotation.
    int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation();
    int rotationCompensation = ORIENTATIONS.get(deviceRotation);

    // Get the device's sensor orientation.
    CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE);
    int sensorOrientation = cameraManager
            .getCameraCharacteristics(cameraId)
            .get(CameraCharacteristics.SENSOR_ORIENTATION);

    if (isFrontFacing) {
        rotationCompensation = (sensorOrientation + rotationCompensation) % 360;
    } else { // back-facing
        rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360;
    }
    return rotationCompensation;
}

Transmettez ensuite l'objet media.Image et la valeur du degré de rotation à InputImage.fromMediaImage() :

Kotlin

val image = InputImage.fromMediaImage(mediaImage, rotation)

Java

InputImage image = InputImage.fromMediaImage(mediaImage, rotation);

Utiliser un URI de fichier

Pour créer un objet InputImage à partir d'un URI de fichier, transmettez le contexte d'application et l'URI de fichier à InputImage.fromFilePath(). Cela est utile lorsque vous utilisez un intent ACTION_GET_CONTENT pour inviter l'utilisateur à sélectionner une image dans son application de galerie.

Kotlin

val image: InputImage
try {
    image = InputImage.fromFilePath(context, uri)
} catch (e: IOException) {
    e.printStackTrace()
}

Java

InputImage image;
try {
    image = InputImage.fromFilePath(context, uri);
} catch (IOException e) {
    e.printStackTrace();
}

Utiliser un ByteBuffer ou ByteArray

Pour créer un objet InputImage à partir d'un objet ByteBuffer ou ByteArray, vous devez d'abord calculer le degré de rotation de l'image comme décrit précédemment pour l'entrée media.Image. Créez ensuite l'objet InputImage avec le tampon ou le tableau, ainsi que la hauteur, la largeur, le format d'encodage des couleurs et le degré de rotation de l'image:

Kotlin

val image = InputImage.fromByteBuffer(
        byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)
// Or:
val image = InputImage.fromByteArray(
        byteArray,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
)

Java

InputImage image = InputImage.fromByteBuffer(byteBuffer,
        /* image width */ 480,
        /* image height */ 360,
        rotationDegrees,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);
// Or:
InputImage image = InputImage.fromByteArray(
        byteArray,
        /* image width */480,
        /* image height */360,
        rotation,
        InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12
);

Utiliser un Bitmap

Pour créer un objet InputImage à partir d'un objet Bitmap, effectuez la déclaration suivante:

Kotlin

val image = InputImage.fromBitmap(bitmap, 0)

Java

InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);

L'image est représentée par un objet Bitmap avec des degrés de rotation.

3. Obtenir une instance de BarcodeScanner

Kotlin

val scanner = BarcodeScanning.getClient()
// Or, to specify the formats to recognize:
// val scanner = BarcodeScanning.getClient(options)

Java

BarcodeScanner scanner = BarcodeScanning.getClient();
// Or, to specify the formats to recognize:
// BarcodeScanner scanner = BarcodeScanning.getClient(options);

4. Traiter l'image

Transmettez l'image à la méthode process:

Kotlin

val result = scanner.process(image)
        .addOnSuccessListener { barcodes ->
            // Task completed successfully
            // ...
        }
        .addOnFailureListener {
            // Task failed with an exception
            // ...
        }

Java

Task<List<Barcode>> result = scanner.process(image)
        .addOnSuccessListener(new OnSuccessListener<List<Barcode>>() {
            @Override
            public void onSuccess(List<Barcode> barcodes) {
                // Task completed successfully
                // ...
            }
        })
        .addOnFailureListener(new OnFailureListener() {
            @Override
            public void onFailure(@NonNull Exception e) {
                // Task failed with an exception
                // ...
            }
        });

5. Obtenir des informations à partir de codes-barres

Si l'opération de reconnaissance de code-barres réussit, une liste d'objets Barcode est transmise à l'écouteur de réussite. Chaque objet Barcode représente un code-barres détecté dans l'image. Pour chaque code-barres, vous pouvez obtenir ses coordonnées de délimitation dans l'image d'entrée, ainsi que les données brutes encodées par code-barres. De plus, si le scanner de code-barres a pu déterminer le type de données encodées, vous pouvez obtenir un objet contenant des données analysées.

Exemple :

Kotlin

for (barcode in barcodes) {
    val bounds = barcode.boundingBox
    val corners = barcode.cornerPoints

    val rawValue = barcode.rawValue

    val valueType = barcode.valueType
    // See API reference for complete list of supported types
    when (valueType) {
        Barcode.TYPE_WIFI -> {
            val ssid = barcode.wifi!!.ssid
            val password = barcode.wifi!!.password
            val type = barcode.wifi!!.encryptionType
        }
        Barcode.TYPE_URL -> {
            val title = barcode.url!!.title
            val url = barcode.url!!.url
        }
    }
}

Java

for (Barcode barcode: barcodes) {
    Rect bounds = barcode.getBoundingBox();
    Point[] corners = barcode.getCornerPoints();

    String rawValue = barcode.getRawValue();

    int valueType = barcode.getValueType();
    // See API reference for complete list of supported types
    switch (valueType) {
        case Barcode.TYPE_WIFI:
            String ssid = barcode.getWifi().getSsid();
            String password = barcode.getWifi().getPassword();
            int type = barcode.getWifi().getEncryptionType();
            break;
        case Barcode.TYPE_URL:
            String title = barcode.getUrl().getTitle();
            String url = barcode.getUrl().getUrl();
            break;
    }
}

Conseils pour améliorer les performances en temps réel

Si vous souhaitez scanner des codes-barres dans une application en temps réel, suivez ces consignes pour obtenir les meilleures fréquences d'images:

  • Ne pas enregistrer à la résolution native de la caméra Sur certains appareils, la capture d'entrée à la résolution native produit des images extrêmement volumineuses (plus de 10 mégapixels), ce qui nuit à la très faible latence sans aucun avantage en termes de précision. Au lieu de cela, demandez uniquement la taille de la caméra requise pour la détection des codes-barres, qui ne dépasse généralement pas plus de 2 mégapixels.

    Si la vitesse d'exploration est importante, vous pouvez réduire davantage la résolution de la capture d'image. Gardez toutefois à l'esprit les exigences minimales concernant la taille des codes-barres décrites ci-dessus.

    Si vous essayez de reconnaître des codes-barres à partir d'une séquence d'images vidéo en streaming, l'outil de reconnaissance peut produire des résultats différents d'une image à l'autre. Vous devez attendre d'obtenir une série consécutive de la même valeur pour être sûr de renvoyer un bon résultat.

    Le chiffre de la somme de contrôle n'est pas compatible avec ITF ni CODE-39.

  • Si vous utilisez l'API Camera ou camera2, limitez les appels au détecteur. Si une nouvelle image vidéo est disponible pendant que le détecteur est en cours d'exécution, abandonnez-la. Consultez la classe VisionProcessorBase dans l'exemple d'application de démarrage rapide pour obtenir un exemple.
  • Si vous utilisez l'API CameraX, assurez-vous que la stratégie de contre-pression est définie sur sa valeur par défaut ImageAnalysis.STRATEGY_KEEP_ONLY_LATEST. Ainsi, une seule image à la fois sera envoyée pour analyse. Si d'autres images sont produites lorsque l'analyseur est occupé, elles seront supprimées automatiquement et ne seront pas mises en file d'attente pour la diffusion. Une fois que l'image analysée est fermée en appelant ImageProxy.close(), la prochaine image la plus récente est diffusée.
  • Si vous utilisez la sortie du détecteur pour superposer des graphiques sur l'image d'entrée, commencez par obtenir le résultat de ML Kit, puis effectuez le rendu de l'image et de la superposition en une seule étape. Il ne s'affiche à la surface d'affichage qu'une seule fois pour chaque image d'entrée. Consultez les classes CameraSourcePreview et GraphicOverlay dans l'exemple d'application de démarrage rapide pour obtenir un exemple.
  • Si vous utilisez l'API Camera2, enregistrez des images au format ImageFormat.YUV_420_888. Si vous utilisez l'ancienne API Camera, enregistrez des images au format ImageFormat.NV21.