Vous pouvez utiliser ML Kit pour reconnaître et décoder des codes-barres.
Fonctionnalité | Sans catégorie | Avec bundles |
---|---|---|
Intégration | Le modèle est téléchargé de manière dynamique via les services Google Play. | Le modèle est associé à votre application de manière statique au moment de la compilation. |
Taille d'application | Augmentation de la taille d'environ 200 Ko | Augmentation de la taille d'environ 2,4 Mo |
Délai d'initialisation | Vous devrez peut-être attendre que le modèle soit téléchargé avant d'utiliser le produit. | Le modèle est disponible immédiatement. |
Essayer
- Testez l'exemple d'application pour voir un exemple d'utilisation de cette API.
- Consultez l'application de présentation de Material Design pour une implémentation de bout en bout de cette API.
Avant de commencer
Dans le fichier
build.gradle
au niveau du projet, assurez-vous d'inclure le dépôt Maven de Google dans vos sectionsbuildscript
etallprojects
.Ajoutez les dépendances des bibliothèques Android ML Kit au fichier Gradle de votre module, généralement
app/build.gradle
. Choisissez l'une des dépendances suivantes en fonction de vos besoins:Pour associer le modèle à votre application:
dependencies { // ... // Use this dependency to bundle the model with your app implementation 'com.google.mlkit:barcode-scanning:17.0.3' }
Pour utiliser le modèle dans les services Google Play :
dependencies { // ... // Use this dependency to use the dynamically downloaded model in Google Play Services implementation 'com.google.android.gms:play-services-mlkit-barcode-scanning:18.1.0' }
Si vous choisissez d'utiliser le modèle dans les services Google Play, vous pouvez configurer votre application de sorte qu'elle télécharge automatiquement le modèle sur l'appareil après son installation depuis le Play Store. Pour ce faire, ajoutez la déclaration suivante au fichier
AndroidManifest.xml
de votre application:<application ...> ... <meta-data android:name="com.google.mlkit.vision.DEPENDENCIES" android:value="barcode" > <!-- To use multiple models: android:value="barcode,model2,model3" --> </application>
Vous pouvez également vérifier explicitement la disponibilité du modèle et demander un téléchargement via l'API ModuleInstallClient des services Google Play.
Si vous n'activez pas les téléchargements de modèles au moment de l'installation ou si vous demandez un téléchargement explicite, le modèle est téléchargé la première fois que vous exécutez l'outil d'analyse. Les requêtes que vous effectuez avant la fin du téléchargement ne produisent aucun résultat.
Consignes pour les images d'entrée
-
Pour que ML Kit puisse lire précisément les codes-barres, les images d'entrée doivent contenir des codes-barres représentés par suffisamment de données de pixels.
Les exigences spécifiques aux données de pixels dépendent à la fois du type de code-barres et de la quantité de données encodées, car de nombreux codes-barres acceptent une charge utile de taille variable. En général, la plus petite unité significative du code-barres doit mesurer au moins 2 pixels de large et 2 pixels de haut pour les codes bidimensionnels.
Par exemple, les codes-barres EAN-13 sont composés de barres et d'espaces d'une largeur de 1, 2, 3 ou 4. Par conséquent, l'image d'un code-barres EAN-13 doit idéalement comporter des barres et des espaces d'au moins 2, 4, 6 et 8 pixels de largeur. Étant donné qu'un code-barres EAN-13 mesure 95 unités de largeur au total, il doit mesurer au moins 190 pixels de largeur.
Les formats de type Denser, tels que PDF417, nécessitent des dimensions en pixels supérieures pour que ML Kit puisse les lire de manière fiable. Par exemple, un code PDF417 peut comporter jusqu'à 34 "mots" de 17 unités de large sur une seule ligne, idéalement d'au moins 1 156 pixels de large.
-
Une image floue peut nuire à la précision de la numérisation. Si votre application n'obtient pas de résultats acceptables, demandez à l'utilisateur de recréer l'image.
-
Pour les applications types, nous vous recommandons d'utiliser une résolution supérieure, telle que 1280 x 720 ou 1920 x 1080. Celle-ci permet de scanner les codes-barres à une plus grande distance de la caméra.
Toutefois, dans les applications où la latence est essentielle, vous pouvez améliorer les performances en capturant les images avec une résolution inférieure, mais en exigeant que le code-barres représente la majorité de l'image d'entrée. Consultez également nos conseils pour améliorer les performances en temps réel.
1. Configurer le lecteur de code-barres
Si vous savez quels formats de code-barres vous attendez à lire, vous pouvez améliorer la vitesse du détecteur de code-barres en le configurant pour qu'il ne détecte que ces formats.Par exemple, pour ne détecter que le code Aztec et les codes QR, créez un objet BarcodeScannerOptions
comme dans l'exemple suivant:
Kotlin
val options = BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build()
Java
BarcodeScannerOptions options = new BarcodeScannerOptions.Builder() .setBarcodeFormats( Barcode.FORMAT_QR_CODE, Barcode.FORMAT_AZTEC) .build();
Les formats suivants sont acceptés :
- Code 128 (
FORMAT_CODE_128
) - Code 39 (
FORMAT_CODE_39
) - Code 93 (
FORMAT_CODE_93
) - Codabar (
FORMAT_CODABAR
) - EAN-13 (
FORMAT_EAN_13
) - EAN-8 (
FORMAT_EAN_8
) - ITF (
FORMAT_ITF
) - UPC-A (
FORMAT_UPC_A
) - UPC-E (
FORMAT_UPC_E
) - Code QR (
FORMAT_QR_CODE
) - PDF 417 (
FORMAT_PDF417
) - Aztèque (
FORMAT_AZTEC
) - Matrice de données (
FORMAT_DATA_MATRIX
)
2. Préparer l'image d'entrée
Pour reconnaître les codes-barres d'une image, créez un objetInputImage
à partir d'un fichier Bitmap
, media.Image
, ByteBuffer
, d'un tableau d'octets ou d'un fichier sur l'appareil. Transmettez ensuite l'objet InputImage
à la méthode process
de BarcodeScanner
.
Vous pouvez créer un objet InputImage
à partir de différentes sources, chacune étant expliquée ci-dessous.
Utiliser un media.Image
Pour créer un objet InputImage
à partir d'un objet media.Image
, par exemple lorsque vous enregistrez une image à partir de l'appareil photo d'un appareil, transmettez l'objet media.Image
et la rotation de l'image à InputImage.fromMediaImage()
.
Si vous utilisez la bibliothèque CameraX, les classes OnImageCapturedListener
et ImageAnalysis.Analyzer
calculent la valeur de rotation pour vous.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy) { val mediaImage = imageProxy.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { Image mediaImage = imageProxy.getImage(); if (mediaImage != null) { InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.getImageInfo().getRotationDegrees()); // Pass image to an ML Kit Vision API // ... } } }
Si vous n'utilisez pas de bibliothèque de caméras qui indique le degré de rotation de l'image, vous pouvez la calculer à partir du degré de rotation et de l'orientation du capteur de l'appareil:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 0) ORIENTATIONS.append(Surface.ROTATION_90, 90) ORIENTATIONS.append(Surface.ROTATION_180, 180) ORIENTATIONS.append(Surface.ROTATION_270, 270) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, isFrontFacing: Boolean): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // Get the device's sensor orientation. val cameraManager = activity.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360 } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360 } return rotationCompensation }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 0); ORIENTATIONS.append(Surface.ROTATION_90, 90); ORIENTATIONS.append(Surface.ROTATION_180, 180); ORIENTATIONS.append(Surface.ROTATION_270, 270); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, boolean isFrontFacing) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // Get the device's sensor orientation. CameraManager cameraManager = (CameraManager) activity.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); if (isFrontFacing) { rotationCompensation = (sensorOrientation + rotationCompensation) % 360; } else { // back-facing rotationCompensation = (sensorOrientation - rotationCompensation + 360) % 360; } return rotationCompensation; }
Transmettez ensuite l'objet media.Image
et la valeur du degré de rotation à InputImage.fromMediaImage()
:
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
Utiliser un URI de fichier
Pour créer un objet InputImage
à partir d'un URI de fichier, transmettez le contexte d'application et l'URI de fichier à InputImage.fromFilePath()
. Cela est utile lorsque vous utilisez un intent ACTION_GET_CONTENT
pour inviter l'utilisateur à sélectionner une image dans son application de galerie.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
Utiliser un ByteBuffer
ou ByteArray
Pour créer un objet InputImage
à partir d'un objet ByteBuffer
ou ByteArray
, vous devez d'abord calculer le degré de rotation de l'image comme décrit précédemment pour l'entrée media.Image
.
Créez ensuite l'objet InputImage
avec le tampon ou le tableau, ainsi que la hauteur, la largeur, le format d'encodage des couleurs et le degré de rotation de l'image:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ) // Or: val image = InputImage.fromByteArray( byteArray, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 ); // Or: InputImage image = InputImage.fromByteArray( byteArray, /* image width */480, /* image height */360, rotation, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Utiliser un Bitmap
Pour créer un objet InputImage
à partir d'un objet Bitmap
, effectuez la déclaration suivante:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
L'image est représentée par un objet Bitmap
avec des degrés de rotation.
3. Obtenir une instance de BarcodeScanner
Kotlin
val scanner = BarcodeScanning.getClient() // Or, to specify the formats to recognize: // val scanner = BarcodeScanning.getClient(options)
Java
BarcodeScanner scanner = BarcodeScanning.getClient(); // Or, to specify the formats to recognize: // BarcodeScanner scanner = BarcodeScanning.getClient(options);
4. Traiter l'image
Transmettez l'image à la méthodeprocess
:
Kotlin
val result = scanner.process(image) .addOnSuccessListener { barcodes -> // Task completed successfully // ... } .addOnFailureListener { // Task failed with an exception // ... }
Java
Task<List<Barcode>> result = scanner.process(image) .addOnSuccessListener(new OnSuccessListener<List<Barcode>>() { @Override public void onSuccess(List<Barcode> barcodes) { // Task completed successfully // ... } }) .addOnFailureListener(new OnFailureListener() { @Override public void onFailure(@NonNull Exception e) { // Task failed with an exception // ... } });
5. Obtenir des informations à partir de codes-barres
Si l'opération de reconnaissance de code-barres réussit, une liste d'objetsBarcode
est transmise à l'écouteur de réussite. Chaque objet Barcode
représente un code-barres détecté dans l'image. Pour chaque code-barres, vous pouvez obtenir ses coordonnées de délimitation dans l'image d'entrée, ainsi que les données brutes encodées par code-barres. De plus, si le scanner de code-barres a pu déterminer le type de données encodées, vous pouvez obtenir un objet contenant des données analysées.
Exemple :
Kotlin
for (barcode in barcodes) { val bounds = barcode.boundingBox val corners = barcode.cornerPoints val rawValue = barcode.rawValue val valueType = barcode.valueType // See API reference for complete list of supported types when (valueType) { Barcode.TYPE_WIFI -> { val ssid = barcode.wifi!!.ssid val password = barcode.wifi!!.password val type = barcode.wifi!!.encryptionType } Barcode.TYPE_URL -> { val title = barcode.url!!.title val url = barcode.url!!.url } } }
Java
for (Barcode barcode: barcodes) { Rect bounds = barcode.getBoundingBox(); Point[] corners = barcode.getCornerPoints(); String rawValue = barcode.getRawValue(); int valueType = barcode.getValueType(); // See API reference for complete list of supported types switch (valueType) { case Barcode.TYPE_WIFI: String ssid = barcode.getWifi().getSsid(); String password = barcode.getWifi().getPassword(); int type = barcode.getWifi().getEncryptionType(); break; case Barcode.TYPE_URL: String title = barcode.getUrl().getTitle(); String url = barcode.getUrl().getUrl(); break; } }
Conseils pour améliorer les performances en temps réel
Si vous souhaitez scanner des codes-barres dans une application en temps réel, suivez ces consignes pour obtenir les meilleures fréquences d'images:
-
Ne pas enregistrer à la résolution native de la caméra Sur certains appareils, la capture d'entrée à la résolution native produit des images extrêmement volumineuses (plus de 10 mégapixels), ce qui nuit à la très faible latence sans aucun avantage en termes de précision. Au lieu de cela, demandez uniquement la taille de la caméra requise pour la détection des codes-barres, qui ne dépasse généralement pas plus de 2 mégapixels.
Si la vitesse d'exploration est importante, vous pouvez réduire davantage la résolution de la capture d'image. Gardez toutefois à l'esprit les exigences minimales concernant la taille des codes-barres décrites ci-dessus.
Si vous essayez de reconnaître des codes-barres à partir d'une séquence d'images vidéo en streaming, l'outil de reconnaissance peut produire des résultats différents d'une image à l'autre. Vous devez attendre d'obtenir une série consécutive de la même valeur pour être sûr de renvoyer un bon résultat.
Le chiffre de la somme de contrôle n'est pas compatible avec ITF ni CODE-39.
- Si vous utilisez l'API
Camera
oucamera2
, limitez les appels au détecteur. Si une nouvelle image vidéo est disponible pendant que le détecteur est en cours d'exécution, abandonnez-la. Consultez la classeVisionProcessorBase
dans l'exemple d'application de démarrage rapide pour obtenir un exemple. - Si vous utilisez l'API
CameraX
, assurez-vous que la stratégie de contre-pression est définie sur sa valeur par défautImageAnalysis.STRATEGY_KEEP_ONLY_LATEST
. Ainsi, une seule image à la fois sera envoyée pour analyse. Si d'autres images sont produites lorsque l'analyseur est occupé, elles seront supprimées automatiquement et ne seront pas mises en file d'attente pour la diffusion. Une fois que l'image analysée est fermée en appelant ImageProxy.close(), la prochaine image la plus récente est diffusée. - Si vous utilisez la sortie du détecteur pour superposer des graphiques sur l'image d'entrée, commencez par obtenir le résultat de ML Kit, puis effectuez le rendu de l'image et de la superposition en une seule étape. Il ne s'affiche à la surface d'affichage qu'une seule fois pour chaque image d'entrée. Consultez les classes
CameraSourcePreview
etGraphicOverlay
dans l'exemple d'application de démarrage rapide pour obtenir un exemple. - Si vous utilisez l'API Camera2, enregistrez des images au format
ImageFormat.YUV_420_888
. Si vous utilisez l'ancienne API Camera, enregistrez des images au formatImageFormat.NV21
.